WO2004093011A1 - 複数のフレーム画像からの静止画像の生成 - Google Patents

複数のフレーム画像からの静止画像の生成 Download PDF

Info

Publication number
WO2004093011A1
WO2004093011A1 PCT/JP2004/005514 JP2004005514W WO2004093011A1 WO 2004093011 A1 WO2004093011 A1 WO 2004093011A1 JP 2004005514 W JP2004005514 W JP 2004005514W WO 2004093011 A1 WO2004093011 A1 WO 2004093011A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
frame image
reference frame
target
comparison
Prior art date
Application number
PCT/JP2004/005514
Other languages
English (en)
French (fr)
Inventor
Seiji Aiso
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Priority to US10/541,479 priority Critical patent/US7672538B2/en
Priority to EP04728040A priority patent/EP1538562A4/en
Priority to JP2005505487A priority patent/JP4120677B2/ja
Publication of WO2004093011A1 publication Critical patent/WO2004093011A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Definitions

  • the present invention relates to a technique for generating a still image by synthesizing a plurality of frame images included in a moving image.
  • one scene of a moving image captured by a digital video camera or the like is captured to generate a still image having a higher resolution than a frame image.
  • Such a still image is generated by superimposing and composing a plurality of frame images included in a moving image.
  • Japanese Patent Application Laid-Open No. 2000-244845 discloses that one frame image is selected as a reference image from consecutive (n + 1) frame images, and the reference image is selected. A motion vector of each of the n other frame images (target images) to be calculated, and a still image is generated by combining (n + 1) frame images based on each motion vector. ing.
  • Japanese Patent Application Laid-Open No. 6-350974 discloses a technique for generating a still image from a moving image in an interlaced mode, wherein one of two fields paired in an interlaced mode is used.
  • a technique has been proposed in which a field is used as a reference image, another one field is used as a target image, and it is determined whether or not the target image is suitable for combination for each field.
  • increasing the number of frame images to be synthesized improves the image quality of still images.
  • increasing the number of frame images to be synthesized does not necessarily improve the image quality.
  • FIG. 1 is an explanatory diagram showing a method of synthesizing a reference image and an image to be synthesized.
  • the upper part of Fig. 1 shows how the reference image and the compositing target image are arranged with the amount of deviation corrected.
  • the lower part of Fig. 1 shows the reference image, the compositing target image, and the positional relationship of each pixel of the composite image.
  • “o” represents a pixel of the reference image.
  • “ ⁇ ” Indicates a pixel of the image to be combined.
  • the circles with hatching on the broken-line grid represent pixels of the composite image.
  • the resolutions of the reference image and the image to be synthesized are the same, and the case where the resolution of the frame image is increased by 1.5 times in the X-axis direction and the y-axis direction.
  • the pixel g1 of the composite image This pixel g1 matches the pixel t1 of the reference image.
  • the tone value at the position of the pixel g1 is obtained by the bilinear method.
  • the tone value of pixel g1 is determined.
  • the gradation value of the pixel g2 of the composite image is determined by the following procedure. That is, first, the tone value at the position of the image g2 is obtained by the bilinear method based on the tone values of the four pixels t2 to t5 of the reference image surrounding the pixel g2. Next, the gradation value at the position of the pixel g2 is determined by the bilinear method based on the gradation values of the four pixels s4 to s7 of the synthesis target image surrounding the pixel g2. Then, the gradation value of the pixel g2 is determined by averaging the two.
  • the gradation values of other pixels can be determined in the same manner as described above.
  • the explanation was made assuming that the resolution of the reference image and the target image is the same.However, if the resolution of the reference image and the image to be synthesized are different, enlarge or reduce as appropriate. Then, similar processing may be performed.
  • FIG. 2 is an explanatory diagram showing a synthesizing method when the shift amount between the reference image and the synthesis target image is 0.
  • the upper part of Fig. 2 shows how the reference image and the compositing target image are arranged with the misalignment corrected. Since the shift amount is 0, the reference image and the compositing target image completely overlap.
  • the lower part of Fig. 2 shows the reference image, the image to be synthesized, and the positional relationship of each pixel of the synthesized image. Since the reference image and the image to be synthesized overlap, the reference image Each pixel of the image and the compositing target image exists at the same position.
  • the gradation value of the pixel g2 of the composite image is determined by the following procedure. That is, first, the tone value at the position of the image g2 is obtained by the bilinear method based on the tone values of the four pixels t2 to t5 of the reference image surrounding the pixel g2 . Next, based on the tone values of the four pixels s2 to s5 of the synthesis target image surrounding the pixel g2, the tone value at the position of the pixel g2 is determined by the bilinear method. Then, the tone value of the pixel g2 is determined by averaging the two.
  • the image g2 obtained by the bilinear method based on the gradation values of the pixels t2 to t5 The tone value at the position of the pixel g2 obtained by the bilinear method based on the tone value at the position of and the tone value of the pixels s2 to s5 is the same value.
  • those average values are also used as the gradation values at the position of the image g2 and the gradation values of the pixels s2 to s5 obtained by the bilinear method based on the gradation values of the pixels t2 to t5. It is the same as the gradation value at the position of the pixel g2 obtained by the bilinear method based on the bilinear method.
  • the present invention has been made to solve the above-described problems, and has as its object to efficiently improve the image quality of a still image when a still image is generated from a plurality of frame images included in a moving image.
  • an image generation device of the present invention is an image generation device that generates a still image from a plurality of frame images included in a moving image, At least one or more of the regions included in the frame images other than the reference frame image in the plurality of frame images is determined based on a predetermined rule set in relation to the reference frame image region in the reference frame image.
  • a combining target setting unit that sets a combining target frame image region; a comparison reference extracting unit that extracts one comparison reference frame image region from the reference frame image region and the combining target frame image region; A target extraction unit that extracts one target frame image region from the synthesis target frame image region other than the image region; and a comparison unit that compares the comparison reference frame image region and the target frame image region to obtain a predetermined parameter. If the parameter does not satisfy a predetermined criterion, the target frame image region is combined with the target frame. Excluding excluding unit from beam image area, characterized by comprising the said reference frame image area and the synthetic image generating unit that the synthetic subject frame image area combined to generate a composite image area.
  • a frame image is a still image that can be displayed in a progressive system (also referred to as a non-interlaced system). Therefore, in the case of the interlace method, an image composed of a plurality of field images (odd field and even field) having different rasters corresponds to the frame image of the present invention.
  • the area of a frame image that does not satisfy a predetermined criterion is excluded from the target of synthesis, and the number of frame image areas to be synthesized is secured to a predetermined number or more, so that the image quality of the synthesized image can be efficiently improved.
  • the predetermined criterion is that, for example, if the parameter obtained by the comparison unit is an image shift amount, the image shift amount is equal to or larger than a threshold. Details will be described later.
  • the predetermined number can be set arbitrarily, but is preferably two or more.
  • the compositing target setting unit may set the region of the frame image that is chronologically continuous to the reference frame image in the moving image as a continuous several compositing target frame image region, or may set the composite target frame image every few frames It may be set in an area.
  • the composite processing performed by the composite image generation unit includes the nearest neighbor method and Various well-known image interpolation methods such as the near method and the bicubic method can be applied.
  • a method that can perform high-speed processing has a simplified procedure, and therefore has lower interpolation accuracy and lower image quality than a method that has a complicated procedure.
  • the near-arrested-neighbor method, the bilinear method, and the bicubic method complicate the procedure in this order and increase the processing time.
  • the interpolation accuracy is high, and the image quality is improved.
  • the synthesized image generation unit When the total number of the combined frame image area and the reference frame image area is large, the synthesized image generation unit performs high-speed synthesis processing using the nearest neighbor method or the like. It is also possible to perform good synthesis processing.
  • the image generating apparatus may further include: a setting unit configured to set an area serving as a reference for synthesis as the reference frame image area in the reference frame image; a reference frame image area; and a synthesis target frame image satisfying the reference.
  • a frame number control unit that repeats the processing of the combination target setting unit, the comparison reference extraction unit, the target extraction unit, the comparison unit, and the exclusion unit until the total number of regions is equal to or more than a predetermined number; May be provided.
  • the image generation device may further include a designation receiving unit that receives the designation of the reference frame image, and the setting unit may use the designated frame image as the reference frame image.
  • the user can select a frame image to be a still image from a moving image and use it as a reference frame image.
  • the comparison reference extraction unit may set the reference frame image area as the comparison reference frame image area.
  • the reference frame image area is an area of an image serving as a reference for synthesis, it is desirable that the reference frame image area is first set as the comparison reference frame image area. Using the reference frame image area as a comparison reference frame image area, it is determined whether or not the synthesis target frame image area is worthy of synthesis. The other one can then be used as a comparison reference frame image area.
  • the frame image area 1 is the reference frame image area
  • the frame image area 2 and the frame image area 3 are the synthesis target frame image areas. I do.
  • the frame image area 1 is used as a comparison reference frame image area
  • the shift amount from the frame image area 2 and the shift amount from the frame image area 3 are obtained. If the determined shift amounts are each equal to or larger than a predetermined value, the frame image area 2 is set as a comparison reference frame image area.
  • the displacement between frame image region 2 and frame image region 3 is because if the amount is 0, it is not necessary to combine all the frame image regions 1, 2, and 3. That is, it is sufficient to combine the frame image areas 1 and 2 or the frame image areas 1 and 3.
  • the frame image region 2 as a comparison reference frame image region and the frame image region 3 as a target frame image region, it becomes possible to exclude the frame image region 3 from the compositing target.
  • the image generating apparatus may further include an elimination unit that removes, from the compositing target frame image area, an area of a frame image whose characteristic as an area of one frame image satisfies a predetermined condition.
  • the predetermined conditions include, for example, large noise, out of focus, and abnormal color gradation due to a hand covering the lens.
  • the elimination unit can remove such a frame image region from the composition target in advance.
  • the parameter may be an image shift amount.
  • the image shift amount occurs, for example, due to camera shake or camera turn. If the amount of image shift is too small, the frame image area to be synthesized cannot substantially improve the image quality of the synthesized image area. According to the present invention, it is possible to exclude a frame image region to be synthesized that is not very useful for improving the image quality of the synthesized image region from the synthesis target.
  • the image shift amount is the translation shift It may include at least one of the amount and the rotation deviation amount.
  • the amount of translational deviation can be detected by various methods such as a block matching method, a gradient method, and a method combining these.
  • the amount of rotation deviation can also be detected by geometric calculation. If the parameter is the image shift amount, the above-mentioned predetermined criterion is that the image shift amount is equal to or larger than a threshold value.
  • the comparison unit includes a frame shift amount calculation unit that calculates an image shift amount of a target frame image including the target frame image region from a comparison reference frame image including the comparison reference frame image region.
  • An area shift amount calculation unit that obtains an image shift amount of the target frame image area from the comparison reference frame image area based on the image shift amount obtained by the frame shift amount calculation unit may be provided. good.
  • the shift amount of the area can be easily obtained based on the image shift amount of the frame image. Even if the image shift amount of the frame image includes the rotational shift amount, the shift amount of each area can be approximated by the translational shift amount in some cases. In some cases, an image that is not worth combining as a whole frame image can be used for combining by dividing it into regions. The shift amount of the area may be directly calculated without obtaining the image shift amount of the frame image.
  • the parameter may be an image difference obtained by comparing a feature amount of a pixel at the same position in the target frame image region and the comparison reference frame image region.
  • the feature quantity may be a color gradation or luminance.
  • a frame image region having almost no image difference compared to the comparison reference frame image region can be excluded from the compositing target. Even if frame image areas with the same content are combined, only the frame image area with the same content is obtained, but the image quality does not improve.Therefore, the frame image area with the same content as the comparison reference frame image area is combined with the frame image to be combined. It is intended to be excluded from the area.
  • INDUSTRIAL APPLICABILITY The present invention is particularly effective in excluding a frame image region having the same content from a combination target when frame images having the same content are continuous, such as when a frame rate is converted in a moving image.
  • the predetermined criteria mentioned above is that the image difference is not zero.
  • the parameter may be a comparison of an average value of pixel feature amounts in the target frame image region and the comparison reference frame image region.
  • a frame image region having a difference in characteristics as compared with a comparison reference frame image region can be excluded from a synthesis target. If a frame image area that is clearly abnormal compared to the reference frame image area is used for synthesis, the image quality of the synthesized frame image will also be abnormal, so the obviously abnormal frame image area is excluded from the frame image areas to be synthesized. It is intention.
  • the predetermined criterion described above is that the comparison of the average of the pixel feature is large.
  • the reference frame image area and the compositing target frame image area are areas in which the frame image is divided in the same format, and the target extraction unit is configured to output the comparison reference frame image area The target frame image area at the same position corresponding to the above may be extracted.
  • the present invention it is possible to determine whether or not a frame image is to be synthesized for each region divided in the same format. By discriminating for each area, it is uniformly excluded from the synthesis target
  • the frame image that has been set can also be a compositing target in a certain area. As a result, the quality of the composite image can be improved.
  • the present invention can be configured as an invention of an image generating method in addition to the configuration as the image generating apparatus described above. Further, the present invention can be realized in various forms such as a computer program for realizing the above, a recording medium on which the program is recorded, and a data signal including the program and embodied in a carrier wave. In each embodiment, the various additional elements described above can be applied.
  • the present invention is configured as a computer program or a recording medium on which the program is recorded, the present invention may be configured as an entire program for controlling the operation of the image generating apparatus, or may be configured only as a portion that performs the functions of the present invention. You may do it.
  • Recording media include flexible disks, CD-ROMs, DVD-ROMs, magneto-optical disks, IC cards, ROM cartridges, punched cards, printed materials on which codes such as barcodes are printed, computer internal storage devices ( Various computer-readable media such as RAM and ROM) and external storage devices can be used.
  • FIG. 1 is an explanatory diagram showing a method of synthesizing a reference image and a target image.
  • FIG. 2 is an explanatory diagram showing a synthesizing method when the shift amount between the reference image and the target image is zero.
  • FIG. 3 is an explanatory diagram showing a schematic configuration of the image generating apparatus 100 as the first embodiment of the present invention.
  • FIG. 4 is an explanatory diagram conceptually showing how a still image is generated by combining a plurality of frame images in the first embodiment.
  • FIG. 5 is an explanatory diagram showing a shift amount between the comparison reference image and the target image.
  • FIG. 6 is an explanatory diagram showing a method of calculating the amount of translational deviation by the gradient method.
  • FIG. 7 is an explanatory diagram showing a method of calculating a rotation shift.
  • FIG. 8 is a flowchart showing a flow of a still image generation process in the first embodiment.
  • FIG. 9 is a flowchart showing a frame image input process.
  • FIG. 10 is an explanatory diagram illustrating a schematic configuration of an image generating apparatus 100 # according to a second embodiment of the present invention.
  • FIG. 11 is an explanatory diagram illustrating a shift amount of a block between the comparison reference image and the target image.
  • FIG. 12 is an explanatory diagram showing a frame image divided into blocks.
  • FIG. 13 is a flowchart showing the flow of the still image generation process in the second embodiment.
  • FIG. 14 is an explanatory diagram showing how a panoramic image is generated.
  • a 1. Configuration of image generation device :
  • a 1. Configuration of image generation device :
  • FIG. 3 is an explanatory diagram showing a schematic configuration of the image generating apparatus 100 as the first embodiment of the present invention.
  • the image generation device 100 is a device that combines a plurality of frame images included in a moving image to generate a still image having a higher resolution than the frame image.
  • the image generating apparatus 100 is configured by installing predetermined application software on a general-purpose personal computer, and has the functional blocks shown in software.
  • the personal computer includes an interface for inputting a moving image from a recording medium such as a hard disk, a DVD-ROM, a memory card, in addition to a CPU, a ROM, and a RAM. It also has a function to play back input moving images.
  • a recording medium such as a hard disk, a DVD-ROM, a memory card, in addition to a CPU, a ROM, and a RAM. It also has a function to play back input moving images.
  • the control unit 10 controls each unit.
  • the frame image input unit 20 inputs a frame image included in a moving image.
  • the frame image input unit 20 inputs four consecutive frame images in time series from the timing at which the user inputs a pause instruction during reproduction of a moving image.
  • the number of frame images input here is the number of frame images used for synthesizing still images.
  • the frame image input section 20 inputs four frame images and, at the same time, inputs 20 frame images that are continuous in time series, and stores them in the frame image storage section 30 separately.
  • the 20 frame images are spare frame images that are newly synthesized candidates when the previous four frame images are not suitable for synthesizing a still image.
  • the 20 frame images are referred to as spare frame images.
  • the preceding four frame images are called selected frame images.
  • the frame image input unit 20 also performs a process of changing the spare frame image to the selected frame image.
  • the number of frame images input by the frame image input unit 20 may be arbitrarily set by the user. Also, the input frame images are continuous in time series. You don't have to.
  • the frame image at the timing input to the command input unit may be the second or third frame image, and the frame images may be successively input in time series.
  • the frame image storage unit 30 stores a plurality of frame images input by the frame image input unit 20.
  • the rejection unit 50 removes an abnormal frame image from the selected frame images stored in the frame image storage unit 30 when the evaluation is performed on a frame basis. For example, a frame image with large noise, a frame image with out of focus, or a selected frame image with abnormal color gradation due to a hand covering in front of the lens is removed.
  • the frame image input unit 20 newly changes the spare frame image to the selected frame image.
  • the spare frame image to be changed is a spare frame image that is chronologically continuous with the image previously selected as the selected frame image.
  • the elimination unit 50 checks the image that has newly become the selected frame image, and removes the abnormal selected frame image. Until the number of selected frame images determined to be normal by the elimination unit 50 becomes four, the elimination of the selected frame image and the change from the spare frame image to the selected frame image are repeated.
  • the reference image designation receiving unit 25 displays the selected frame image on the monitor.
  • the user specifies a frame image to be used as a reference image from the displayed selected frame images.
  • the reference image specification receiving unit 25 receives the specification.
  • the reference image setting unit 40 sets the selected frame image designated by the reference image designation receiving unit 25 as a reference image.
  • the reference image designation receiving unit 25 may not be provided, and the selected frame image input first by the frame image input unit 20 among the selected frame images may be set as the reference image.
  • a functional block for analyzing the feature amount (eg, edge strength) of each selected frame image is provided, and a reference image is set based on the analysis result. You may do so.
  • the comparison target setting unit 45 sets a selected frame image other than the reference image among the selected frame images as a comparison target image.
  • the comparison reference image setting section 90 sets the reference image or Sets one of the comparison target images as the comparison reference image. However, first, the reference image is set as the comparison reference image.
  • the comparison target resetting unit 85 resets a comparison target image other than the comparison reference image as a comparison target image.
  • the target image setting unit 65 sets one of the comparison target images as the target image as a target for detecting a shift amount from the next comparison reference image. In the present embodiment, as will be described later, the comparison target images are set as target images in the order of input (change) by the frame image input unit 20.
  • the shift amount detector 60 detects a shift amount of the target image with respect to the reference image.
  • the translational deviation amount is detected as the deviation amount.
  • the detection of the shift amount will be described later.
  • the exclusion unit 80 excludes the target image from the comparison target image if the shift amount detected by the shift amount detection unit 60 does not satisfy a predetermined criterion.
  • the determination unit 70 determines whether the total number of the comparison reference image and the comparison target image is four.
  • the synthesized image generation unit 75 performs resolution conversion and synthesizes the comparison reference image and the comparison target image so as to compensate for the shift amount detected by the shift amount detection unit 60.
  • To generate a composite image The reference at the time of composition is the reference image, and the composition method is as described above. However, since four images are combined, the average of four gradation values is calculated for each pixel of the combined image. If not, the frame image input unit changes the spare frame image to the selected frame image again.
  • FIG. 4 is an explanatory diagram conceptually showing how a still image is generated by combining a plurality of frame images in the first embodiment.
  • a still image is generated using frame images that are continuous in time series.
  • the first frame image 1 is the reference image set by the reference image setting unit 40
  • the frame images 2 to 4 are the comparison target images set by the comparison target setting unit 45. Note that none of the frame images was rejected by the rejection unit 50. Image.
  • the comparison reference image setting unit 90 first sets the frame image 1 as the reference image as the comparison reference image.
  • the comparison target resetting unit 85 resets the comparison target images other than the comparison reference image, that is, the frame images 2 to 4 as comparison target images.
  • the target image setting unit 65 first sets the frame image 2 as the target image among the comparison target images.
  • the shift amount detector 60 detects the shift amount between the comparison reference image (frame image 1) and the target image (frame image 2).
  • the exclusion unit 80 determines whether the deviation amount satisfies a predetermined criterion.
  • an “x” mark is shown as not satisfying the predetermined criterion. That is, the frame image 2 is excluded from the comparison target images by the exclusion unit 80.
  • the target image setting unit 65 sets the frame image 3 as a target image. Then, a shift amount between the comparison reference image (frame image 1) and the target image (frame image 3) is detected, and it is determined whether the shift amount satisfies a predetermined criterion.
  • the ⁇ ⁇ ⁇ ⁇ ”mark is shown as satisfying the predetermined criteria. That is, the frame image 3 is not excluded from the comparison target images by the exclusion unit 80.
  • the shift amount between the comparison reference image (frame image 1) and the target image (frame image 4) is detected. The mark “ ⁇ ” is illustrated assuming that the deviation amount satisfies the predetermined standard.
  • Step 2 is a process performed after step 1.
  • the comparison reference image setting unit 90 converts one of the comparison target images (frame image 3 and frame image 4) (frame image 3) not excluded by the exclusion unit 80 into a comparison reference image.
  • the reference image (frame image 1) is not used as the comparison reference image because it has already become the comparison reference image in step 1.
  • the previous frame image 1 is referred to as a comparative reference image 1
  • the frame image 3 is referred to as a comparative reference image 2.
  • the comparison target resetting unit 85 newly sets a comparison target image (frame image 4) other than the comparison reference image (frame image 3) as a comparison target image.
  • the number of new comparison target images is one, but there may be a case where there are multiple images.
  • the target image setting unit 65 sets one of the comparison target images as the target image.
  • the frame image 4 is the target image.
  • the shift amount detector 60 detects the shift amount between the comparison reference image 2 (frame image 3) and the target image (frame image 4).
  • the exclusion unit 80 determines whether the deviation amount satisfies a predetermined criterion. An “x” mark is shown as not meeting the prescribed criteria. That is, the frame image 4 is excluded from the images to be compared by the exclusion unit 80.
  • the determination unit 70 determines whether or not the total number of the comparison reference image and the comparison target image is four.
  • the determination unit 70 makes a determination when the number of images to be compared becomes one or less after the deviation amount is detected.
  • the number of comparison reference images was two, frame image 1 and frame image 3, and the number of images to be compared was 0, so the total was two. Therefore, since there are not four frames, the frame image input unit 20 changes the spare frame images to the selected frame images so that the total number of frame images becomes four. That is, the two spare frame images are changed to the selected frame images. If at least one of the two images is eliminated by the exclusion unit 50, the frame image is changed again.
  • Step 3 is a process performed after step 2.
  • the comparison target setting unit 45 sets the frame image 5 and the frame image as comparison target images.
  • the comparison reference image setting unit 90 sets the frame image 1 as the comparison reference image 1
  • the comparison target resetting unit 85 sets the frame image 3, the frame image 5, and the frame image 6 as the comparison target images.
  • the target image is set in the order of frame image 3, frame image 5, and frame image 6, and the shift amount is detected.
  • the frame image 3, the frame image 5, and the frame image 6, the mark “ ⁇ ” is illustrated assuming that the shift amount satisfies a predetermined standard. Note that the result of detecting the amount of displacement between the frame image 1 and the frame image 3 is shown in step 1, and therefore is not shown in step 3.
  • the comparison target images (frame image 3, frame image 5, frame image 6)
  • One of the images (frame image 3) is set as the comparison reference image 2
  • the remaining comparison target images (frame image 5, frame image 6) are set as the comparison target images.
  • the target image is set in the order of the frame image 5 and the frame image 6, and the shift amount is detected.
  • the “o” mark is illustrated assuming that the deviation amount satisfies a predetermined criterion.
  • one of the comparison target images (frame image 5 and frame image 6) (frame image 5) is set as the comparison reference image 3, and the other comparison target image (frame image 6) is set as the comparison target image. Then, the frame image 6 is set as the target image, and the shift amount is detected.
  • the mark “ ⁇ ” is illustrated assuming that the shift amount of the frame image 6 satisfies a predetermined standard.
  • the judgment unit 70 makes a judgment.
  • detection of the shift amount between the comparison reference image and the target image will be described.
  • FIG. 5 is an explanatory diagram showing a shift amount between the comparison reference image and the target image. It is assumed that the coordinates (X 1, y 1) of the comparison reference image are shifted from the coordinates (X 2, y 2) of the target image. Here, the translational deviation (u, V) and the rotational deviation ⁇ are used as the deviations.
  • FIG. 6 is an explanatory diagram showing a method of calculating the amount of translational deviation by the gradient method.
  • FIG. 6 (a) shows the pixels and luminance of the comparative reference image and the target image.
  • (x1i, y1i) represents the coordinate value of the pixel of the comparison reference image
  • B1 (x1i, y1i) represents its luminance.
  • Figure 6 (b) shows the principle of the gradient method.
  • the pixel at the coordinates (X 2 ⁇ , y 2 i) of the target image is between the coordinates (x 1 i to x 1 i +1, y 1 i to y 1 i +1) of the comparison reference image, that is, , (X 1 i + ⁇ , y 1 i + ⁇ ) which are coordinates between pixels.
  • B 2 B 2 (x 2 i, y 2 i) ⁇ ⁇ ⁇ (4)
  • ⁇ and Ay are calculated for each pixel, and the average is taken as a whole.
  • the translation error is calculated by the gradient method.
  • other methods such as a block matching method, an iterative gradient method, and a method combining these methods may be used.
  • FIG. 7 is an explanatory diagram showing a method of calculating a rotation shift. Here, it is assumed that the translational deviation between the comparison reference image and the target image has been corrected.
  • FIG. 8 is a flowchart showing the flow of the still image generation process in the first embodiment. This is a process executed by the CPU of the image generating apparatus 100.
  • FIG. 9 is a flowchart showing a frame image input process.
  • the frame image input unit 20 first inputs four selected frame images and 20 spare frame images from the moving image and stores them in the frame image storage unit 30 (step S 21).
  • the elimination unit 50 determines whether one of the selected frame images has large noise, blurred focus, abnormal color gradation due to the hand covering the lens, etc. It is determined whether there is any abnormality (step S23). If abnormal (step S23), the selected frame image is deleted from the frame image storage unit 30 (step S24), and the spare frame image is changed to one selected frame image (step S25) ). Steps S23 to S25 are repeated until all the selected frame images are determined to be normal.
  • the reference image specification receiving unit 25 displays all the selected frame images on the monitor (Step S27), and receives the specification of the reference image from the user (Step S28).
  • the number of reference images is one.
  • the reference image setting unit 40 sets one selected frame image designated by the user as a reference image (step S29).
  • the comparison target setting unit 45 sets a selected frame image other than the reference image as a comparison target image (step S30). This is the end of the description of the frame image input processing. Returning to FIG. 8, the flow of the still image generation processing will be described.
  • one of the reference image or the comparison target image is set as the comparison reference image (scanning).
  • Step S35) a comparison target image other than the comparison reference image is reset as a comparison target image (step S40).
  • one of the comparison target images is set as the target image, and the deviation amount of the target image from the comparison reference image is detected (step S50).
  • the deviation amount of the detection result is (u, V)
  • the deviation amount ( ⁇ , ⁇ V) is obtained as the absolute value of the difference between (u, v) and the integer closest to (u, v). .
  • (0.3, 0.2).
  • step S55 if the deviation amount ( ⁇ _ ⁇ , ⁇ ) is equal to or smaller than the threshold value (0.1, 0.1) (step S55), the target image is excluded from the comparison target image as a non-composition value (step S55). S 60). If the amount of deviation from the comparison reference image has not been detected for all the comparison target images (step S65), the next comparison target image is set as the target image, and steps S45 to S60 are repeated. .
  • step S65 When the amount of deviation from the comparison reference image is detected for all the comparison images (step S65), it is determined whether the number of comparison images is one or less (step S7).
  • steps S35 to S65 are repeated using a new comparison target image as a comparison reference image.
  • step S70 it is determined whether or not the total number of the comparison reference image and the comparison target image is four (step S5). If the number is not four, the spare frame image is changed to the selected frame image for the lack (step S5).
  • step S86 the comparison reference image and the comparison target image are combined to generate a combined image.
  • a frame image having a small amount of deviation from the comparison reference image is excluded from the target of synthesis, and the frame image to be synthesized is By securing four images, the quality of the synthesized image can be improved efficiently.
  • FIG. 10 is an explanatory diagram showing a schematic configuration of an image generating device 100A as a second embodiment of the present invention.
  • the configuration of the image generating apparatus 100A is almost the same as that of the image generating apparatus 100 of the first embodiment except that the image generating apparatus 100A includes a dividing unit 95.
  • the target image is divided into a plurality of blocks, and a shift amount from the comparison reference image is obtained in block units. Then, a block having a small amount of deviation from the comparison reference image is excluded from the target of synthesis. For this reason, the dividing unit 95 divides all the selected frame images such that each block has 16 ⁇ 16 pixels.
  • FIG. 11 is an explanatory diagram showing a shift amount of a block between the reference image and the target image. It is assumed that the coordinates (X1, y1) of the comparison reference image are shifted from the coordinates (X2, y2) of the target image.
  • the shift amount of the frame image is composed of three parameters: a translation shift amount (u, v) and a rotation shift amount ⁇ .
  • FIG. 12 is an explanatory diagram showing a frame image divided into blocks.
  • the frame image in the figure is divided into 5X8 blocks. Even when the entire frame image is rotated as indicated by the arrow in the figure, the block displacement can be represented only by the translation displacement (u, V).
  • the shift amount of each block may be calculated from the translation shift amount and the rotation shift amount of the frame image.
  • the amount of displacement of each block is calculated without translation of the frame image.
  • the calculation is based on the shift amount and the rotation shift amount, the shift amount of each block may be directly detected.
  • FIG. 13 is a flowchart showing the flow of the still image generation process in the second embodiment. This is a process executed by the CPU of the image generating apparatus 100A.
  • step S92 all the selected frame images are divided so that each block has 16 ⁇ 16 pixels. Then, the same processing as in the first embodiment is performed for each block (step S95 to step S150). That is, processing is performed assuming that each block is an independent frame image. At this time, the blocks at the same position in the selected frame image (the first block of the selected frame image 1, the first block of the selected frame image 2, the first block of the selected frame image 3, and the first block of the selected frame image 4) Process each other. Similarly, the processing from step S95 to step S150 is repeated for all the blocks in the second block and the third block 1 '(step S155).
  • step S155 if the spare frame image is changed to the selected frame image (step S155), exclusion processing is performed (step S30), and the selected frame image is set as the comparison target image (step S156).
  • the image to be compared is also divided so that each block becomes 16 ⁇ 16 pixels (step S 158).
  • the block shift amount can be easily obtained based on the image shift amount of the frame image.
  • an image that cannot be used for synthesis as a whole frame image can be used for synthesis by dividing it into blocks.
  • the present invention is not limited to any particular embodiment, and can be implemented in various modes without departing from the scope of the invention.
  • the number of frame images to be combined and the threshold value of the shift amount can be set variously.
  • an image difference which is a set of differences between the feature values of pixels at the same position in the comparison reference image and the target image, and a difference between the average values of the pixel feature values are used as a criterion for determining whether to use the target image for synthesis. It is good. Further, the following modifications are possible.
  • the image generation device 100 of the first embodiment can also generate a panoramic image.
  • FIG. 14 is an explanatory diagram showing how a panoramic image is generated.
  • the five frame images 1 to 5 indicated by the solid line are synthesized, a part of them is extracted, and the panoramic image indicated by the broken line is generated.
  • the frame image 1 when the frame image 1 is used as the reference image, there is no area overlapping with the frame image 5, so that a composite image cannot be generated.
  • the image generating apparatus 100 of the first embodiment by changing the comparison reference image from frame image 1 ⁇ frame image 2 ⁇ frame image 3 ⁇ frame image 4, more frame images can be combined. To generate a panoramic image.
  • the present invention is applicable to an apparatus that combines a plurality of frame images of a moving image or a still image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

 複数のフレーム画像の一部を静止画像の合成に使用する比較対象画像とする。比較対象画像のうち1枚を比較基準画像、1枚を対象画像として、比較基準画像と対象画像を比較してパラメータを求める。そのパラメータが所定の基準を満たさなければ、対象画像を、比較対象画像から除外する。更に、複数のフレーム画像から任意の数のフレーム画像を比較対象画像に設定し、合成の基準となる基準画像と比較対象画像の合計数が所定の数以上になるまで、上記比較を行なう。合成画像生成部75は、合計数が所定の数以上の比較対象画像と基準画像を合成して静止画像を生成する。

Description

明細書
複数のフレーム画像からの静止画像の生成 技術分野
本発明は、 動画像に含まれる複数のフレーム画像を合成して、 静止画像を生成 する技術に関する。 背景技術
従来、 ディジタルビデオカメラ等で撮影された動画像の 1シーンをキヤプチャ して、 フレーム画像よりも高解像度の静止画像を生成することが行われている。 このような静止画像は、 動画像に含まれる複数のフレーム画像を重ね合わせて合 成することによって生成される。
例えば、 特開 2 0 0 0— 2 4 4 8 5 1号公報には、 連続する ( n + 1 ) 枚のフ レーム画像から 1枚のフレーム画像を基準画像として選択し、 この基準画像に対 する他の n枚のフレーム画像 (対象画像) の動きベクトルをそれぞれ算出し、 各 動きべクトルに基づいて、 (n + 1 )枚のフレーム画像を合成して静止画像を生成 する技術が開示されている。
また、 特開平 6— 3 5 0 9 7 4号公報では、 インタレース方式による動画像か ら静止画像を生成する技術において、 インタレース方式で対になる 2枚のフィー ルドのうち、 1枚のフィールドを基準画像とし、 他の 1枚のフィールドを対象画 像として、 フィールドごとに対象画像が合成に適しているか否かを判別し、 適し ていれば合成する技術が提案されている。 一般に、 合成するフレーム画像を増 やせば、 静止画像の画質が向上すると考えられているが、 合成するフレーム画像 を増やしても画質が向上するとは限らない。 以下、 その理由について説明する。 図 1は、 基準画像と合成対象画像との合成方法を示す説明図である。 図 1の上 段に、 基準画像と合成対象画像とを、 ずれ量を補正して配置した様子を示した。 図 1の下段には、 基準画像と、 合成対象画像と、 合成画像の各画素の位置関係を 示した。 図 1の下段において、 「o」 は、 基準画像の画素を表している。 「·」 は、 合成対象画像の画素を表している。 破線の格子上にハッチングを付した丸印は、 合成画像の画素を表している。 なお、 この図では、 基準画像および合成対象画像 の解像度は同じであるものとし、 フレーム画像の解像度を X軸方向および y軸方 向に 1 . 5倍に増大する場合について示している。
ここで、 合成画像の画素 g 1に着目する。 この画素 g 1は、 基準画像の画素 t 1と一致している。 この場合、 画素 g 1を囲む合成対象画像の 4つの画素 s 1〜 s 4の階調値に基づいて、 画素 g 1の位置における階調値をバイリニア法によつ て求め、 この階調値と基準画像の画素 t 1の階調値とを平均することによって、 画素 g 1の階調値を決定する。
また、 合成画像の画素 g 2の階調値は、 以下の手順で決定する。 すなわち、 ま ず、 画素 g 2を囲む基準画像の 4つの画素 t 2〜 t 5の階調値に基づいて、 画像 g 2の位置における階調値をバイリニア法によって求める。 次に、 画素 g 2を囲 む合成対象画像の 4つの画素 s 4〜 s 7の階調値に基づいて、 画素 g 2の位置に おける階調値をバイリニア法によって求める。 そして、 両者を平均することによ て画素 g 2の階調値を決定する。
他の画素についても、 以上説明したのと同様にして階調値を決定することがで きる。 ここでは、 理解を容易にするため、 基準画像および対象画像の解像度が同 じであるものとして説明したが、 基準画像および合成対象画像の解像度が異なつ ている場合には、 適宜、 拡大または縮小して同様の処理を行えばよい。
図 2は、 基準画像と合成対象画像とのずれ量が 0である場合の合成方法を示す 説明図である。 図 2の上段に、 基準画像と合成対象画像とを、 ずれ量を補正して 配置した様子を示した。 ずれ量が 0であるから、 基準画像と合成対象画像は完全 に重なっている。 図 2の下段には、 基準画像と、 合成対象画像と、 合成画像の各 画素の位置関係を示した。 基準画像と合成対象画像が重なっているので、 基準画 像と合成対象画像の各画素は、 同じ位置に存在している。
合成画像の画素 g 2の階調値は、 以下の手順で決定する。 すなわち、 まず、 画 素 g 2を囲む基準画像の 4つの画素 t 2〜 t 5の階調値に基づいて、 画像 g 2の 位置における階調値をバイリニア法によって求める。 次に、 画素 g 2を囲む合成 対象画像の 4つの画素 s 2 ~ s 5の階調値に基づいて、 画素 g 2の位置における 階調値をバイリニア法によって求める。 そして、 両者を平均することによって画 素 g 2の階調値を決定する。
画素 t 2〜 t 5の階調値と画素 s 2〜 s 5の階調値がそれぞれ同値であるから、 画素 t 2〜 t 5の階調値に基づいて、 バイリニア法によって求めた画像 g 2の位 置における階調値と、 画素 s 2〜s 5の階調値に基づいて、 バイリニア法によつ て求めた画素 g 2の位置における階調値は、 同じ値となる。 つまり、 それらの平 均値も、 画素 t 2〜 t 5の階調値に基づいて、 バイリニア法によって求めた画像 g 2の位置における階調値や、 画素 s 2〜 s 5の階調値に基づいて、 バイリニア 法によって求めた画素 g 2の位置における階調値と同じとなる。
つまり、 基準画像と合成対象画像のずれ量が 0である場合は、 合成処理を行な つても合成結果の画像と元の画像に差異がない。 ずれ量が僅かな場合も同様に、 合成結果の画像と元の画像にほとんど違いが現れない。 これらの場合は、 合成処 理を行なっても、 徒に処理時間を増やすだけで、 画質を飛躍的に向上することは 望めない。 発明の開示
本発明は、 上述の課題を解決するためになされたものであり、 動画像に含まれ る複数のフレーム画像から静止画像を生成する場合に、 効率的に静止画像の画質 を向上することを目的とする。
上述の課題の少なくとも一部を解決するため、 本発明の画像生成装置は、 動画 像に含まれる複数のフレーム画像から静止画像を生成する画像生成装置であって、 前記複数のフレーム画像の中の基準フレーム画像以外のフレーム画像に含まれる 領域のうち、 少なくとも 1以上を、 前記基準フレーム画像内の基準フレーム画像 領域との関係で設定された所定の規則に基づいて、 合成対象フレーム画像領域に 設定する合成対象設定部と、 前記基準フレーム画像領域及び前記合成対象フレー ム画像領域から、 1つの比較基準フレーム画像領域を抽出する比較基準抽出部と、 前記比較基準フレーム画像領域以外の合成対象フレーム画像領域から、 1つの対 象フレーム画像領域を抽出する対象抽出部と、 前記比較基準フレーム画像領域と 前記対象フレーム画像領域を比較し、 所定のパラメータを求める比較部と、 前記 パラメータが所定の基準を満たさなければ、 前記対象フレーム画像領域を合成対 象フレーム画像領域から除外する除外部と、 前記基準フレーム画像領域と前記合 成対象フレーム画像領域を合成して合成画像領域を生成する合成画像生成部とを 備えることを特徴とする。
ここで、 フレーム画像とは、 プログレッシブ方式 (ノンインタレース方式とも いう) で表示可能な静止画像である。 したがって、 インタレース方式の場合は、 ラスタの異なる複数のフィールド画像 (奇数フィールドと偶数フィールド) から 構成される画像が本発明のフレーム画像に相当する。
本発明によれば、 所定の基準を満たさないフレーム画像の領域を合成の対象か ら除外し、 なおかつ合成するフレーム画像領域の枚数を所定枚数以上確保するこ とで、 効率的に合成画像の画質を向上することができる。 ここで言う所定の基準 は、 例えば比較部の求めたパラメータが画像ずれ量であれば、 画像ずれ量が閾値 以上であることなどである。 詳しくは後述する。 所定枚数は任意に設定可能であ るが、 2枚以上であることが望ましい。
合成対象設定部は、 動画において基準フレーム画像に時系列的に連続している フレーム画像の領域を、連続数枚合成対象フレーム画像領域に設定しても良いし、 数枚おきに合成対象フレーム画像領域に設定しても良い。
合成画像生成部が行なう画像の合成処理には、 二ァレストネイバ法や、 バイリ ニァ法や、 バイキュービック法など、 周知の種々の画像補間の手法を適用するこ とができる。 一般に、 高速処理が可能な方法は、 手順が簡素化されているため、 手順が複雑な方法よりも補間精度が悪く、 画質が劣る。 例えば、 二アレストネィ バ法と、 バイリニア法と、 バイキュービック法とは、 この順序で手順が複雑にな リ、 処理時間が長くなる。 一方、 補間精度が高くなリ、 画質が向上する。
合成画像生成部は、 前記合成対象フレーム画像領域と前記基準フレーム画像領 域の合計枚数が多い場合は、 二アレストネイバ法などにより高速の合成処理を行 ない、 少ない場合はバイキュービック法などにより補間精度の良い合成処理を行 なうものとしても良い。
上記画像生成装置は、 さらに、 前記基準フレーム画像内に、 合成の基準となる 領域を前記基準フレーム画像領域として設定する設定部と、 前記基準フレーム画 像領域と、 前記基準を満たす合成対象フレーム画像領域の合計数が所定の数以上 になるまで、 前記合成対象設定部と前記比較基準抽出部と前記対象抽出部と前記 比較部と前記除外部の処理を繰リ返させるフレーム数制御部と、 を備えるように してもよい。
本発明の画像生成装置において、 前記基準フレーム画像の指定を受ける指定受 付部を備え、 前記設定部は、 指定を受けたフレーム画像を基準フレーム画像とし ても良い。
これにより、 ユーザが、 動画の中から静止画像としたいフレーム画像を選択し て、 基準フレーム画像とすることができる。
上記画像生成装置において、 前記比較基準抽出部は、 前記基準フレーム画像領 域を前記比較基準フレーム画像領域とするものとしても良い。
基準フレーム画像領域は、 合成の基準となる画像の領域なので、 まず基準フレ ーム画像領域を比較基準フレーム画像領域とすることが望ましい。 基準フレーム 画像領域を比較基準フレーム画像領域として、 合成対象フレーム画像領域につい て、 合成に値するか否かを判断し、 合成に値した合成対象フレーム画像領域のう ちの 1枚を、 次に比較基準フレーム画像領域とすることができる。
例えば、 フレーム画像領域 1 とフレーム画像領域 2とフレーム画像領域 3にお いて、 フレーム画像領域 1が基準フレーム画像領域、 フレーム画像領域 2とフレ ーム画像領域 3が合成対象フレーム画像領域であるとする。 まずフレーム画像領 域 1を比較基準フレーム画像領域として、 フレーム画像領域 2とのずれ量と、 フ レーム画像領域 3とのずれ量を求める。 求めたずれ量が、 それぞれ所定値以上で あった場合、 次にフレーム画像領域 2を比較基準フレーム画像領域とする。 フレーム画像領域 1とフレーム画像領域 2のずれ量と、 フレーム画像領域 1 と フレーム画像領域 3のずれ量とが、 それぞれ所定値以上であっても、 フレーム画 像領域 2とフレーム画像領域 3のずれ量が 0であれば、フレーム画像領域 1 , 2 , 3をすベて合成する必要はないからである。 つまり、 フレーム画像領域 1 , 2ま たはフレーム画像領域 1 , 3を合成すれば足りる。 フレーム画像領域 2を比較基 準フレーム画像領域とし、 フレーム画像領域 3を対象フレーム画像領域とするこ とで、 フレーム画像領域 3を合成対象から除外することが可能となる。
上記画像生成装置において、 前記合成対象フレーム画像領域から、 1つのフレ —ム画像の領域としての特徴が所定の条件を満たすフレーム画像の領域を取り除 く排除部を備えるものとしても良い。
所定の条件としては、 例えば、 ノイズが大きい、 ピントがぼけている、 手がレ ンズ前に被さるなどして色の階調が異常である、 などがあげられる。 排除部によ リ、 そのようなフレーム画像領域は、 予め合成対象から取り除くことができる。 上記画像生成装置において、 前記パラメータは、 画像ずれ量であるものとして も良い。
画像ずれ量は、 例えば手ぶれやカメラのターンで生ずる。 画像ずれ量が小さす ぎると、 合成対象フレーム画像領域は合成画像領域の画質を殆どあげることがで きない。 本発明では、 合成画像領域の画質の向上にあまり役立たない合成対象フ レーム画像領域を合成対象から除外することができる。 画像ずれ量は、 並進ずれ 量および回転ずれ量の少なくとも一方を含むものとしても良い。 並進ずれ量は、 ブロックマッチング法や、 勾配法や、 これらを組み合わせた手法など、 種々の手 法によって、 検出することができる。 回転ずれ量も、 また、 幾何学的な計算によ つて検出することができる。 パラメータが画像ずれ量であれば、 先に述べた所定 の基準は画像ずれ量が閾値以上であることなどである。
上記画像生成装置において、 前記比較部は、 前記対象フレーム画像領域を含む 対象フレーム画像の、 前記比較基準フレーム画像領域を含む比較基準フレーム画 像からの画像ずれ量を求めるフレームずれ量算出部と、 前記対象フレーム画像領 域の、 前記比較基準フレーム画像領域からの画像ずれ量を、 前記フレームずれ量 算出部が求めた画像ずれ量に基づいて求める領域ずれ量算出部とを備えるものと しても良い。
本発明によれば、 領域のずれ量をフレーム画像の画像ずれ量をもとに、 簡便に 求めることができる。フレーム画像の画像ずれ量が、回転ずれ量を含んでいても、 個々の領域のずれ量としては、 並進ずれ量で近似可能な場合もある。 また、 フレ ーム画像全体としては合成に値しない画像も、 領域に分割することで合成に使用 できるようになる場合もある。 フレーム画像の画像ずれ量を求めずに、 領域のず れ量を直接計算しても良い。
上記画像生成装置において、 前記パラメータは、 前記対象フレーム画像領域と 前記比較基準フレーム画像領域における同じ位置の画素の特徴量の比較によって 得られる画像差分であるものとしても良い。
特徴量は、 色の階調や輝度であっても良い。 本発明では、 比較基準フレーム画 像領域と比較して、 画像差分がほとんどないフレーム画像領域を合成対象から除 外することができる。 同じ内容のフレーム画像領域同士を合成しても、 また同じ 内容のフレーム画像領域が得られるだけで、 画質が向上しないので、 比較基準フ レーム画像領域と同じ内容のフレーム画像領域を合成対象フレーム画像領域から 除外する意図である。 本発明は、 動画においてフレームレートを変換した場合など、 同じ内容のフレ ー厶画像が連続する場合に、 同じ内容のフレーム画像領域は合成対象から除外す るのに、 特に有効である。 そのような場合では、 ずれ量を計算するまでもなく、 画像差分があるか否かだけで、 合成に値するか否か判別可能だからである。 画像 差分のみ求めれば良いので簡便となる。 パラメータが画像差分であれば、 先に述 ベた所定の基準は画像差分が 0ではないことなどである。
上記画像生成装置において、前記パラメータは、前記対象フレーム画像領域と、 前記比較基準フレーム画像領域における、 画素の特徴量の平均値の比較であって も良い。
本発明では、 比較基準フレーム画像領域と比較して、 特徴に差異があるフレー ム画像領域を合成対象から除外することができる。 比較基準フレーム画像領域と 比べて明らかに異常なフレーム画像領域を合成に使用すると、 合成フレーム画像 の画質も異常になってしまうので、 明らかに異常なフレーム画像領域を合成対象 フレーム画像領域から除外する意図である。
例えば、 色調が明るい場面の静止画像領域を合成している際に、 暗い色調のフ レーム画像領域を合成対象から除外する場合などに特に有効である。 そのような 場合では、ずれ量を計算するまでもなく、特徴量の平均値の差を計算するだけで、 合成に値するか否か判別可能だからである。 特徴量の平均値の差のみ求めれば良 いので簡便となる。 パラメータが画素の特徴量の平均値の比較であれば、 先に述 ベた所定の基準は画素の特徴量の平均値の比較が大きいことなどである。
上記画像生成装置において、 前記基準フレーム画像領域と前記合成対象フレー ム画像領域は、 前記フレーム画像が、 それぞれ同じ形式で分割された領域であつ て、 前記対象抽出部は、 前記比較基準フレーム画像領域に対応する同じ位置の対 象フレーム画像領域を抽出するものとしても良い。
本発明によれば、 フレーム画像が同じ形式で分割された領域毎に、 合成対象と するか否か判別可能となる。 領域毎に判別することで、 一様に合成対象から除外 されていたフレーム画像も、 ある領域では合成対象とすることができる。 その結 果、 合成画像の画質をあげることもできる。
本発明は、 上述の画像生成装置としての構成の他、 画像生成方法の発明として 構成することもできる。 また、 これらを実現するコンピュータプログラム、 およ びそのプログラムを記録した記録媒体、 そのプログラムを含み搬送波内に具現化 されたデータ信号など種々の態様で実現することが可能である。 なお、 それぞれ の態様において、 先に示した種々の付加的要素を適用することが可能である。 本発明をコンピュータプログラムまたはそのプログラムを記録した記録媒体等 として構成する場合には、 画像生成装置の動作を制御するプログラム全体として 構成するものとしてもよいし、 本発明の機能を果たす部分のみを構成するものと してもよい。 また、 記録媒体としては、 フレキシブルディスクや C D— R O M、 D V D— R O M、 光磁気ディスク、 I Cカード、 R O Mカートリッジ、 パンチ力 ード、 バーコードなどの符号が印刷された印刷物、 コンピュータの内部記憶装置 ( R A Mや R O Mなどのメモリ) および外部記憶装置などコンピュータが読み取 リ可能な種々の媒体を利用できる。 図面の簡単な説明
図 1は、 基準画像と対象画像との合成方法を示す説明図である。
図 2は、 基準画像と対象画像とのずれ量が 0である場合の合成方法を示す説明 図である。
図 3は、 本発明の第 1実施例としての画像生成装置 1 0 0の概略構成を示す説 明図である。
図 4は、 第 1実施例において、 複数のフレーム画像を合成して静止画像を生成 する様子を概念的に示す説明図である。
図 5は、 比較基準画像と対象画像とのずれ量について示す説明図である。 図 6は、 勾配法による並進ずれ量の算出方法を示す説明図である。 図 7は、 回転ずれの算出方法を示す説明図である。
図 8は、 第 1実施例における静止画像生成処理の流れを示すフローチヤ一卜で 図 9は、 フレーム画像の入力処理を示したフローチヤ一トである。
図 1 0は、 本発明の第 2実施例としての画像生成装置 1 0 0 Αの概略構成を示 す説明図である。
図 1 1は、 比較基準画像と対象画像とのブロックのずれ量について示す説明図 である。
図 1 2は、 ブロックに分割したフレーム画像を示す説明図である。
図 1 3は、 第 2実施例における静止画像生成処理の流れを示すフローチャート である。
図 1 4は、 パノラマ画像生成の様子を示す説明図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 実施例に基づき以下の順序で説明する。
A . 第 1実施例:
A 1 . 画像生成装置の構成:
A 2 . 静止画像の生成:
A 3 . ずれ量の検出:
A 4 . 静止画像生成処理:
B . 第 2実施例:
B 1 . 画像生成装置の構成:
B 2 . ブロックのずれ量の検出:
B 3 . 静止画像生成処理:
C . 変形例: A . 第 1実施例:
A 1 . 画像生成装置の構成:
図 3は、 本発明の第 1実施例としての画像生成装置 1 0 0の概略構成を示す説 明図である。 この画像生成装置 1 0 0は、 動画像に含まれる複数のフレーム画像 を合成して、 フレーム画像よりも高解像度の静止画像を生成する装置である。 画 像生成装置 1 0 0は、 汎用のパーソナルコンピュータに所定のアプリケーション ソフトをインストールすることによって構成されており、 図示する各機能ブロッ クをソフトウエア的に備えている。
パーソナルコンピュータは、 C P Uや、 R O Mや、 R A Mの他、 ハードデイス クゃ、 D V D— R O M、 メモリカード等の記録媒体から動画像を入力するための インタフェースなどを備えている。 また、 入力した動画像を再生する機能も有し ている。
制御部 1 0は、 各部の制御を行う。 フレーム画像入力部 2 0は、 動画像に含ま れるフレーム画像を入力する。 本実施例では、 フレーム画像入力部 2 0は、 動画 像の再生中にユーザが一時停止の指示を、 入力したタイミングから、 時系列的に 連続する 4枚のフレーム画像を入力するものとした。 ここで入力するフレーム画 像の数が、 静止画像の合成に使用されるフレーム画像の数となる。
フレーム画像入力部 2 0は、 4枚のフレーム画像を入力すると同時に、 それに 時系列的に連続する 2 0枚のフレーム画像を入力し、 フレーム画像記憶部 3 0に 別個に記憶させておく。 その 2 0枚のフレーム画像は、 先の 4枚のフレーム画像 が静止画像の合成に適さない場合に、 新たに合成の候補となる予備のフレーム画 像である。 以下、 2 0枚のフレーム画像を予備フレーム画像と呼ぶ。 また、 先の 4枚のフレーム画像は、 選択フレーム画像と呼ぶ。 フレーム画像入力部 2 0は、 予備フレーム画像を選択フレーム画像に変更する処理も行なう。
フレーム画像入力部 2 0が入力するフレーム画像の数は、 ユーザが任意に設定 できるようにしてもよい。 また、 入力するフレーム画像は、 時系列的に連続して いなくてもよい。 コマンド入力部に入力したタイミングにおけるフレーム画像を 2枚目または 3枚目のフレーム画像として、 時系列的に連続してフレーム画像を 入力してもよい。
フレーム画像記憶部 3 0は、 フレーム画像入力部 2 0が入力した複数のフレー ム画像を記憶する。 排除部 5 0は、 フレーム画像記憶部 3 0に記憶された選択フ レーム画像のうち、 フレーム単位で評価した場合に異常なフレーム画像を取リ除 く。 例えば、 ノイズが大きいフレーム画像や、 ピントがぼけたフレーム画像や、 手がレンズ前に被さるなどして色の階調が異常な選択フレーム画像を取り除く。 選択フレーム画像が取り除かれた場合は、 フレーム画像入力部 2 0が、 新たに 予備フレーム画像を選択フレーム画像に変更する。 変更される予備フレーム画像 は、 先に選択フレーム画像となった画像に時系列的に連続する予備フレーム画像 である。 排除部 5 0は、 新たに選択フレーム画像となった画像を調べ、 異常な選 択フレーム画像を取り除く。 最終的に排除部 5 0により正常と判断された選択フ レーム画像が 4枚になるまで、 選択フレーム画像の排除と、 予備フレーム画像か ら選択フレーム画像への変更は繰り返す。
基準画像指定受付部 2 5は、選択フレーム画像をモニタに表示する。ユーザは、 表示された選択フレーム画像の中から基準画像としたいフレーム画像を指定する。 基準画像指定受付部 2 5は、 その指定を受け付ける。 基準画像設定部 4 0は、 基 準画像指定受付部 2 5が指定を受けた選択フレーム画像を基準画像に設定する。 なお、 基準画像指定受付部 2 5を備えずに、 選択フレーム画像のうち、 フレー ム画像入力部 2 0が最初に入力した選択フレーム画像を基準画像として設定する ものとしてもよい。 画像生成装置 1 0 0内に、 選択フレーム画像それぞれについ て、 その特徴量 (例えば、 エッジ強度等) の解析を行うための機能ブロックを設 け、 解析結果に基づいて、 基準画像の設定を行うようにしてもよい。
比較対象設定部 4 5は、 選択フレーム画像のうち、 基準画像以外の選択フレー 厶画像を、 比較対象画像に設定する。 比較基準画像設定部 9 0は、 基準画像また は比較対象画像のうちの 1枚を、 比較基準画像に設定する。 ただし、 最初に基準 画像を比較基準画像に設定する。 比較対象再設定部 8 5は、 比較基準画像以外の 比較対象画像を、 比較対象画像に再設定する。 対象画像設定部 6 5は、 比較対象 画像のうち 1枚を、 次に比較基準画像とのずれ量を検出する対象として、 対象画 像に設定する。 本実施例では、 後述するように、 比較対象画像を、 フレーム画像 入力部 2 0が入力 (変更) した順に、 対象画像として設定していくものとした。 ずれ量検出部 6 0は、 基準画像に対する対象画像のずれ量を検出する。 本実施 例では、 ずれ量として、 並進ずれ量を検出するものとした。 このずれ量の検出に ついては、 後述する。 除外部 8 0は、 ずれ量検出部 6 0が検出したずれ量が所定 の基準を満たさなければ、 対象画像を、 比較対象画像から除外する。
判断部 7 0は、 比較基準画像と比較対象画像の合計数が 4枚になっているかど うか判断する。 4枚の場合は、 合成画像生成部 7 5は、 解像度変換を行うととも に、 ずれ量検出部 6 0が検出したずれ量を補償するように、 比較基準画像と比較 対象画像とを合成して合成画像を生成する。 合成の際の基準となるのは、 基準画 像で、合成方法は先に述べた通りである。ただし、 4枚の画像の合成となるので、 合成画像の各々の画素において 4つの階調値の平均を求めることになる。 4枚と なっていない場合は、 再度フレーム画像入力部が予備フレーム画像を選択フレー ム画像に変更する。 A 2 . 静止画像の生成:
図 4は、 第 1実施例において、 複数のフレーム画像を合成して静止画像を生成 する様子を概念的に示す説明図である。 先に説明したように、 本実施例では、 時 系列的に連続するフレーム画像を用いて、 静止画像を生成する。 先頭のフレーム 画像 1が基準画像設定部 4 0によリ設定された基準画像であり、 フレーム画像 2 からフレーム画像 4までが比較対象設定部 4 5により設定された比較対象画像で ある。 なお、 いずれのフレーム画像も排除部 5 0により排除されなかったフレー ム画像である。
工程 1について説明する。 比較基準画像設定部 9 0は、 まず基準画像であるフ レーム画像 1を比較基準画像に設定する。 比較対象再設定部 8 5は、 比較基準画 像以外の比較対象画像、 つまリフレーム画像 2からフレーム画像 4までを比較対 象画像に再設定する。 対象画像設定部 6 5は、 比較対象画像のうち、 まずフレー ム画像 2を対象画像とする。 ずれ量検出部 6 0は、 比較基準画像 (フレーム画像 1 ) と対象画像 (フレーム画像 2 ) のずれ量を検出する。 除外部 8 0は、 そのず れ量が所定の基準を満たすかどうか判別する。 ここでは、 所定の基準を満たさな かったものとして 「x」 印を図示する。 つまり、 フレーム画像 2は、 除外部 8 0 により比較対象画像から除外される。
次に、 対象画像設定部 6 5は、 フレーム画像 3を対象画像とする。 そして比較 基準画像(フレーム画像 1 ) と対象画像(フレーム画像 3 )のずれ量が検出され、 ずれ量が所定の基準を満たすかどうか判別される。 ここでは、 所定の基準を満た すものとして Γο」 印を図示する。 つまり、 フレーム画像 3は、 除外部 8 0によ り比較対象画像から除外されない。 次に、 フレーム画像 4を対象画像として、 比 較基準画像 (フレーム画像 1 ) と対象画像 (フレーム画像 4 ) のずれ量が検出さ れる。 ずれ量が所定の基準を満たすものとして 「ο」 印を図示する。
工程 2について説明する。 工程 2は、 工程 1の次に行なわれる処理である。 ま ず、 比較基準画像設定部 9 0が、 除外部 8 0により除外されなかった比較対象画 像 (フレーム画像 3とフレーム画像 4 ) のうちの 1枚 (フレーム画像 3 ) を、 比 較基準画像に設定する。 基準画像 (フレーム画像 1 ) は、 工程 1ですでに比較基 準画像となったので、 比較基準画像にはされない。 区別のため、 先のフレーム画 像 1を比較基準画像 1、 フレーム画像 3を比較基準画像 2と呼ぶ。
そして、 比較対象再設定部 8 5が、 その比較基準画像 (フレーム画像 3 ) 以外 の比較対象画像 (フレーム画像 4 ) を、 新たに比較対象画像とする。 ここでは、 新たな比較対象画像が 1枚となったが、 複数枚となる場合もある。 対象画像設定部 6 5は、 比較対象画像のうちの 1枚を対象画像とする。 必然的 にフレーム画像 4が対象画像となる。 ずれ量検出部 6 0は、 比較基準画像 2 (フ レーム画像 3 ) と対象画像 (フレーム画像 4 ) のずれ量を検出する。 除外部 8 0 は、 そのずれ量が所定の基準を満たすかどうか判別する。 所定の基準を満たさな かったものとして 「x」 印を図示した。 つまり、 フレーム画像 4は、 除外部 8 0 によリ比較対象画像から除外されることになる。
次に、 判断部 7 0が、 比較基準画像と比較対象画像の合計数が 4枚になってい るかどうか判断する。 判断部 7 0は、 ずれ量検出後に比較対象画像が 1枚以下に なった際に判断を行なう。 比較基準画像はフレーム画像 1 とフレーム画像 3の 2 枚、 比較対象画像は 0枚となったので、 合計 2枚である。 よって、 4枚ではない ので、 フレーム画像入力部 2 0が、 フレーム画像の合計数が 4枚となるように予 備フレーム画像を選択フレーム画像に変更する。 つまり、 2枚の予備フレーム画 像を選択フレーム画像に変更する。 2枚のうち、 一方でも排除部 5 0により排除 されれば、 再度フレーム画像の変更を行なう。
このように新たに入力したフレーム画像が、 工程 3に図示したフレーム画像 5 とフレーム画像 6である。 工程 3について説明する。 工程 3は、 工程 2の次に行 なわれる処理である。 まず、 比較対象設定部 4 5が、 フレーム画像 5とフレーム 画像を比較対象画像に設定する。 比較基準画像設定部 9 0は、 フレーム画像 1を 比較基準画像 1とし、 比較対象再設定部 8 5は、 フレーム画像 3、 フレーム画像 5、 フレーム画像 6を比較対象画像とする。
そして、 フレーム画像 3、 フレーム画像 5、 フレーム画像 6の順に対象画像に 設定してずれ量を検出する。 フレーム画像 3、 フレーム画像 5、 フレーム画像 6 のいずれも、ずれ量が所定の基準を満たすものとして「ο」印を図示する。 なお、 フレーム画像 1とフレーム画像 3のずれ量検出結果は、工程 1で示してあるので、 工程 3では図示を省略した。
次に、 比較対象画像 (フレーム画像 3、 フレーム画像 5、 フレーム画像 6 ) の うちの 1枚(フレーム画像 3 )を比較基準画像 2として、残りの比較対象画像(フ レーム画像 5、 フレーム画像 6 ) を比較対象画像とする。 そして、 フレーム画像 5、 フレーム画像 6の順に対象画像に設定してずれ量を検出する。 フレーム画像 5、 フレーム画像 6のいずれも、 ずれ量が所定の基準を満たすものとして 「o」 印を図示する。
更に、 比較対象画像 (フレーム画像 5、 フレーム画像 6 ) のうちの 1枚 (フレ ーム画像 5 ) を比較基準画像 3として、 残りの比較対象画像 (フレーム画像 6 ) を比較対象画像とする。 そして、 フレーム画像 6を対象画像に設定してずれ量を 検出する。 フレーム画像 6のずれ量が所定の基準を満たすものとして Γ ο」 印を 図示する。
ずれ量検出後に比較対象画像が 1枚以下(フレーム画像 6のみ)になったので、 判断部 7 0が判断を行なう。 比較基準画像が 3枚 (フレーム画像 1、 フレーム画 像 3、 フレーム画像 5 ) と比較対象画像が 1枚 (フレーム画像 6 ) で、 合計 4枚 である。 よって、 比較基準画像と比較対象画像の合計数が 4枚となったので、 合 成画像生成部 7 5は、 解像度変換を行うとともに、 ずれ量検出部 6 0が検出した ずれ量を補償するように、 比較基準画像と比較対象画像とを合成して静止画像を 生成する。 以下、 比較基準画像と対象画像とのずれ量の検出について説明する。
A 3 . ずれ量の検出:
図 5は、 比較基準画像と対象画像とのずれ量について示す説明図である。 比較 基準画像の座標 (X 1 , y 1 ) が対象画像の座標 (X 2, y 2 ) にずれているも のとする。 ここでは、 ずれ量として並進ずれ量 (u, V ) と、 回転ずれ量 δとを 用いる。
本実施例では、 比較基準画像と対象画像との並進ずれ量を、 勾配法によって求 めるものとした。 図 6は、 勾配法による並進ずれ量の算出方法を示す説明図であ る。 図 6 ( a ) には、 比較基準画像および対象画像の画素および輝度を示した。 図 6 (a) において、例えば、 (x 1 i , y 1 i ) は、 比較基準画像の画素の座標 値を表しており、 B 1 (x 1 i , y 1 i ) は、 その輝度を表している。 また、 図 6 (b) には、 勾配法の原理を示した。
ここでは、 対象画像の座標 (X 2 ί , y 2 i ) の画素が、 比較基準画像の座標 (x 1 i〜x 1 i + 1 , y 1 i〜y 1 i + 1 ) の間、 すなわち、 画素間の座標で ある (x 1 i +Δχ , y 1 i +Δγ ) にあるものとして説明する。
図 6 (b) に示すように、
P X =B 1 ( X 1 ί + 1 , y 1 i ) -B 1 ( x 1 i , y 1 i ) - - ■ ( 1 ) P y = B 1 (x 1 i , y 1 i + 1 ) -B 1 (x 1 i , y 1 i ) ' ■ - (2)
B 1 =B 1 ( x 1 i , y 1 i ) ■ ■ ■ (3)
B 2 = B 2 (x 2 i , y 2 i ) ■ ■ ■ (4)
とすると、
Figure imgf000019_0001
P y - Ay = B 2 -B 1 - - ■ (6)
の関係が成り立つ。 したがって、
{ P x ■ Δχ - (Β 2 -Β 1 )} 2= 0 ■ ■ ■ (7 )
{ Ρ χ ■ Δγ - (Β 2-Β 1 )} 2=0 ■ ■ - (8)
を満たす Δχ、 Ayを求めればよい。 実際には、 各画素について Δχ、 Ayを算 出し、 全体で平均をとることになる。
そして、 X方向および y方向の両方向を考慮すると、
S2=∑ {P x ■ Δχ + P y - Ay- (B 2 -B 1 )} 2 ' ' - (9)
を最小にする Δχ、 Δνを求めればよい。
なお、 本実施例では、 勾配法によって、 並進ずれ量を算出するものとしたが、 ブロックマッチング法や、 反復勾配法や、 これらを組み合わせた手法など、 他の 手法を用いるようにしてもよい。 図 7は、 回転ずれの算出方法を示す説明図である。 ここでは、 比較基準画像と 対象画像との並進ずれが補正されているものとする。
比較基準画像の座標 (X 1 , y 1 ) の原点 Oからの距離を rとし、 x軸からの 回転角度を Θとすると、 r、 Θは、
r = ( X 12+ y 12) 1,2 ■ ■ ' ( 1 0)
θ= t a n -i ( x 1 / y 1 ) ' ■ ■ ( 1 1 )
となる。
ここで、 原点 Oを中心として、 比較基準画像の座標 (x 1, y 1 ) を角度 δだ け回転させたときに、 対象画像の座標 (x 2, y 2) と一致するものとすると、 この回転による X軸方向および y軸方法の移動量は、
x 2-x 1~- r - 5 - s i ηθ=-δ - y 1 - - - (1 2)
y 2 - y 1 ~ r - δ - c o s0 = 8 - x 1 - - - (1 3)
によって求められる。
したがって、 上記式 (9) における Δχ、 Ayは、
Figure imgf000020_0001
Ay = v +δ■ x 1 - - - (1 5)
と表すことができる。
これらを上記式 (9) に代入すると、
S2=∑ {Px■ (u-δ■ y 1 )
+Py■ (ν+δ · x1 ) - (B2-B1) } 2 ■ ■ ■ ( 1 6 )
が得られる。
上記式 (1 6) の S2 を最小にする u , V , 5 を最小二乗法によって求めるこ とにより、 比較基準画像と対象画像との 1画素未満の並進ずれ量および回転ずれ 量を精度よく検出することができる。 なお、 第 1.実施例では、 フレーム間の時間 は微小なので回転ずれ量やズームを考慮しない。 回転ずれを考慮しないので、 0として、 S2=∑ {Px■ u+Py■ v- (B2-B1) } 2 - - " ( 1 7 )
を最小にする u, vを最小二乗法によって求めることにより、 比較基準画像と対 象画像との 1画素未満の並進ずれ量を検出する。 A 4 . 静止画像生成処理:
図 8は、 第 1実施例における静止画像生成処理の流れを示すフローチヤ一卜で ある。 画像生成装置 1 0 0の C P Uが実行する処理である。
まず、フレーム画像入力部 2 0は、フレーム画像を入力する(ステップ S 2 0 )。 図 9は、 フレーム画像の入力処理を示したフローチャートである。 フレーム画像 入力部 2 0は、 まず動画像から選択フレーム画像 4枚と予備フレーム画像 2 0枚 を入力し、 フレーム画像記憶部 3 0に記憶させる (ステップ S 2 1 )。
次に、 排除部 5 0は、 選択フレーム画像のうちの 1枚に、 ノイズが大きい、 ピ ントがぼけている、 手がレンズ前に被さるなどして色の階調が異常である、 など の異常があるか否か判断する(ステップ S 2 3 )。異常であれば(ステップ S 2 3 )、 その選択フレーム画像はフレーム画像記憶部 3 0から削除して(ステップ S 2 4 )、 予備フレーム画像を 1枚選択フレーム画像に変更する (ステップ S 2 5 )。すべて の選択フレーム画像が正常と判断されるまで、 ステップ S 2 3からステップ S 2 5までを繰り返す。
基準画像指定受付部 2 5は、すべての選択フレーム画像をモニタに表示して(ス テツプ S 2 7 )、 基準画像の指定をユーザから受け付ける (ステップ S 2 8 )。 基 準画像の指定は 1枚である。 基準画像設定部 4 0は、 ユーザから指定を受けた 1 枚の選択フレーム画像を基準画像に設定する (ステップ S 2 9 )。 そして、比較対 象設定部 4 5は、基準画像以外の選択フレーム画像を比較対象画像に設定する(ス テツプ S 3 0 )。以上でフレーム画像入力処理の説明は終わり、図 8に戻って静止 画像生成処理の流れを説明する。
次に、 基準画像または比較対象画像のうちの 1枚を比較基準画像に設定し (ス テツプ S 35)、比較基準画像以外の比較対象画像を、比較対象画像に再設定する (ステップ S 40)。 そして、 比較対象画像のうち 1枚を、 対象画像に設定し、 比 較基準画像に対する対象画像のずれ量を検出する (ステップ S 50)。
ただし、検出結果のずれ量が( u, V ) であれば、ずれ量(Δυ , Δ V ) は、 (u, v) と最も近い整数と、 (u, V) の差の絶対値として求める。 例えば、 (u, v) = (2. 3, 0. 8) であれば、 (u, V) と最も近い整数は、 (2, 1 ) である から、 ずれ量 (Δίΐ, Δν) = | (2, 1 ) - (2. 3, 0. 8) | = (0. 3, 0. 2) となる。
次に、 ずれ量 (Δι_ι, Δν) が閾値 (0. 1 , 0. 1 ) 以下であれば (ステップ S 55)、合成に値しないものとして、対象画像を比較対象画像から除外する (ス テツプ S 60)。全ての比較対象画像について比較基準画像とのずれ量を検出して いなければ(ステップ S 65)、次の比較対象画像を対象画像に設定して、ステツ プ S 45からステップ S 60までを繰り返す。
全ての比較対象画像について比較基準画像とのずれ量を検出したら (ステップ S 65)、比較対象画像が 1枚以下になっているかどうか判断する (ステップ S 7
0)。 1枚以下になっていなければ、 新たに比較対象画像を比較基準画像として、 ステップ S 35からステップ S 65までを繰り返す。
1枚以下になっていれば(ステップ S 70)、比較基準画像と比較対象画像の合 計が 4枚となっているかどうか判断する (ステップ Sフ 5)。 4枚となっていなけ れば、 足りない分だけ予備フレーム画像を選択フレーム画像に変更し (ステップ
S 85)、新たに追加した選択フレーム画像について排除処理(図 9のステップ S
3 1 ) を行なう。 そして、 新たに追加した選択フレーム画像を比較対象画像に設 定する (ステップ S 86)。 4枚となっていれば、比較基準画像と比較対象画像と を合成して合成画像を生成する (ステップ S 80)。
以上説明した第 1実施例の画像生成装置によれば、 比較基準画像とのずれ量が 小さいフレーム画像を合成の対象から除外し、 なおかつ合成するフレーム画像の 枚数を 4枚確保することで、 効率的に合成画像の画質を向上することができる。
B. 第 2実施例:
B 1. 画像生成装置の構成:
図 1 0は、 本発明の第 2実施例としての画像生成装置 1 00 Aの概略構成を示 す説明図である。 画像生成装置 1 00 Aの構成は、 分割部 95を備えていること 以外は、 第 1実施例の画像生成装置 1 00とほぼ同じである。 なお、 以下に説明 するように、 第 2実施例では、 対象画像を複数のブロックに分割して、 ブロック 単位で比較基準画像とのずれ量を求める。 そして、 比較基準画像とのずれ量が小 さいブロックを合成の対象から除外する。 このため、 分割部 95は、 全ての選択 フレーム画像を各ブロックが 1 6x1 6画素になるように分割する。
B 2. ブロックのずれ量の検出:
図 1 1は、 基準画像と対象画像とのブロックのずれ量について示す説明図であ る。 比較基準画像の座標 (X 1 , y 1 ) が対象画像の座標 (X 2, y 2) にずれ ているものとする。 第 2実施例においては、 フレーム画像のずれ量は、 並進ずれ 量 (u, v) と、 回転ずれ量 δの 3つのパラメータからなる。
図 1 2は、 ブロックに分割したフレーム画像を示す説明図である。 図のフレー ム画像は、 5X8のブロックに分割されている。 全体のフレーム画像が、 図の矢 印に示すように回転している場合でも、ブロックのずれ量としては並進ずれ量(u, V ) のみで表現できる。
具体的には、 図 1 1の (x b, y b) を中心とするブロックのずれ量 (u b, V b ) は、
(u b, v b ) = ( u— y bo, v + x b δ)
となる。 つまり、 各ブロックのずれ量は、 フレーム画像の並進ずれ量と回転ずれ 量から計算すればよい。 ここでは、 各ブロックのずれ量をフレーム画像の並進ず れ量と回転ずれ量から計算するものとしたが、 各ブロックのずれ量を直接検出し ても構わない。
B 3. 静止画像生成処理:
図 1 3は、 第 2実施例における静止画像生成処理の流れを示すフローチャート である。 画像生成装置 1 00 Aの C P Uが実行する処理である。
第 2実施例においては、 まず全ての選択フレーム画像を各ブロックが 1 6x1 6画素になるように分割する (ステップ S 92)。 そして、 各ブロックについて、 第 1実施例と同様の処理を行なう(ステップ S 95〜ステップ S 1 50)。つまり、 各ブロックが独立したフレーム画像であるものとみなして処理を行なう。その際、 選択フレーム画像内において同じ位置のブロック (選択フレーム画像 1の第 1 ブ ロック, 選択フレーム画像 2の第 1ブロック, 選択フレーム画像 3の第 1 ブロッ ク, 選択フレーム画像 4の第 1ブロック) 同士で処理を行なう。 第 2ブロック、 第 3ブロック ■ 'についても同様に、 全てのブロックについて、 ステップ S 95 からステップ S 1 50までの処理を繰り返す (ステップ S 1 55)。
ただし、 予備フレーム画像を選択フレーム画像に変更したら (ステップ S 1 5 5)、 排除処理をして (ステップ S 30)、 選択フレーム画像を比較対象画像に設 定し (ステップ S 1 56)、 その比較対象画像も各ブロックが 1 6x1 6画素にな るように分割する (ステップ S 1 58)。
以上説明した第 2実施例の画像生成装置 1 0 OAによれば、 ブロックのずれ量 をフレーム画像の画像ずれ量をもとに、 簡便に求めることができる。 フレーム画 像全体としては合成に使用できなかつた画像も、 ブロックに分割することで合成 に使用できるようになる場合もある。 C. 変形例
以上、 本発明のいくつかの実施の形態について説明したが、 本発明はこのよう な実施の形態になんら限定されるものではなく、 その要旨を逸脱しない範囲内に おいて種々なる態様での実施が可能である。 例えば、 合成するフレーム画像の枚 数や、 ずれ量の閾値は、 様々に設定可能である。 更に、 比較基準画像と対象画像 における同じ位置の画素の特徴量の差の集合である画像差分や、 画素の特徴量の 平均値の差を、対象画像を合成に使用するか否かの判断基準としても良い。また、 以下のような変形例が可能である。
上記第 1実施例の画像生成装置 1 0 0は、 パノラマ画像の生成を行うこともで きる。 図 1 4は、 パノラマ画像生成の様子を示す説明図である。 ここでは、 実線 で示した 5枚のフレーム画像 1〜 5を合成し、 その一部を抽出して、 破線で示し たパノラマ画像を生成する場合について示した。 先に説明した従来の画像生成装 置では、 フレーム画像 1を基準画像とした場合には、 フレーム画像 5と重なる領 域がないため、 合成画像の生成ができなかった。 しかし、 第 1実施例の画像生成 装置 1 0 0によれば、 比較基準画像をフレーム画像 1→フレーム画像 2→フレー ム画像 3→フレーム画像 4と変更することにより、 より多くのフレーム画像を合 成してパノラマ画像を生成することが可能である。 産業上の利用可能性
この発明は、 動画や静止画の複数のフレーム画像を合成する装置に適用可能で ある。

Claims

請求の範囲
1 . 動画像に含まれる複数のフレーム画像から静止画像を生成する画像生成装 置であって、
前記複数のフレーム画像の中の基準フレーム画像以外のフレーム画像に含まれ る領域のうち、 少なくとも 1以上を、 前記基準フレーム画像内の基準フレーム画 像領域との関係で設定された所定の規則に基づいて、 合成対象フレーム画像領域 に設定する合成対象設定部と、
前記基準フレーム画像領域及び前記合成対象フレーム画像領域から、 1つの比 較基準フレーム画像領域を抽出する比較基準抽出部と、
前記比較基準フレーム画像領域以外の合成対象フレーム画像領域から、 1つの 対象フレーム画像領域を抽出する対象抽出部と、
前記比較基準フレーム画像領域と前記対象フレーム画像領域を比較し、 所定の パラメータを求める比較部と、
前記パラメータが所定の基準を満たさなければ、 前記対象フレーム画像領域を 合成対象フレーム画像領域から除外する除外部と、
前記基準フレーム画像領域と前記合成対象フレーム画像領域を合成して合成画 像領域を生成する合成画像生成部と
を備えた画像生成装置。
2 . 請求項 1記載の画像生成装置であって、 さらに、
前記基準フレーム画像内に、 合成の基準となる領域を前記基準フレーム画像領 域として設定する設定部と、
前記基準フレーム画像領域と、 前記基準を満たす合成対象フレーム画像領域の 合計数が所定の数以上になるまで、 前記合成対象設定部と前記比較基準抽出部と 前記対象抽出部と前記比較部と前記除外部の処理を繰リ返させるフレーム数制御 部と、
を備える画像生成装置。
3 . 請求項 2記載の画像生成装置であって、 さらに、
前記基準フレーム画像の指定を受ける指定受付部を備え、
前記設定部は、 指定を受けたフレーム画像を前記基準フレーム画像とする 画像生成装置。
4 . 請求項 1または 2記載の画像生成装置であって、
前記比較基準抽出部は、 前記基準フレーム画像領域を前記比較基準フレーム画 像領域とする画像生成装置。
5 . 請求項 1または 2記載の画像生成装置であって、 さらに、
前記合成対象フレーム画像領域から、 1つのフレーム画像の領域としての特徴 が所定の条件を満たすフレーム画像の領域を取り除く排除部を備えた画像生成装 置。
6 . 請求項 1または 2記載の画像生成装置であって、
前記パラメータは、 画像ずれ量である画像生成装置。
7 . 請求項 6記載の画像生成装置であって、
前記比較部は、
前記対象フレーム画像領域を含む対象フレーム画像の、 前記比較基準フレー ム画像領域を含む比較基準フレーム画像からの画像ずれ量を求めるフレームずれ 量算出部と、
前記対象フレーム画像領域の、 前記比較基準フレーム画像領域からの画像ず れ量を、 前記フレームずれ量算出部が求めた画像ずれ量に基づいて求める領域ず れ量算出部と
を備えた画像生成装置。
8 . 請求項 1または 2記載の画像生成装置であって、
前記パラメータは、 前記対象フレーム画像領域と前記比較基準フレーム画像領 域における同じ位置の画素の特徴量の比較によって得られる画像差分である画像 生成装置。 9 . 請求項 1または 2記載の画像生成装置であって、
前記パラメータは、 前記対象フレーム画像領域と、 前記比較基準フレーム画像 領域における、 画素の特徴量の平均値の比較である画像生成装置。
1 0 . 請求項 1または 2記載の画像生成装置であって、
前記基準フレーム画像領域と前記合成対象フレーム画像領域は、 前記フレーム 画像が、 それぞれ同じ形式で分割された領域であって、
前記対象抽出部は、 前記比較基準フレーム画像領域に対応する同じ位置の対象 フレーム画像領域を抽出する
画像生成装置。
1 1 . 動画像に含まれる複数のフレーム画像から静止画像を生成する画像生成 装置であって、
前記複数のフレーム画像うちの 1つである基準フレーム画像に含まれ、 合成の 基準となる領域である基準フレーム画像領域と、 前記基準フレーム画像以外の前 記複数のフレーム画像に含まれる領域のうちの 1つである比較対象フレーム画像 領域との比較によリ求まる画像の特徴量に基づく評価値が、 所定の基準を満たす 場合は、 前記基準フレーム画像領域と前記比較対象フレーム画像領域を合成する ことを特徴とする画像生成装置。
1 2 . 動画像に含まれる複数のフレーム画像から静止画像を生成する画像生成 方法であって、
( a ) 前記複数のフレーム画像の中の基準フレーム画像以外のフレーム画像に 含まれる領域のうち、 少なくとも 1以上を、 前記基準フレーム画像内の基準フレ ーム画像領域との関係で設定された所定の規則に基づいて、 合成対象フレーム画 像領域に設定する工程と、
( b ) 前記基準フレーム画像領域及び前記合成対象フレーム画像領域から、 1 つの比較基準フレーム画像領域を抽出する工程と、
( c ) 前記比較基準フレーム画像領域以外の合成対象フレーム画像領域から、 1つの対象フレーム画像領域を抽出する工程と、
( d ) 前記比較基準フレーム画像領域と前記対象フレーム画像領域を比較し、 所定のパラメータを求める工程と、
( e ) 前記パラメータが所定の基準を満たさなければ、 前記対象フレーム画像 領域を合成対象フレーム画像領域から除外する工程と、
( f ) 前記基準フレーム画像領域と前記合成対象フレーム画像領域を合成して 合成画像領域を生成する工程と
を備えた画像生成方法。
1 3 . 請求項 1 2記載の画像生成方法であって、 さらに、
前記基準フレーム画像内に、 合成の基準となる領域を前記基準フレーム画像領 域として設定する工程と、
( g ) 前記基準フレーム画像領域と、 前記基準を満たす合成対象フレーム画像 領域の合計数が所定の数以上になるまで、 前記工程 (a ) と前記工程 (b ) と前 記工程 (c ) と前記工程 (d ) と前記工程 (e ) の処理を繰り返させる工程と、 を備える画像生成方法
1 4 . 請求項 1 3記載の画像生成方法であって、 さらに、
前記基準フレーム画像の指定を受ける工程を備え、
前記基準フレーム画像領域を設定する工程は、 指定を受けたフレーム画像を前 記基準フレーム画像とする工程を含む、、
画像生成方法。
1 5 . 請求項 1 2または 1 3記載の画像生成方法であって、
前記工程 (b ) は、 前記基準フレーム画像領域を前記比較基準フレーム画像領 域とする工程を含む、 画像生成方法。
1 6 . 請求項 1 2または 1 3記載の画像生成方法であって、 さらに、
前記合成対象フレーム画像領域から、 1つのフレーム画像の領域としての特徵 が所定の条件を満たすフレーム画像の領域を取り除く工程を備えた画像生成方法。
1 7 . 請求項 1 2または 1 3記載の画像生成方法であって、
前記パラメータは、 画像ずれ量である画像生成方法。 1 8 .. 請求項 1 7記載の画像生成方法であって、
前記工程 (d ) は、
前記対象フレーム画像領域を含む対象フレーム画像の、 前記比較基準フレー ム画像領域を含む比較基準フレーム画像からの画像ずれ量を求める工程と、
前記対象フレーム画像領域の、 前記比較基準フレーム画像領域からの画像ず れ量を、 前記フレームずれ量算出部が求めた画像ずれ量に基づいて求める工程と を備えた画像生成方法。
1 9 . 請求項 1 2または 1 3記載の画像生成方法であって、 前記パラメータは、 前記対象フレーム画像領域と前記比較基準フレーム画像領 域における同じ位置の画素の特徴量の比較によって得られる画像差分である画像 生成方法。
2 0 . 請求項 1 2または 1 3記載の画像生成方法であって、
前記パラメータは、 前記対象フレーム画像領域と、 前記比較基準フレーム画像 領域における、 画素の特徴量の平均値の比較である画像生成方法。
2 1 . 請求項 1 2または 1 3記載の画像生成方法であって、
前記基準フレーム画像領域と前記合成対象フレーム画像領域は、 前記フレーム 画像が、 それぞれ同じ形式で分割された領域であって、
前記工程 (c ) は、 前記比較基準フレーム画像領域に対応する同じ位置の対象 フレーム画像領域を抽出する工程を含む、
画像生成方法。
2 2 . 動画像に含まれる複数のフレーム画像から静止画像を生成する画像生成 方法であって、
前記複数のフレーム画像うちの 1つである基準フレーム画像に含まれ、 合成の 基準となる領域である基準フレーム画像領域と、 前記基準フレーム画像以外の前 記複数のフレーム画像に含まれる領域のうちの 1つである比較対象フレーム画像 領域との比較によリ求まる画像の特徴量に基づく評価値が、 所定の基準を満たす 場合は、 前記基準フレーム画像領域と前記比較対象フレーム画像領域を合成する ことを特徴とする画像生成方法。
2 3 . 動画像に含まれる複数のフレーム画像から静止画像を生成するためのコ ンピュータプログラムであって、
前記複数のフレーム画像の中の基準フレーム画像以外のフレーム画像に含まれ る領域のうち、 少なくとも 1以上を、 前記基準フレーム画像内の基準フレーム画 像領域との関係で設定された所定の規則に基づいて、 合成対象フレーム画像領域 に設定する合成対象設定機能と、
前記基準フレーム画像領域及び前記合成対象フレーム画像領域から、 1つの比 較基準フレーム画像領域を抽出する比較基準抽出機能と、
前記比較基準フレーム画像領域以外の合成対象フレーム画像領域から、 1つの 対象フレーム画像領域を抽出する対象抽出機能と、
前記比較基準フレーム画像領域と前記対象フレーム画像領域を比較し、 所定の パラメータを求める比較機能と、
前記パラメータが所定の基準を満たさなければ、 前記対象フレーム画像領域を 合成対象フレーム画像領域から除外する除外機能と、
前記基準フレーム画像領域と前記合成対象フレーム画像領域を合成して合成画 像領域を生成する合成画像生成機能と
をコンピュータに実現させるコンピュータプログラム。
2 4 . 動画像に含まれる複数のフレーム画像から静止画像を生成するためのコ ンピュータプログラムであって、
前記複数のフレーム画像うちの 1つである基準フレーム画像に含まれ、 合成の 基準となる領域である基準フレーム画像領域と、 前記基準フレーム画像以外の前 記複数のフレーム画像に含まれる領域のうちの 1つである比較対象フレーム画像 領域との比較により求まる画像の特徴量に基づく評価値が、 所定の基準を満たす 場合は、 前記基準フレーム画像領域と前記比較対象フレーム画像領域を合成する 処理をコンピュータに実現させることを特徴とするコンピュータプログラム。
PCT/JP2004/005514 2003-04-17 2004-04-16 複数のフレーム画像からの静止画像の生成 WO2004093011A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/541,479 US7672538B2 (en) 2003-04-17 2004-04-16 Generation of still image from a plurality of frame images
EP04728040A EP1538562A4 (en) 2003-04-17 2004-04-16 GENERATING A STILL IMAGE FROM MULTIPLE INDIVIDUAL IMAGES
JP2005505487A JP4120677B2 (ja) 2003-04-17 2004-04-16 複数のフレーム画像からの静止画像の生成

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003112392 2003-04-17
JP2003-112392 2003-04-17

Publications (1)

Publication Number Publication Date
WO2004093011A1 true WO2004093011A1 (ja) 2004-10-28

Family

ID=33296055

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/005514 WO2004093011A1 (ja) 2003-04-17 2004-04-16 複数のフレーム画像からの静止画像の生成

Country Status (5)

Country Link
US (1) US7672538B2 (ja)
EP (1) EP1538562A4 (ja)
JP (1) JP4120677B2 (ja)
CN (1) CN100351868C (ja)
WO (1) WO2004093011A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006270523A (ja) * 2005-03-24 2006-10-05 Casio Comput Co Ltd 画像合成装置および画像合成処理プログラム
JP2006270238A (ja) * 2005-03-22 2006-10-05 Nikon Corp 画像処理装置、電子カメラ、および画像処理プログラム
WO2010013471A1 (ja) * 2008-07-30 2010-02-04 シャープ株式会社 画像合成装置、画像合成方法及び画像合成プログラム
JP2020154428A (ja) * 2019-03-18 2020-09-24 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、電子機器及び撮影装置

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070248240A1 (en) * 2004-05-05 2007-10-25 Koninklijke Philips Electronics, N.V. Selective Video Blanking
ATE396461T1 (de) * 2005-07-13 2008-06-15 Lasersoft Imaging Ag Bereitstellung einer digitalen kopie eines quellbildes
WO2007055334A1 (ja) * 2005-11-10 2007-05-18 Matsushita Electric Industrial Co., Ltd. ビュワー装置、ビュワー装置におけるスライドショー表示方法、及びプログラム
WO2007142109A1 (ja) * 2006-05-31 2007-12-13 Nec Corporation 画像高解像度化装置及び画像高解像度化方法並びにプログラム
US20080043259A1 (en) * 2006-08-18 2008-02-21 Roger Lee Triplett Method and system for hardcopy output of snapshots and video
WO2008047664A1 (fr) * 2006-10-19 2008-04-24 Panasonic Corporation Dispositif de création d'image et procédé de création d'image
US8717412B2 (en) * 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
JP4480760B2 (ja) * 2007-12-29 2010-06-16 株式会社モルフォ 画像データ処理方法および画像処理装置
US20090244301A1 (en) * 2008-04-01 2009-10-01 Border John N Controlling multiple-image capture
WO2010095460A1 (ja) * 2009-02-19 2010-08-26 日本電気株式会社 画像処理システム、画像処理方法および画像処理プログラム
JP2010250612A (ja) * 2009-04-16 2010-11-04 Canon Inc 画像処理装置及び画像処理方法
TWI401617B (zh) * 2009-05-19 2013-07-11 Ipanel Technologies Ltd 獲取圖像偏移位置的方法及裝置
EP2309452A1 (en) 2009-09-28 2011-04-13 Alcatel Lucent Method and arrangement for distance parameter calculation between images
US9792012B2 (en) 2009-10-01 2017-10-17 Mobile Imaging In Sweden Ab Method relating to digital images
US8558913B2 (en) 2010-02-08 2013-10-15 Apple Inc. Capture condition selection from brightness and motion
SE534551C2 (sv) 2010-02-15 2011-10-04 Scalado Ab Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild
JP5424930B2 (ja) * 2010-02-19 2014-02-26 キヤノン株式会社 画像編集装置およびその制御方法およびプログラム
CN102075679A (zh) * 2010-11-18 2011-05-25 无锡中星微电子有限公司 一种图像采集方法和装置
SE1150505A1 (sv) * 2011-05-31 2012-12-01 Mobile Imaging In Sweden Ab Metod och anordning för tagning av bilder
EP2718896A4 (en) 2011-07-15 2015-07-01 Mobile Imaging In Sweden Ab METHOD FOR PROVIDING ADJUSTED DIGITAL GRAPHIC REPRESENTATION OF VIEW AND APPROPRIATE APPARATUS
AU2011253779A1 (en) * 2011-12-01 2013-06-20 Canon Kabushiki Kaisha Estimation of shift and small image distortion
CN104428815B (zh) * 2012-07-13 2017-05-31 富士胶片株式会社 图像变形装置及其动作控制方法
JP6249596B2 (ja) * 2012-12-05 2017-12-20 三星電子株式会社Samsung Electronics Co.,Ltd. 撮像装置および撮像方法
US20140152765A1 (en) * 2012-12-05 2014-06-05 Samsung Electronics Co., Ltd. Imaging device and method
US9304089B2 (en) * 2013-04-05 2016-04-05 Mitutoyo Corporation System and method for obtaining images with offset utilized for enhanced edge resolution
CN103699897A (zh) * 2013-12-10 2014-04-02 深圳先进技术研究院 一种鲁棒人脸配准方法和装置
CN105865451B (zh) * 2016-04-19 2019-10-01 深圳市神州云海智能科技有限公司 用于移动机器人室内定位的方法和设备
CN107483839B (zh) 2016-07-29 2020-08-07 Oppo广东移动通信有限公司 多帧图像合成方法和装置
US9940695B2 (en) * 2016-08-26 2018-04-10 Multimedia Image Solution Limited Method for ensuring perfect stitching of a subject's images in a real-site image stitching operation
CN106303292B (zh) * 2016-09-30 2019-05-03 努比亚技术有限公司 一种视频数据的生成方法和终端
CN108063920A (zh) * 2017-12-26 2018-05-22 深圳开立生物医疗科技股份有限公司 一种图像冻结方法、装置、设备及计算机可读存储介质
CN111131688B (zh) * 2018-10-31 2021-04-23 Tcl科技集团股份有限公司 一种图像处理方法、装置及移动终端
JP6562492B1 (ja) * 2019-05-16 2019-08-21 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム
US11423224B2 (en) 2019-06-14 2022-08-23 Kyocera Document Solutions Inc. Image-to-text recognition for a sequence of images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210680U (ja) * 1988-07-01 1990-01-23
JPH06350974A (ja) * 1993-04-13 1994-12-22 Matsushita Electric Ind Co Ltd フレーム静止画像生成装置
JPH1069537A (ja) * 1996-08-28 1998-03-10 Nec Corp 画像合成方法及び画像合成装置
JP2000244851A (ja) * 1999-02-18 2000-09-08 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210680A (ja) 1988-06-28 1990-01-16 Sanyo Electric Co Ltd 電気コタツ
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US5987164A (en) * 1997-08-01 1999-11-16 Microsoft Corporation Block adjustment method and apparatus for construction of image mosaics
JP4250237B2 (ja) 1998-11-10 2009-04-08 キヤノン株式会社 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
EP1008956A1 (en) * 1998-12-08 2000-06-14 Synoptics Limited Automatic image montage system
JP3432212B2 (ja) * 2001-03-07 2003-08-04 キヤノン株式会社 画像処理装置及び方法
NL1019365C2 (nl) * 2001-11-14 2003-05-15 Tno Bepaling van een beweging van een achtergrond in een reeks beelden.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210680U (ja) * 1988-07-01 1990-01-23
JPH06350974A (ja) * 1993-04-13 1994-12-22 Matsushita Electric Ind Co Ltd フレーム静止画像生成装置
JPH1069537A (ja) * 1996-08-28 1998-03-10 Nec Corp 画像合成方法及び画像合成装置
JP2000244851A (ja) * 1999-02-18 2000-09-08 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1538562A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006270238A (ja) * 2005-03-22 2006-10-05 Nikon Corp 画像処理装置、電子カメラ、および画像処理プログラム
JP4497001B2 (ja) * 2005-03-22 2010-07-07 株式会社ニコン 画像処理装置、電子カメラ、および画像処理プログラム
JP2006270523A (ja) * 2005-03-24 2006-10-05 Casio Comput Co Ltd 画像合成装置および画像合成処理プログラム
JP4496537B2 (ja) * 2005-03-24 2010-07-07 カシオ計算機株式会社 画像合成装置および画像合成処理プログラム
WO2010013471A1 (ja) * 2008-07-30 2010-02-04 シャープ株式会社 画像合成装置、画像合成方法及び画像合成プログラム
JP2010034964A (ja) * 2008-07-30 2010-02-12 Sharp Corp 画像合成装置、画像合成方法及び画像合成プログラム
JP2020154428A (ja) * 2019-03-18 2020-09-24 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、電子機器及び撮影装置
JP7247682B2 (ja) 2019-03-18 2023-03-29 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、電子機器及び撮影装置

Also Published As

Publication number Publication date
EP1538562A1 (en) 2005-06-08
JPWO2004093011A1 (ja) 2006-07-06
EP1538562A4 (en) 2005-08-10
US20060171687A1 (en) 2006-08-03
US7672538B2 (en) 2010-03-02
CN1717702A (zh) 2006-01-04
JP4120677B2 (ja) 2008-07-16
CN100351868C (zh) 2007-11-28

Similar Documents

Publication Publication Date Title
WO2004093011A1 (ja) 複数のフレーム画像からの静止画像の生成
EP2169945B1 (en) Image processing apparatus and method for detection and correction of camera shake
JP4325625B2 (ja) 画像処理装置、画像処理方法、そのプログラムおよび記録媒体
EP1578116B1 (en) Image processor
EP1761072B1 (en) Image processing device for detecting chromatic difference of magnification from raw data, image processing program, and electronic camera
JP4461937B2 (ja) 低解像度の複数の画像に基づく高解像度の画像の生成
JP2005354124A (ja) 複数の低画素密度画像からの高画素密度画像の生成
US20050157949A1 (en) Generation of still image
JP4514264B2 (ja) ビデオデータ信号から取得された静止画像内でのモーション表示方法
US6784927B1 (en) Image processing apparatus and image processing method, and storage medium
US20100157107A1 (en) Image Apparatus And Electronic Apparatus
US20100123792A1 (en) Image processing device, image processing method and program
JP2004234623A (ja) 画像生成装置、画像ずれ量検出装置、画像生成方法、画像ずれ量検出方法、画像生成プログラムおよび画像ずれ量検出プログラム
KR100423504B1 (ko) 영상신호의 라인보간 장치 및 방법
JP4360177B2 (ja) 静止画像生成装置、静止画像生成方法、静止画像生成プログラム、および静止画像生成プログラムを記録した記録媒体
JP2004272751A (ja) 複数のフレーム画像からの静止画像の生成
JP2006215655A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP5448983B2 (ja) 解像度変換装置及び方法、走査線補間装置及び方法、並びに映像表示装置及び方法
US8345157B2 (en) Image processing apparatus and image processing method thereof
JP2006033232A (ja) 画像処理装置
JP2006215657A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP5055571B2 (ja) 画像処理装置、電子カメラ、および画像処理プログラム
JP2013126123A (ja) 画像処理装置、撮像装置及び画像処理方法
JP2005129996A (ja) 低解像度の複数の画像に基づく高解像度の画像生成の効率向上
JP2009182935A (ja) 画像処理装置および方法、プログラム、並びに記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2005505487

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004728040

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004728040

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20048016127

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2006171687

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10541479

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10541479

Country of ref document: US