WO2008053765A1 - 画像生成装置および画像生成方法 - Google Patents

画像生成装置および画像生成方法 Download PDF

Info

Publication number
WO2008053765A1
WO2008053765A1 PCT/JP2007/070750 JP2007070750W WO2008053765A1 WO 2008053765 A1 WO2008053765 A1 WO 2008053765A1 JP 2007070750 W JP2007070750 W JP 2007070750W WO 2008053765 A1 WO2008053765 A1 WO 2008053765A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
moving image
resolution
exposure
frame
Prior art date
Application number
PCT/JP2007/070750
Other languages
English (en)
French (fr)
Other versions
WO2008053765A8 (ja
Inventor
Taro Imagawa
Takeo Azuma
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Priority to CN2007800249811A priority Critical patent/CN101485192B/zh
Priority to US12/094,370 priority patent/US7907183B2/en
Priority to JP2007557268A priority patent/JP4215266B2/ja
Publication of WO2008053765A1 publication Critical patent/WO2008053765A1/ja
Publication of WO2008053765A8 publication Critical patent/WO2008053765A8/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Definitions

  • the present invention relates to an image generation device that generates a moving image, and more particularly to an image generation device that generates a new moving image having excellent characteristics from a plurality of moving images.
  • FIG. 1 is a diagram for explaining a conventional image generation method described in Patent Document 1.
  • “high speed” or “low speed” means that the frame rate is relatively large or small in terms of imaging capability or moving image properties.
  • Resolution means “low resolution”) means that the spatial resolution is relatively high.
  • FIG. 1 a high-speed low-resolution camera A01 and a low-speed high-resolution camera A02 are shooting the same object in synchronism with the same angle of view.
  • Figure 2 shows the relationship between the images taken by camera A01 and camera A02.
  • Figure 2 shows the frames taken by the two cameras A01 and A02 in chronological order, with frames B01 and B02 representing the images obtained with camera A02, and frames B1;! -B15 obtained with camera 01.
  • the difference in spatial resolution is the size of the image Frames B11 to B15 have fewer pixels and lower spatial resolution than frames B01 and B02.
  • camera A01 has a higher shooting frame rate than camera A02, while camera A02 takes 4 frames while camera A02 takes 1 frame.
  • the frame shooting of camera A01 is performed in synchronization with the frame shooting time of camera A02 (frame B01 and frame B11 and frame B02 and frame B15 are shot at the same timing).
  • frame B01 and frame B11 and frame B02 and frame B15 are shot at the same timing.
  • the primary matching unit A03 obtains the correspondence relationship between the adjacent frames in the high-speed shot image of the camera A01.
  • the correspondence relationship is a relationship in which pixel position in the other frame image is a target region where each pixel in a certain frame image is reflected.
  • the secondary matching unit A04 performs the positional relationship of the pixels between the frame B01 and the frame B11 and the position of the pixels between the frame B13 and the frame B23.
  • the correspondence relationship between the frame B01 and the frame B23 is determined by connecting the relationship and the correspondence relationship between the frame B11 and the frame B13 obtained by the primary matching unit A03.
  • the image generation unit A05 determines the pixel value of the frame B23 using the pixel value of the frame B01 by using the correspondence relationship between the pixels of the frame B01 and the frame B23, and the high-resolution intermediate frame image B23 is generated. By generating other intermediate frames in the same procedure, high-resolution and high-speed video is generated.
  • Non-Patent Document 1 and Non-Patent Document 2 for example, use a video of a high-speed low-resolution camera and a low-speed high-resolution camera, detect motion from the video of the high-speed camera, and adjust the motion accordingly.
  • High-resolution intermediate frame images are generated by morphing low-speed, high-resolution moving images.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-203237 (FIG. 13)
  • Non-Patent Document l Toru MATSUNOBU, et al., "Generation of High Resol ution Video Using Morphing, Technical report of IEICE, PRMU20 04-178
  • Non-Patent Document 2 Kiyotaka Watanabe, et al., "Generation of High Resolution Video Sequence from Two Video Sequences with Different Spatio- temporal Frequencies", Information Science and Technology Letters (FIT2004), Vol. 3, No. LI — 004, 2004
  • the above conventional technique is based on the premise that the correspondence relationship between the adjacent frames in the high-speed image is accurately obtained and that the motion detection can be accurately performed, and the correspondence relationship is accurately obtained.
  • the correspondence relationship is accurately obtained.
  • there is no image or when motion detection cannot be performed there is a problem that an image to be generated is greatly deteriorated or a low-resolution image is simply enlarged.
  • the movement of the moving object in the image is complicated, when the lighting condition changes, when occlusion occurs, or when an aperture problem occurs, the corresponding points between frames can be obtained. It is difficult to obtain motion detection accurately for all pixels.
  • the present invention solves the above-described conventional problems, and generates a new moving image that integrates a plurality of moving images including an image region in which corresponding point detection and motion detection cannot be performed accurately.
  • An object of the present invention is to provide an image generating apparatus and method capable of performing the same.
  • the image generation device is configured to obtain the event from a first moving image and a second moving image obtained by photographing the same event with an external imaging device.
  • the second moving image has a resolution higher than that of the first moving image and an exposure time of the frame of the second moving image is the first moving image.
  • Exposure control means for temporally changing the exposure amount during the exposure period of one frame of the second moving image by controlling the imaging device longer than the exposure time of the frame of the moving image; Taken from the imaging device under the control of the first moving image and the exposure control means.
  • the frame rate is equal to or higher than the frame rate of the first moving image
  • a new moving image having a resolution equal to or higher than the resolution of the second moving image is defined as a sum of a frame of the second moving image and a plurality of frames of the new moving image corresponding to an exposure period of the frame of the second moving image.
  • an image integration means that is generated by reducing the error.
  • the image integration means can generate a moving image having the same frame rate as the first moving image and the same resolution as the second moving image as the new moving image. In other words, a new moving image is generated that combines the excellent characteristics of each of the input moving images.
  • the exposure control means can change the exposure amount during the exposure period of the second moving image over time, so that information with a high time frequency can be acquired, and the generated moving image It becomes possible to improve the high frequency characteristics of the.
  • the present invention is an image generation method that can only be realized as such an image generation device, a program that causes a computer to execute the method, and a computer-readable recording medium such as a CD-ROM that records the program. Etc. can also be realized.
  • the invention's effect is an image generation method that can only be realized as such an image generation device, a program that causes a computer to execute the method, and a computer-readable recording medium such as a CD-ROM that records the program. Etc. can also be realized.
  • the invention's effect can also be realized.
  • the spatio-temporal resolution of the image is determined for the entire moving image.
  • a new moving image improved by the above is generated. For example, a high-speed and high-resolution moving image having excellent characteristics can be reliably generated from a high-speed and low-resolution moving image and a low-speed and high-resolution moving image.
  • FIG. 1 is a block diagram showing a configuration of a conventional image generating apparatus.
  • FIGS. 2 (a) and 2 (b) are diagrams showing a time series of input images in a conventional image generating apparatus.
  • FIG. 3 shows a hardware configuration of the image generation system in the embodiment of the present invention.
  • FIG. 4 is a functional block diagram showing the configuration of the image generation apparatus.
  • FIG. 5 is a flowchart showing the operation of the image generation apparatus.
  • FIGS. 6 (a) and 6 (b) are diagrams showing an example of time series of input images.
  • FIGS. 7A to 7C are diagrams showing specific examples of the imaging device.
  • FIGS. 8A to 8C are diagrams showing examples of pixel arrangements of a high-speed and high-resolution moving image to be generated, a high-speed and low-resolution moving image to be input, and a low-speed and high-resolution moving image, respectively. 9] FIGS. 9A to 9C are graphs showing examples of the relationship between the incident light amount and the pixel value when the pixel value is corrected.
  • Figs. 10 (a) and 10 (b) are diagrams showing the relationship between the motion detection results obtained from the high-speed and low-resolution video and the high-speed and high-resolution video.
  • Figs. 11 (a) to 11 (d) are diagrams showing examples of frame images of high-speed and high-resolution moving images to be generated.
  • Figs. 12 (a) to 12 (d) are diagrams showing an example of a frame image of the input high-speed and low-resolution moving image.
  • FIG. 13 is a diagram illustrating an example of a frame image of an input low-speed and high-resolution moving image.
  • FIGS. 14 (a) to 14 (d) are diagrams showing examples of reliability distribution.
  • FIGS. 15A to 15D are diagrams showing an example of a frame image of a generated moving image. 16] FIGS. 16 (a) to 16 (d) are diagrams showing an example of a frame image of a moving image when the reliability is generated using! /.
  • FIGS. 17 (a) to 17 (e) are diagrams showing examples of ideal high-speed and high-resolution frame images.
  • Figures 18 (a) to (e) are diagrams showing an example of a frame image of a high-speed and low-resolution image.
  • Figures 19 (a) and 19 (b) are low-speed images taken with a short exposure. It is a figure which shows an example of the frame image of a high-resolution image.
  • Figures 20 (a) and (b) are frames of a low-speed, high-resolution image taken with long exposure. It is a figure which shows an example of an image.
  • FIGS. 21 (a) and 21 (e) are diagrams showing an example of a frame image generated with a short exposure.
  • FIGS. 22 (a) and 22 (e) are diagrams showing an example of a frame image generated by short-time exposure.
  • FIGS. 23 (a) and 23 (e) are diagrams showing an example of a frame image generated by long exposure.
  • FIGS. 24 (a) and 24 (e) are diagrams showing an example of a frame image generated by long exposure.
  • FIGS. 25 (a) and 25 (b) are diagrams showing temporal changes in the exposure amount during the frame exposure period.
  • FIGS. 26 (a) and 26 (c) are diagrams illustrating the relationship between the exposure timing of the input image and the virtual exposure timing in the generated image.
  • FIGS. 27A and 27C are diagrams showing an example of a frame image of a high-speed low-resolution image.
  • FIG. 28 is a diagram showing an example of a frame image of a low-speed high-resolution image.
  • FIGS. 29 (a) and 29 (c) are diagrams showing an example of the generated frame image.
  • FIGS. 30 (a) and 30 (c) are diagrams showing an example of a frame image of a high-speed and low-resolution image.
  • FIG. 31 is a diagram showing an example of a frame image of a low-speed and high-resolution image when the exposure amount is changed.
  • FIGS. 32 (a) and 32 (c) are diagrams showing an example of a generated frame image when the exposure amount is changed.
  • FIGS. 33 (a) and 33 (b) are diagrams showing temporal changes in the exposure amount during the frame exposure period.
  • FIG. 34 is a graph showing an example of the relationship between the reliability and the compression rate when the compression rate for encoding an image is changed using the reliability of the generated image.
  • FIG. 35 is a flowchart showing a processing procedure for integrating color moving images. is there.
  • FIG. 36 is a diagram showing an example of region division processing.
  • FIG. 37 is a block diagram showing a specific example of an image generation system.
  • FIG. 38 is a block diagram showing a specific example of an image generation system. Explanation of symbols
  • the image generation apparatus of the present invention generates an image for generating a new moving image representing the event from the first moving image and the second moving image obtained by capturing the same event with an external imaging device.
  • a resolution of the second moving image is higher than a resolution of the first moving image, and an exposure time of the frame of the second moving image is longer than an exposure time of the frame of the first moving image.
  • an exposure control means for temporally changing an exposure amount during an exposure period of one frame of the second moving image; from the imaging device, the first moving image; and the exposure From the image input means for acquiring the second moving image captured under the control of the control means, and the acquired first moving image and second moving image, the frame rate of the first moving image or higher Resolution at frame rate and above the resolution of the second video Reducing the error between the frame of the second moving image and the sum of the plurality of frames of the new moving image corresponding to the exposure period of the frame of the second moving image.
  • image integration means generated by
  • the exposure control means may provide a non-exposure period for reducing the exposure amount at least once during an exposure period of one frame of the second moving image. Furthermore, the exposure amount of the first moving image may be reduced during the non-exposure period of the second moving image by controlling the imaging device. Further, the exposure of the frame of the second moving image is performed in the exposure period of one or more frames of the first moving image included in the exposure period of one frame of the second moving image. As described above, the exposure amount of the second moving image may be changed! /.
  • the temporal frequency included in the first moving image for short exposure time is high! /, Information and high !, and the spatial frequency included in the second moving image for resolution. Since the high level of information is reflected in the frame of the new moving image, the new moving image having excellent spatio-temporal resolution can be obtained. Changing the amount of exposure during the exposure time of the second moving image over time allows the second moving image to have higher time frequency information, and as a result, the time resolution of the new moving image. Helps improve.
  • the exposure control means controls the light reducing means to change the exposure amount with time by the force S.
  • the exposure control unit includes the illumination control unit. By controlling the light means, the exposure amount can be changed with time.
  • FIG. 3 is a block diagram showing a hardware configuration of the image generation system according to the embodiment of the present invention.
  • the image generation system 100 uses a plurality of moving images (here, a high-speed low-resolution moving image and a low-speed high-resolution moving image) from a plurality of moving images with high spatio-temporal resolution !, a new moving image (here, A high-speed, high-resolution moving image), and includes an imaging device 10, an image storage device 20, an image generation device 30, and a display device 40.
  • the imaging device 10 is a camera or the like that captures a subject and obtains moving images (here, a high-speed low-resolution moving image and a low-speed high-resolution moving image for the same target) with two different types of spatiotemporal resolution. .
  • the image storage device 20 is a memory or the like that temporarily stores a moving image captured by the imaging device 10.
  • the image generation device 30 is a device that reads out a moving image stored in the image storage device 20 and generates a new moving image with improved spatiotemporal resolution from the read out moving images.
  • the display device 40 is a display device that displays a new moving image generated by the image generation device 30.
  • the image generation device 30 may be realized by hardware such as a dedicated circuit, or may be realized by software such as an image processing program in a general-purpose computer.
  • FIG. 4 is a functional block diagram showing the internal configuration of the imaging device 10 and the image generation device 30 in the image generation system 100 shown in FIG.
  • the imaging device 10 includes a light reduction unit 106a and an illumination unit 106b.
  • the dimming unit 106a is an amount that can be changed in time according to the control from the image generating device 30. Incident light from the subject to be imaged is reduced.
  • the dimming unit 106a may be, for example, an electrically controllable filter or shutter disposed in an optical system (not shown) that guides incident light to the imaging element.
  • the illumination unit 106b illuminates the subject with a light amount that can be changed with time in accordance with control from the image generation device 30.
  • the image generation device 30 includes an image input unit 101, a motion detection unit 103, an image integration unit 104, and an exposure control unit 105.
  • the exposure control unit 105 controls at least one of the light reduction unit 106a and the illumination unit 106b, thereby exposing the exposure amount during the exposure period of one frame of the low-speed high-resolution image captured by the imaging device 10. Is changed over time.
  • the image input unit 101 is an interface that acquires a plurality of moving images having different spatiotemporal resolutions or spatiotemporal phases obtained by imaging the same object by the imaging device 10, and has a high speed (high frame rate). ) And a low-resolution moving image (high-speed low-resolution moving image), and a high-speed image input unit 101a that captures the same object at a low-speed (low-speed frame rate) and high spatial resolution (low-speed) A low-speed image input unit 101b for acquiring a high-resolution moving image).
  • the image input to the high-speed image input unit 101a and the image input to the low-speed image input unit 101b are images obtained by photographing the same object, although the spatio-temporal resolution is different.
  • the amount of exposure during the exposure period of one frame of the low-speed and high-resolution image can be temporally changed by the light reduction unit 106a or the illumination unit 106b.
  • the motion detection unit 103 is a sensor input that acquires a signal from a sensor (such as an acceleration sensor provided in the imaging device 10) that detects a motion of the imaging device 10 that generates an image input to the image input unit 101. Based on at least one of the unit 103c, the image input to the image input unit 101, and the motion signal input to the sensor input unit 103c, motion detection of an image in the input image (that is, an imaging target) is performed.
  • a motion distribution calculating unit 103a that performs the entire image of each frame and a motion reliability distribution calculating unit 103b that calculates the reliability of motion detection in the motion distribution calculating unit 103a for the entire image of each frame.
  • the image integration unit 104 uses a result of motion detection performed by the motion detection unit 103 for a highly reliable image region.
  • a processing unit that generates an image and integrates a plurality of moving images using a predetermined constraint condition for a region with low reliability includes an integration processing unit 104a, a constraint control unit 104b, and motion constraint designation.
  • the motion constraint specifying unit 104c uses the result of motion detection by the motion distribution calculation unit 103a to determine the constraint condition that each pixel value of the generated high-speed and high-resolution moving image should satisfy (hereinafter, depending on the result of motion detection).
  • the constraint condition specified in this step is referred to as “motion constraint condition”).
  • the external model constraint unit 104d depends on a constraint condition that each pixel value of the generated high-speed and high-resolution moving image must satisfy separately from the result of motion detection by the motion distribution calculation unit 103a (hereinafter, depending on the result of motion detection). If the constraint condition is specified as “external model constraint condition”, then)
  • the constraint control unit 104b uses the motion detection result calculated by the motion distribution calculation unit 103a and the reliability calculated by the motion reliability distribution calculation unit 103b to generate a high-speed, high-resolution moving image. At each position in each frame image, the degree of validity of the motion constraint condition and the external model constraint condition is determined, and the degree is notified to the constraint designation unit 104e.
  • the constraint specifying unit 104e has a motion constraint condition specified by the motion constraint specifying unit 104c and an external model constraint unit 104d based on the effectiveness of the motion constraint condition determined by the constraint control unit 104b and the external model constraint condition. Specifies the constraint conditions that the external model constraint conditions specified by, that is, the constraint conditions that each pixel value of the high-speed, high-resolution video to be generated must satisfy.
  • the integration processing unit 104a integrates the high-speed image input to the high-speed image input unit 101a and the low-speed image input to the low-speed image input unit 101b according to the constraint condition specified by the constraint specification unit 104e. Generate high-speed, high-resolution video.
  • Encoding section 102 compresses and encodes the image generated by integration processing section 104a and outputs the result.
  • the "frame" in the present embodiment includes an even field and an odd field in an interlace system that includes only a frame in a progressive system. Be turned.
  • FIG. 5 is a flowchart of processing executed by the image generation apparatus 30.
  • step 600 the exposure control unit 105 sets the time change of the exposure amount during the exposure period of one frame of the low-speed high-resolution image.
  • the exposure amount is made constant throughout the exposure period. The case of changing the exposure amount during the exposure period with time will be described later.
  • the exposure control unit 105 controls the imaging apparatus 10 to make the exposure amount constant.
  • the imaging device 10 captures a high speed low resolution image and a low speed high resolution image under the control of the exposure control unit 105.
  • step 601 the high-speed image input unit 101a receives the input of the high-speed and low-resolution moving image, and the low-speed image input unit 101b receives the input of the low-speed and high-resolution moving image for the same object.
  • the image used for description will be described using a luminance image.
  • FIGS. 6A and 6B show the relationship between the high-speed low-resolution moving image input to the high-speed image input unit 101a and the low-speed high-resolution moving image input to the low-speed image input unit 101b.
  • Figures 6 (a) and 6 (b) show a sequence of frame images of these two images in time order.
  • Frames 201 and 202 represent low-speed and high-resolution images, and frame 21;
  • Reference numeral 215 denotes a high-speed and low-resolution image.
  • the difference in spatial resolution is expressed by the size of the image.
  • Frames 211 to 215 have fewer pixels and lower spatial resolution than frames 201 and 202.
  • the high-speed image input unit 101a has a higher shooting frame rate than the low-speed image input unit 101b.
  • the high-speed image input unit 101a has a frame interval of the low-speed image input unit 101b. I'm shooting 4 frames.
  • the width in the time direction of the images of the frames 201 and 202 represents the exposure time. Since the image input to the low-speed image input unit 101b has a lower frame rate, the image can be exposed longer than the image input to the high-speed image input unit 101a.
  • the frame 201 of the low-speed high-resolution moving image is exposed at intervals of four frames of the high-speed low-resolution moving image! /.
  • the frame input to the high-speed image input unit 101a and the frame input to the low-speed image input unit 101b As long as the relative relationship of time is known, it is not always necessary to capture images at the same timing (that is, the phase at the imaging timing may be different). In addition, by performing exposure for a long time, it is possible to acquire motion information such as a moving locus of a moving object even in a high-resolution image. It is consistent with the motion information obtained from high-resolution images! / By generating moving images in the image integration process described later, it is possible to generate moving images with high spatial and temporal resolution. It becomes possible.
  • the imaging apparatus 10 that is, an example of an imaging unit that acquires two types of images is shown.
  • the two types of images can be taken by arranging two types of cameras with different characteristics using a half mirror so that they have the same angle of view.
  • two types of image sensors with different characteristics in one camera may be arranged using half mirrors and prisms so as to have the same angle of view. In this way, an image sensor that simultaneously captures two types of images with different characteristics may be used.
  • the pixel value (in this case, the luminance value) of the target high-speed and high-resolution moving image and the high-speed and low-resolution acquired by the high-speed image input unit 101a are used.
  • the relationship between the pixel value (in this case, the luminance value) of the low-speed high-resolution moving image acquired by the moving image and low-speed image input unit 101b will be described. This relationship is used for image generation as an external model constraint that each pixel of a high-speed, high-resolution moving image should satisfy.
  • Figure 8 (a) shows the pixel arrangement of each frame of the target high-speed and high-resolution video. For convenience of explanation, a part of the high-speed and high-resolution moving image is taken out and explained.
  • Fig. 8 (a) shows the arrangement of 3 pixels in the vertical (Y-axis) direction, 3 pixels in the horizontal (X-axis) direction, and 4 frames.
  • the pixel value at the pixel position (X, y, t) is defined as HH (x, y, t). Where x and y are in the range of 0, 1, 2 values, and t is in the range of 0, 1, 2, 3 values.
  • FIG. 8 (b) shows a pixel arrangement of a high-speed low-resolution moving image obtained by photographing the same angle of view as FIG. 8 (a) at the same time.
  • the pixel value (xL, yL, t) of the pixel position (xL, yL, t) of the high-speed, low-resolution moving image is expressed as HL (xL, yL, t). Since the number of pixels in the x and y directions differs between low resolution images and high resolution images, the x and y coordinate values of low resolution images are expressed as xL and yL, respectively, to distinguish them from high resolution images. Here, it consists of 3 pixels each in the x and y directions of a high-resolution image 9 The pixel area is equivalent to one pixel of the low-resolution image, and the pixel value relationship is as shown in Equation 1.
  • Fig. 8 (c) shows the arrangement of pixels of a low-speed, high-resolution moving image obtained by photographing the same angle of view as Fig. 8 (a) at the same time.
  • the pixel value of the pixel position (X, y, tL) of the low-speed, high-resolution moving image is expressed as LH (x, y, tL).
  • the frame number of the low-speed image is expressed as tL to distinguish it from the case of the high-speed image.
  • the interval of four frames of the high-speed image is equivalent to one frame interval of the low-speed image, and the relationship of the pixel values is as shown in Equation 2.
  • G (t) represents the photographing intensity at time t, and represents the change rate of the pixel value due to the sensitivity of the image sensor and the temporal change of the diaphragm during photographing.
  • Equation 3 At corresponds to the virtual exposure time of the frame image of the high-speed high-resolution image to be generated, tcont is a continuous time, and HHcont (x, y, tcont) is a temporally continuous image.
  • Exp (tcont) represents the temporal change of the virtual exposure of the frame image of the high-speed, high-resolution image.
  • the pixel value when the pixel value is proportional to the amount of incident light at the time of imaging (Fig. 9 (a)), it is not proportional due to the 1Sy correction described above (Fig. 9 (b)), or the proportional constant is If the input / output characteristics (input / output relationship) of the image sensor when the image is taken are used in reverse, the values have the same proportional relationship with the incident light.
  • the pixel value can be corrected to satisfy the relationship of Equation 1 and Equation 2. For example, by using the correspondence between the pixel value and the correction value as shown in Fig. 9 (c), the pixel value obtained as shown in Fig. 9 (b) is corrected and obtained as shown in Fig. 9 (a). Processing can be performed in the same manner as the obtained pixel value.
  • Xmax, Ymax, and tmax indicate the maximum values of the X direction pixel number, the y direction pixel number, and the frame number, respectively.
  • s (x, y, t) is a coefficient for designating the spatio-temporal distribution of the constraint condition, and is determined by using the motion reliability in step 604 described later.
  • the external model constraint condition can be expressed as an evaluation function for the high-speed and high-resolution moving image to be generated. Lowering the value of the evaluation function (evaluation value) corresponds to adding to the high-speed, high-resolution moving image that generates the external model constraint.
  • spatiotemporal continuity of edges may be used.
  • spatiotemporal continuity of edges may be used.
  • edges of (6) and (7) are expressed as (x, y, t, i) in the moving image.
  • t indicates the strength of the edge in the i-th direction
  • i indicates the type of edge direction
  • i is an integer value from 0 to imax.
  • Ix, iy is a vector representing the direction of the i-th edge.
  • u (x, y, t) and v (x, y, t) denote the X-direction component and the y-direction component of the motion vector at the position (x, y, t) in the image.
  • edge detection filter such as Gabor filter that has azimuth dependency, or after obtaining the edge direction and strength by differential operation as shown in Equation 8, discretize the edge direction as necessary. It can be realized by using.
  • te (x, y, t) or se (x, y, t) is a coefficient that specifies the spatio-temporal distribution of constraints as in ls (x, y, t).
  • the determination is made using the motion reliability.
  • the degree of freedom that a generated moving image can represent may be limited to a predetermined main component of a moving image group.
  • the luminance value HH (x, y, t) of each pixel of each frame constituting a moving image is an independent element, and the moving image is considered as one data point, and a moving image having the same number of frames as the number of pixels is determined in advance.
  • Principal component analysis is performed on the image group and the principal component is given priority.
  • the vector of the non-principal component is NPC (x, y, t)
  • the inner video product of the generated non-principal NPC and the generated video HH is HH (x, y, t).
  • Constraint conditions In this case, the constraint condition is
  • a plurality of NPCs may be prepared instead of one, or the type of NPC may be switched depending on the input image. In this case, the relationship between the input image and the main component at the time of high resolution may be learned in advance, and the NPC may be selected using this result. For example, three different types of high-speed, high-resolution moving image groups 1, 2, 3 are prepared as learning moving images. A non-principal vector NPC1 'NPC2' NPC3 is obtained from each of the moving image groups.
  • the high-speed and low-resolution video groups HL1, HL2, and HL3 and the high-speed and high-resolution video groups HH1, HH2, and HH3 are obtained by using the relational expressions of Formulas 1 and 2 from each of the video groups 1, 2, and 3 above.
  • the relationship to be learned here is the correspondence between the three image groups of image group HLl 'HHl, image group HL2 -HH2 and image group HL3' HH3, and the above three types of non-principal components NPC1 -NPC2 -NPC3. It is.
  • the correspondence learning method uses an arbitrary method to obtain a set of average images of high-speed, low-resolution video HL and high-speed, high-resolution video HH for each image group.
  • the correspondence with the component type is maintained (learning).
  • the high-speed low-resolution video HL and the high-speed high-resolution video HH are input, and these non-principal types corresponding to HL and HH are input.
  • the input / output relationship is output using a learning method such as a neural network, and after learning, the set of input images HL'HH is input to the neural network and the type of non-principal components obtained as output You can use it as a constraint.
  • pc (x, y, t) is a coefficient that specifies the spatio-temporal distribution of the constraint condition as in the case of s (x, y, t). Determine using degrees.
  • the motion detection unit 103 calculates the motion in the image and the reliability of the motion from the high-speed and low-resolution moving image.
  • the motion distribution calculation unit 103a obtains the direction and magnitude of the movement of the subject (motion detection), and the direction and magnitude of the movement. Find the spatiotemporal distribution.
  • the motion reliability distribution calculation unit 103b also obtains a spatio-temporal distribution Conf (X, y, t) of motion detection reliability.
  • the reliability of motion detection means that the higher the reliability, the more erroneous the motion detection result is when the reliability of the motion detection is low.
  • the motion is calculated as shown in Equation 10.
  • the maximum value that the sum of squares of the difference between the pixel values of the corresponding blocks can be taken by the sum of the squares of the difference, that is, the value obtained by subtracting the sign of the sum of the squares of the difference between the pixel values of the blocks.
  • Conf (x, y, t) may be used as the reliability.
  • the sum of squares takes the sum of squares of the pixel value difference between the start point vicinity region and the end point vicinity region of each pixel position.
  • a value Conf (x, y, t) subtracted from the maximum value SSDmax may be used as the reliability.
  • Equation 10 the position ( ⁇ ′, y ′, t + 1) is a pixel position corresponding to the movement destination of the pixel position (X, y, t) obtained as a result of motion detection.
  • ⁇ in Equation 10 represents the addition within the block area used for block matching.
  • the motion detection and the reliability calculation are performed using the image obtained from the high-speed image input unit 101a. However, the same motion detection process is performed on the image obtained from the low-speed image input unit 101b. Then, motion detection and reliability calculation may be performed.
  • information on a sensor that detects a change in the attitude of the photographing device may be used as an input.
  • the imaging device 10 includes an acceleration or angular acceleration sensor, and the sensor input unit 103c obtains the velocity or angular velocity as an integral value of acceleration, so that the motion distribution calculation unit 103a is input to the sensor input unit 103c. From the information, it is possible to obtain information on the movement of the entire image due to changes in the posture of the camera, such as hand blur.
  • the horizontal and vertical accelerations at the respective times can be determined from the output of the sensor. It can be obtained as a measured value.
  • the acceleration value By integrating the acceleration value with time, the angular velocity at each time can be calculated.
  • the angular velocity of the camera is the position on the image sensor (on the captured image) that is caused by the camera orientation ( Can be uniquely associated with the two-dimensional motion (u, V) of the image at time t in (X, y)
  • the correspondence relationship between the angular velocity of the camera and the movement of the image on the image sensor depends on the characteristics (focal length, lens distortion, etc.) of the camera optical system (lens, etc.), the arrangement of the image sensor, and the pixels of the image sensor. It can generally be determined from the interval. To actually calculate, obtain the correspondence by geometrically and optically calculating from the characteristics of the optical system, the arrangement of the image sensor and the pixel spacing, or hold the correspondence as a table in advance, and The velocity (u, V) of the image on the image sensor (X, y) may be referred to from the angular velocity ⁇ ⁇ ⁇ .
  • Motion information using such a sensor may also be used in combination with a motion detection result obtained from an image.
  • the motion distribution calculation unit 103a mainly uses the information of the sensor for motion detection of the entire image, and the motion of the object in the image can be obtained by using the result of motion detection using the image. Good.
  • step 603 the motion constraint designation unit 104c designates the relationship between the motion detection result obtained by the motion detection unit 103 and the target high-speed and high-resolution moving image.
  • the relationship between the motion detection result obtained from the low-resolution image and the high-speed, high-resolution video is explained using Figs. 10 (a) and 10 (b).
  • FIGS. 10 (a) and 10 (b) respectively show adjacent frame images (frame numbers t and t + 1) of the high-speed image.
  • frame numbers t and t + 1) For the sake of simplicity, we will explain the 3 pixels x 3 pixels area for low resolution images.
  • the area where one pixel of the low-resolution image is further divided into 3 pixels x 3 pixels represents the pixel of the high-resolution image.
  • FIGS. 10 (a) and 10 (b) only the high resolution pixels necessary for explanation are shown.
  • the motion detection method as described above can generally calculate the direction and magnitude of motion in units smaller than the pixel size.
  • u (x, y, t) and v (x, y, t) represent the detection results, and are shown in bold black boxes in FIG. 10 (a).
  • the amount of movement in the X direction is u (x, y, t)
  • the amount of movement in the y direction is represented as v (x, y, t).
  • motion detection was performed on high-speed and low-resolution video, but the results of motion detection on low-speed and high-resolution video may be used in the same way! /.
  • the time interval between frames for motion detection increases, the positional accuracy of the correspondence within the frame improves.
  • the constraint control unit 104b determines the spatio-temporal distribution of the strength of the constraint conditions, and specifies comprehensive constraint conditions for the high-speed and high-resolution moving image generated by the constraint specification unit 104e. Details will be described below.
  • the constraint designating unit 104e is configured to display the relationship between the pixel values of the high-speed and high-resolution moving image represented by Equations 1 and 2 and the high-speed image 'low-speed image, and the relationship between the motion detection result and the high-speed and high-resolution moving image represented by Equation 11 above.
  • Equation 12 shows an example of comprehensive constraint condition J.
  • Equation 12 the first term on the right-hand side is actually input to the high-speed and low-resolution video HL 'created from the high-speed and high-resolution video using Equation 1 and the high-speed image input unit 101a.
  • High-speed low-resolution video Constraint that expresses the difference from HL (the sum of squares of the difference with the corresponding pixel value).
  • the second item is a low-speed high-speed image created from the high-speed high-resolution video using the equation (2). This is a constraint that represents the difference between the resolution moving image LH ′ and the low-speed high-resolution moving image LH that is actually input to the low-speed image input unit 101b (the sum of squares of the difference from the corresponding pixel value).
  • the restriction of the first item and the restriction of the second item are such that the relationship between the brightness value of the generated image and the captured image satisfies the relationship of the above formulas 1 and 2 as much as possible. This is a condition that makes it difficult to create a discrepancy in luminance values with the image.
  • the third item on the right side of Equation 12 is the external model constraint condition Qs, and when using the Equation 4 or Equation 5, the luminance values of the spatially and spatially adjacent pixels in the generated image have close values. It is easy to restrain. Therefore, the generation of an image in which the luminance value changes little by little in time and space, such as noise, is suppressed.
  • the fourth item on the right-hand side of Equation 12 is the constraint condition Qm based on the motion detection result, and an example of constraint using the motion detection result so that a contradiction does not easily occur between the motion detection result and the generated image. Is shown in Equation 13.
  • Equation 13 motion between adjacent frames (t and t + 1) in a high-speed, high-resolution video is composed of constraints u and V, and motion detection results between frames one or more frames apart
  • the constraint condition may be set using the result of motion detection between the distant frames as shown in Equation 14 using u and v ′. Further, constraints such as Equation 13 and Equation 14 may be used in combination.
  • the fifth item on the right side of Equation 12 is the constraint condition indicating the temporal continuity of the edge
  • the sixth item on the right side of Equation 12 is the constraint condition indicating the spatial continuity of the edge
  • the right item of Equation 12 is The seventh item is a constraint condition that suppresses non-principal components from the generated image.
  • s, m, se, te, and ⁇ pc are coefficients that determine the spatiotemporal distribution of the strength of the constraint conditions, and are determined by the constraint control unit 104b. It is assumed that the motion detection reliability obtained by the motion reliability distribution calculation unit 103b in step 602 is Conf (X, y, t) (> 0), and that the motion detection reliability is high when the value is large.
  • the motion detection unit 103 detects motion in units of blocks obtained by dividing each image constituting the moving image
  • the maximum sum of the values that can be taken by the square sum is obtained by calculating the square sum of the pixel value differences between the blocks.
  • the value subtracted from the value is calculated as the motion detection reliability Conf (X, y, t), and the difference is larger than the predetermined value ⁇ ! /
  • a block with a high reliability and an image area whose difference is equal to or less than a predetermined value ⁇ is defined as an image area with a low reliability.
  • a new image is generated using the result of motion detection, and the reliability is low! /, The image area is used! /, And external model constraints are used. Generate a new image
  • Conf-max is the maximum value that the reliability can take. In this way, when the reliability of motion detection is high, emphasis is placed on the motion constraint, and the reliability is low, and sometimes the ratio of external model constraint is increased, so that the image deteriorates even at positions where motion detection cannot be performed accurately. This makes it possible to increase the spatiotemporal resolution.
  • other constraints may be used in addition to the force using a plurality of constraints simultaneously as external model constraints, and the effects of the present invention can be obtained even if only some constraints are used. .
  • step 605 the integration processing unit 104a obtains a high-speed and high-resolution moving image that minimizes the constraint condition J.
  • a method of obtaining a high-speed and high-resolution moving image that minimizes the constraint condition J for example, the equation of the formula 15 obtained by differentiating the constraint condition J with each pixel value of the high-speed and high-resolution moving image is 0! Alternatively, it may be obtained using an iterative method such as the steepest gradient method.
  • step 606 the integration processing unit 104a outputs the generated high-speed and high-resolution image.
  • Figs. 11 (a) to 11 (d) show images when a subject to be photographed can be photographed at high speed and high resolution. Although the images in Fig. 11 (a) to (d) cannot be acquired by shooting, Show. In Figs. 11 (a) to 11 (d), four frames are arranged in the order of time, and the moving subject 1401 and the moving subject 1402 are captured! /.
  • FIGS. Figures 12 (a) to 12 (d) are frames corresponding to the shooting times shown in Figures 11 (a) to 11 (d).
  • a pixel having an intermediate pixel value between a black pixel and a white pixel is indicated by a diagonal line pointing downward to the left.
  • the number of frames is the same as in Figs. 11 (a) to (d).
  • the force-space resolution is lower than that in Figs. 11 (a) to (d).
  • FIG. 13 shows an example of such a low-speed and high-resolution moving image of the subject (when the number of frames is 1).
  • the spatial resolution is the same as in Figs. 11 (a) to 11 (d). Since the space between the frames in Figs. 11 (a) to 11 (d) is exposed, the subject 1402 is photographed as a movement locus.
  • the motion detection unit 103 obtains the motion of the subject in the image and the reliability of the motion (step 602). Since the images in Figs. 11 (a) to (d) show a part of a larger image, among the results of motion detection performed on the entire larger image, the images in Figs. 11 (a) to (d) You can get results about the area!
  • Figures 14 (a) to 14 (d) show examples of reliability distributions.
  • Figures 14 (a) to (d) correspond to the shooting times shown in Figures l l (a) to (d).
  • the diagonally-downwardly hatched areas indicate places where the reliability of motion detection is low, and the other areas (white and black pixels) have high reliability for motion detection. Show me.
  • the display of white and black pixels represents the relationship with the subject, and there is no distinction in reliability.
  • the result of motion detection for a stationary subject or background has an extreme 0 /! Motion.
  • the constraint control unit 104b sets an overall constraint condition from the constraint setting using the motion detection result (step 603) and the external constraint condition for the position with low motion reliability (step 604), and the constraint Using the conditions, the integrated processing unit 104a generates and outputs a high-speed and high-resolution moving image (steps 605 and 606).
  • FIG. 15 shows an example of the generated image.
  • FIGS. 15A to 15D correspond to the shooting times of FIGS. 11A to 11D. Two subjects approach In FIGS. 15 (b) and 15 (c), although the pixel value is an intermediate value, it is close to the image in FIG.
  • Fig. 16 shows an example of a generated image when only the motion detection result is used and the reliability of motion and the external constraint condition are not used. Motion detection cannot be performed accurately. Accurate images can be generated at the upper right of the frame images in Fig. 16 (b) and (c)! /, N! /.
  • the results in Fig. 15 cannot accurately detect motion in the upper right area of Figs. 14 (b) and (c).
  • pixel position continuity Equation 4, 5, etc.
  • edge continuity Equation 6, Equation 7, etc.
  • the integration processing unit 104a can generate a desirable image as a high-speed and high-resolution moving image.
  • Figs. 17 (a) to 17 (e) show images in the case where the shooting target can be shot at high speed and high resolution. Although the images in Figs. 17 (a) to 17 (e) are not originally acquired by shooting, they are shown for explanation. Figures 17 (a) to (e) show five moving frames A1 arranged in the order of time, showing the moving subject A1.
  • FIGS. 18 (a) to (e) show frame images corresponding to the times shown in FIGS. 17 (a) to (e), respectively.
  • FIGS. 18 (a) to 18 (e) illustrate a low-resolution image in the same size as a high-resolution image! /. Therefore, low resolution appears as pixel roughness.
  • the low-speed, high-resolution image has a frame rate that is one-fourth that of the high-speed, low-resolution image
  • Fig. 19 (a) and Fig. 20 (a) are the frame images that started exposure at the time of Fig. 17 (a).
  • Fig. 19 (b) and Fig. 20 (b) correspond to the frame image that started exposure at the time of Fig. 17 (e).
  • FIGS. 19 (a) and 19 (b) show frame images when the exposure time of the low-speed high-resolution image is shortened as in the conventional example.
  • FIGS. 20 (a) and (b) show frame images taken with the exposure time of the low-speed and high-resolution image longer than the frame rate of the high-speed and low-resolution image, as shown in the present invention! .
  • Examples of images generated by the above procedure using the images thus taken are shown in Figs.
  • (a) to (e) in FIGS. 21 to 24 show frame images corresponding to the times in FIGS. 17 (a) to (e), respectively.
  • the shaded area represents an intermediate luminance region between the luminance of the subject A1 and the luminance of the background.
  • Figures 21 (a)-(e) and 22 (a)-(e) are generated using the input images of Figures 18 (a)-(e), 19 (a), and (b).
  • Fig. 23 (a) to (e) and Fig. 24 (a) to (e) show the input images of Fig. 18 (a) to (e) and Fig. 20 (a) and (b). It is an example of the image produced
  • Figures 21 (a) to (e) show examples of images generated without using motion information
  • Figures 22 (a) to (e) show examples of images generated using motion information! /
  • FIGS. 21 (a) and (e) and FIGS. 22 (a) and (e) the same timing as the input image in FIG. 19 is obtained, so that a clear image is obtained.
  • motion information is not used in FIGS. 21 (b) to (d)
  • a low-resolution image equivalent to FIGS. 18 (b) to (d) is obtained.
  • FIGS. 23 (a) to (e) show examples of images generated without using motion information
  • FIGS. 24 (a) to (e) show examples of images generated using motion information. Les. In Figs. 23 (a) to (e), although the sharpness is somewhat lower than the images in Figs. 17 (a) to (e) and Figs. 19 (a) and (b), it is as shown in Fig. 22 (d). There is no significant reduction in sharpness.
  • each of the high-speed low-resolution image and the low-speed high-resolution image is clearly captured by reducing the exposure time and suppressing motion blur. This is not always desirable in order to stabilize the image quality and properly reflect sudden image changes in the generated image!
  • the image generation method of the present invention may cause motion blur in order to improve the sharpness of the high-speed and high-resolution image to be generated and to suppress changes in the sharpness between frames. It is characterized by generating images using low-speed, high-resolution images obtained by long-time shooting.
  • exposure control unit 105 performs control to keep the exposure amount during the exposure period of one frame of the low-speed high-resolution image constant in time.
  • exposure control unit 1 This is explained when 05 is used to control the amount of exposure during the exposure period of one frame of a low-speed, high-resolution image.
  • Fig. 25 (a) is an example of the temporal change in the exposure amount of the low-speed and high-resolution moving image acquired by the low-speed image input unit 101b.
  • Fig. 25 (b) is the high-speed and low-speed acquired by the high-speed image input unit 101a.
  • the example of the time change of the exposure amount of a resolution moving image is shown.
  • the horizontal axis represents time
  • the vertical axis represents the exposure during imaging.
  • Figures 25 (a) and (b) show the time variation of the exposure amount for the same period for each image, and one continuous thick line represents the time variation of the exposure amount to obtain one frame of each image. ing.
  • the thick line 21al indicates that the exposure state and the non-exposure state are repeated four times during one exposure period to obtain one frame of the low-speed high-resolution image. It is shown.
  • Figure 25 (b) shows four exposures (thick lines 21bl, 21b2, 21b3, 21b4) to obtain four frames of a high-speed, low-resolution image in the same period as the one exposure in Figure 25 (a). ) Is shown to be done! /
  • Fig. 8 (b) the degradation process of the high-speed and low-resolution image is explained assuming that the frame interval and the exposure time are equal (that is, the open exposure is performed between frames). As shown, the high-speed and low-resolution image is controlled so that the exposure time is shorter than the frame interval (in other words, a part of the exposure period of each frame becomes a non-exposure period). In addition, in sync with the four unexposed periods of the high-speed and low-resolution image in FIG. 25 (b), the dimming period during one exposure of the low-speed and high-resolution image in FIG. 25 (a) is set. .
  • the virtual exposure timing corresponds to the exposure timing when it is assumed that an image corresponding to the generated image has been actually captured.
  • Fig. 26 (a) shows the exposure timing in a low-speed, high-resolution image (the broken line force also indicates the exposure period of one frame), with the upper side of the vertical axis exposed and the lower side unexposed. Is shown. In Fig. 26 (a), the exposure and non-exposure states are repeated nine times during one frame.
  • Figure 26 (b) shows the exposure timing (white color) and non-exposure timing (hatched line) of the high-speed, low-resolution image taken at the same time as Fig. 26 (a)! /.
  • a high-speed low-resolution image includes exposure and non-exposure once per frame.
  • Figure In (b) nine frames of high-speed and low-resolution images are included in one frame of low-speed and high-resolution images.
  • Fig. 26 (c) shows the virtual exposure timing of the generated image (high-speed, high-resolution image).
  • the exposure periods in FIGS. 26 (a) and 26 (b) coincide with each other.
  • the exposure control unit 105 is configured to reduce the exposure amount of the high-speed low-resolution image during the non-exposure period included in the exposure period of one frame of the low-speed high-resolution image. This can be achieved by controlling 10.
  • step 601 and subsequent steps the same processing as in the case where the exposure amount is not changed with time is performed.
  • the subject moves fast for the same subject as in Figs. 17 (a) to 17 (e).
  • FIG. 28 shows an example of a low-speed high-resolution image taken at the same time. Fig. 28 shows how the exposure dose varies with time over the three frame times shown in Figs. 27 (a), (b), and (c). The images are taken without any motion, and the images contain even greater motion blur.
  • FIGS. 29A to 29C images with higher resolution than those in FIGS. 27A to 27C are obtained at the same frame rate as the high-speed and low-resolution images.
  • the motion blur included in Figs. 27 (a) to (c) is also included in Figs. 29 (a) to (c). This is because it is difficult to obtain motion information faster than the frame rate of high-speed, low-resolution images.
  • Fig. 31 is a low-speed high-resolution image, which is the same subject as that in Fig. 28, with the exposure amount changed temporally as shown in Fig. 25 (a).
  • the shaded area in FIG. 31 represents an intermediate pixel value (luminance value) between the black area and the white area. Since the amount of exposure is changed over time, the pixel value (luminance value) of the subject changes along the direction of movement.
  • Figures 30 (a) to 30 (c) are high-speed and low-resolution images, and the exposure time is set according to the exposure interval of the low-speed and high-resolution images as shown in Figure 25 (b).
  • the amount of movement of the subject between frames is the same in Fig. 27 (a) to (c) and Fig. 30 (a) to (c) !, but the exposure is short! In c), the motion blur of the subject in each frame image is less than in the case of Fig. 27 (a) to (c)! /,
  • Figures 32 (a) to 32 (c) are high-resolution images with reduced motion blur compared to Figures 29 (a) to (c). This is because the same subject as in Fig. 29 (a) to (c) is shot at the same frame rate, but the information on the temporally high frequency is acquired by changing the amount of exposure over time. This is because it is used for image generation.
  • Fig. 33 (a) is the same power as the time of exposure shown in Fig. 25 (a).
  • the frame rate of the high-speed and low-resolution image in Fig. 33 (b) is half that in Fig. 25 (b). Yes, the frames of the exposure period indicated by the broken lines 22b2 and 22b4 are not actually taken.
  • a motion vector between the images is detected using two frame images photographed by exposure indicated by thick lines 22bl and 22b3. Then, using the movement of corresponding points between images, an image that would have been obtained during the exposure period indicated by the broken line 22b2 is generated. Similarly, using the previous and next frame images, an image for the exposure period indicated by rupture 22b4 is generated. Such generation can be performed by interpolation in the time direction, which is a conventional technique.
  • the device to be added can be easily configured and that it is easy to change the exposure amount at high speed.
  • the distance to the subject is far, it is necessary to increase the illumination intensity.
  • using a shirt or the like has the advantage that it can be applied regardless of the distance of the subject.
  • the effects of the present invention can be obtained by using both or by using either one.
  • the image integration unit 104 only outputs the generated image.
  • the image integration reliability may be output together with the output of the generated image.
  • Image generation reliability ⁇ is a value that predicts the degree to which the generated image is accurately processed at high speed and high resolution.
  • the method of determining y is the sum of the reliability of motion shown in Equation 16 below,
  • N Nh + Nl + N ⁇ XC
  • Nh the total number of pixels in the high-speed image (number of frames, number of pixels in the XI frame image)
  • N1 the total number of pixels in the low-speed image
  • ⁇ ⁇ is the external constraint
  • C the number of types of external constraints.
  • Equation 15 When solving equations such as Equation 15 as simultaneous one-dimensional equations, Cline, A. K.
  • the relationship between the reliability ⁇ of the generated image and the compression rate ⁇ of the encoding is set to a monotonically increasing relationship as shown in Fig. 34, and the compression rate corresponding to the value of the reliability ⁇ of the generated moving image Encode with ⁇ .
  • the reliability ⁇ of the generated image is low, the generated image may contain errors, so even if the compression rate is high, it is expected that there will be virtually no loss of information. Can be reduced.
  • the compression rate is the ratio of the amount of data after encoding to the amount of data of the original image.
  • the frame having the high reliability is preferentially subjected to intra-frame coding such as an I picture, and the other frames are subject to inter-frame coding. It is possible to improve the image quality during fast-forward playback and primary stop during image playback.
  • the reliability of the generated image is obtained for each frame and is set as ⁇ (t).
  • t is the frame time.
  • ⁇ (t) is selected from frames having a predetermined threshold value y th or within a predetermined continuous frame section. Select the frame with the largest ⁇ (t).
  • FIG. 35 shows a processing procedure for such a color image.
  • step 2101 the high-speed low-resolution moving image is separated into a luminance image and a color-difference image, and then in step 2102, the high-speed low-resolution moving image is processed based on the procedure shown in FIG. Generate high-resolution video.
  • step 2103 the color difference image is interpolated and enlarged to the same number of pixels as the high resolution image.
  • step 2104 the generated luminance image and the interpolated color difference image are combined to generate a high-speed and high-resolution color image.
  • the image integration unit 104 extracts color difference information from the high-speed and low-resolution moving image, and generates a new intermediate moving image from the luminance information of the high-speed and low-resolution moving image and the low-speed and high-resolution moving image. In addition, by adding color difference information to the generated intermediate moving image, the final new moving image is generated, so that the color moving image can be integrated with a small amount of processing.
  • the constraint control unit 104b performs the external model constraint condition and the motion constraint condition according to the motion reliability obtained by the motion detection unit 103.
  • the high-speed and high-resolution can be achieved even in the case where motion detection cannot be performed or in the image region where the motion detection accuracy is low. You can get a video.
  • the moving image is divided into a plurality of regions in space and time, and each of the regions is! /
  • the same processing is performed to generate a high-speed and high-resolution partial moving image, and then the generated partial moving images are spatiotemporally joined to obtain a high-speed and high-resolution moving image of the entire moving image. good.
  • the spatial and temporal division processing it is possible to suppress the amount of calculation processing and the amount of memory required when performing an image with a large number of pixels or a moving image with a large number of frames.
  • by dividing a moving image in the time direction it is possible to shorten the time delay of image generation by batch processing multiple frames input in the past.
  • each region may be set such that adjacent spatio-temporal regions overlap in the vicinity of the division boundary.
  • Figure 36 shows an example of area division with spatial overlap.
  • the image is divided into four regions 70 ;! to 704 with spatially overlapping regions.
  • overlap The pixel values of the portions can be smoothly joined by performing weighted addition averaging of the pixel values of each overlapping region.
  • the region may be divided in the same manner as in FIG. In this way, by providing overlapping regions, it is possible to suppress discontinuity in processing results between adjacent regions in the region division processing.
  • the size of the overlap region is determined in advance. Increasing the size of the overlapping area increases the effect of reducing discontinuities in the processing results between the processing areas. If the size of the overlap area is reduced, the amount of computation that increases due to overlap can be suppressed.
  • the region boundary in the time direction when dividing the region as described above the change in the image between frames of the moving image is calculated in advance, and the change in the image between frames is larger than a predetermined reference.
  • Temporal region boundaries may be set between frames. For example, when a value SSD (t) such as Equation 17 is defined as the difference between adjacent frame images and SSD (t)> th is satisfied, the time ijt frame and the time ijt + 1 frame With the interval as the processing boundary, the sequence before time t and the sequence after time ijt + 1 are performed separately.
  • I (x, y, t) indicates the luminance at the position (x, y) in the frame image of the time Ijt, and th is a predetermined threshold value.
  • the time t at which the SSD (t) becomes maximum in the sequence of the time domain where the process delimiter is desired may be used as the process delimiter. In this way, the discontinuity of the processing result between adjacent regions in time becomes relatively small with respect to the change in the image between frames, and the discontinuity is perceived. Can be expected.
  • the integration processing unit 104a uses the number 12 specified by the constraint specifying unit 104e.
  • the input still image one of the frames of the low-speed high-resolution image
  • an average which is information that is substantially equivalent to the total in a relation of the constant and the total may be used. That is, a configuration for generating a desired high-speed and high-resolution moving image by reducing an error between the still image and the average of a plurality of frames of the desired high-speed and high-resolution moving image during the exposure period of the still image. Also according to the present invention.
  • part or all of the image generation processing performed by the image generation apparatus of the present invention may be performed by a dedicated device, or a communication device arranged in a computer terminal device, a base station, or the like.
  • the image generation processing may be performed by the CPU built in the stand-alone computer executing the image generation processing program.
  • the configuration excluding the display device 40 is used as the camera 300 as shown in Fig. 37, that is, as a single device. May be realized.
  • a display device 40 may be added to the camera 300 shown in FIG. 37 to realize a camera with a moving image recording / playback function.
  • the present invention is realized as a display device 400 such as a television set as shown in FIG. 38 using the configuration excluding the imaging device 10 in the configuration of the image generation system 100 shown in FIG. May be. In this case, it is possible to display the moving image recorded in advance with improved spatio-temporal resolution.
  • the present invention relates to an image generation apparatus that generates a new moving image from a plurality of moving images, in particular, an image generation apparatus that generates a high-speed and high-resolution moving image from a high-speed and low-resolution moving image and a low-speed and high-resolution moving image, It can be used as a video device or system incorporating such a device, a video composition device, a video editing device, an image restoration device, an image restoration program, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

 対応点検出や動き検出が正確に行えない画像領域も含めて複数の動画像を統合した新たな動画像を生成する画像生成装置は、撮像装置(10)を制御して1つの露光期間中に露光量を時間的に変化させる露光制御部(105)と、露光制御部(105)の制御下で撮影された第1動画像と第2動画像とを取得する画像入力部(101)と、前記第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合部(104)とを備え、前記第2動画像は前記第1動画像よりも解像度が高く、かつ前記第2動画像は前記第1動画像よりもフレームの露光時間が長い。

Description

明 細 書
画像生成装置および画像生成方法
技術分野
[0001] 本発明は、動画像を生成する画像生成装置に関し、特に、複数の動画像から夫々 の優れた特性を併せ持つ新たな動画像を生成する画像生成装置に関する。
背景技術
[0002] デジタル撮像デバイスの進展に伴い、高空間解像度の静止画像を比較的低コスト で撮影することが可能となってきている。しかしながら、このような高空間解像度の静 止画と同等の空間解像度を保ちながら滑らかに動く動画像 (例えば、 30フレーム/ 秒程度)や更に高速度の撮影を実現するには課題がある。
[0003] これは、単位時間あたりに得られる画像の情報量が莫大になるために、撮像デバイ ス内での画像情報の転送速度が不足することや、並列に画像情報を転送するなどの 特殊な撮像デバイスを必要とする為、撮像装置のコストが増加したり、撮像デバイス の特性の調整が別途必要になることに因る。
[0004] 従来の時空間解像度(時間および空間の解像度)の高い画像を得る画像生成方法 としては、高速低解像度カメラと低速高解像度カメラとの映像を用い、動画像のフレ ーム間の対応点検出を用いてモーフイングを行うものがある(例えば、特許文献 1参 照)。図 1は、特許文献 1に記載された従来の画像生成方法を説明する図である。な お、本明細書において、撮像能力または動画像の性質に関して、「高速」(または、「 低速」)とは、フレームレートが相対的に大きいほたは、小さい)ことを意味し、「高解 像度」ほたは、「低解像度」)とは、空間解像度が相対的に高いほたは、低い)ことを 意味する。
[0005] 図 1において、高速低解像度カメラ A01と低速高解像度カメラ A02は同じ対象を同 じ画角で同期して撮影している。カメラ A01とカメラ A02の撮影画像の関係を図 2に 示す。図 2は、 2つのカメラ A01および A02が撮影したフレームを時間の順に並べて おり、フレーム B01と B02はカメラ A02で得られた画像を表し、フレーム B1;!〜 B15 は、カメラ 01で得られた画像を表している。ここで空間解像度の違いは画像の大きさ で表現しており、フレーム B11〜B15は、フレーム B01と B02に比べて画素数が少な く、空間解像度が低い。一方、カメラ A01はカメラ A02よりも撮影のフレームレートが 高ぐカメラ A02が 1フレーム撮影する間にカメラ AO 1は 4フレーム撮影している。また 、カメラ A02のフレーム撮影の時間に同期してカメラ A01のフレーム撮影を行ってい る(フレーム B01とフレーム B11およびフレーム B02とフレーム B15は同じタイミング で撮影)。以下の例では、フレーム B23の位置 (フレーム B13の撮影時間に相当)に 相当する高解像度画像の中間フレーム画像の生成方法について説明する。
[0006] このようにして撮影したフレーム画像について、一次マッチング部 A03はカメラ A01 の高速撮影画像において隣りあう各フレーム間の画素の対応関係を求める。ここで、 対応関係とは、あるフレーム画像内の各画素が映す対象の部位が他方のフレーム画 像内のどの画素位置に写っているかの関係である。次に、隣り合う高速画像間の対 応関係をつなぎ合わせることで、生成したいフレーム B23の時刻に位置する高速カメ ラ画像 B13と、高速画像と低速画像を同期して撮影しているフレーム B11との画素間 の対応関係を求める。
[0007] 次に、二次マッチング部 A04は、高速画像と低速画像を同期して撮影しているフレ ーム B01とフレーム B11との画素の位置関係、フレーム B13とフレーム B23との画素 の位置関係、および、一次マッチング部 A03で求めたフレーム B11とフレーム B13と の対応関係をつなぎ合わせることで、フレーム B01とフレーム B23との画素の対応関 係を決定する。
[0008] 次に、画像生成部 A05は、フレーム B01とフレーム B23との画素の対応関係を用 いて、フレーム B01の画素値を用いてフレーム B23の画素値を決定し、高解像中間 フレーム画像 B23を生成する。同様の手順で他の中間フレームを生成することで、高 解像度かつ高速の映像を生成する。
[0009] また、非特許文献 1や非特許文献 2などでも同様に、高速低解像度カメラと低速高 解像度カメラとの映像を用い、高速カメラの映像から動き検出を行い、その動きに合 わせて低速高解像度動画像に対してモーフイングを行うことで高解像度の中間フレ ーム画像を生成している。
特許文献 1 :特開 2003— 203237号公報(図 13) 非特許文献 l : Toru MATSUNOBU, et al. , "Generation of High Resol ution Video Using Morphing , Technical report of IEICE, PRMU20 04 - 178
非特許文献 2 : Kiyotaka Watanabe, et al. , "Generation of High Resolut ion Video Sequence from Two V ideo Sequences with Different Sp atio- temporal Frequencies" ,情報科学技術レターズ(FIT2004) , Vol. 3, N o. LI— 004, 2004
発明の開示
発明が解決しょうとする課題
[0010] しかしながら、上記従来の技術では、高速画像において隣り合うフレーム間で対応 関係を正確に求めることや、動き検出を正確に行えることが前提となっており、対応 関係が正確に求まらない場合や、動き検出が行えない場合には、生成する画像が大 きく劣化したり、低解像度画像を単に拡大した画像になってしまうという課題を有して いる。一般的に、画像中の動物体の動きが複雑な場合や照明状態が変化する場合 ゃォクルージョンが発生する場合やアパーチャ問題が発生する場合などには、フレ ーム間の対応点を求めることや動き検出を全ての画素について正確に求めることは 困難である。
[0011] そこで、本発明は、上記従来の課題を解決するものであり、対応点検出や動き検出 が正確に行えない画像領域も含めて複数の動画像を統合した新たな動画像を生成 することができる画像生成装置およびその方法を提供することを目的とする。
課題を解決するための手段
[0012] 上記目的を達成するために、本発明に係る画像生成装置は、外部の撮像装置によ つて同一事象を撮影して得られた第 1動画像及び第 2動画像から、前記事象を表す 新たな動画像を生成する画像生成装置であって、前記第 2動画像の解像度は前記 第 1動画像の解像度よりも高ぐかつ前記第 2動画像のフレームの露光時間は前記 第 1動画像のフレームの露光時間よりも長ぐ前記撮像装置を制御することにより、前 記第 2動画像の 1つのフレームの露出期間中の露光量を時間的に変化させる露光制 御手段と、前記撮像装置から、前記第 1動画像と、前記露光制御手段の制御下で撮 影された前記第 2動画像とを取得する画像入力手段と、前記取得された第 1動画像と 第 2動画像とから、前記第 1動画像のフレームレート以上のフレームレートでかつ前 記第 2動画像の解像度以上の解像度の新たな動画像を、前記第 2動画像のフレーム と、前記第 2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフ レームの合計との誤差を減少させることによって生成する画像統合手段とを備える。
[0013] このような構成によって、前記画像入力手段が、例えば、高速フレームレートで低解 像度の第 1動画像と低速フレームレートで高解像度の第 2動画像を受け付けた場合 には、前記画像統合手段は、前記第 1動画像と同じフレームレートで前記第 2動画像 と同じ解像度の動画像を前記新たな動画像として生成することができる。つまり、入 力された複数の動画像の夫々の優れた特性を併せ持つ新たな動画像が生成される
[0014] 更に、前記露光制御手段が、前記第 2動画像の露出期間中の露光量を時間的に 変化させることで、時間周波数の高い情報を取得することが可能となり、生成される 動画像の高周波の特性を向上させることが可能となる。
[0015] なお、本発明は、このような画像生成装置として実現できるだけでなぐ画像生成方 法、その方法をコンピュータに実行させるプログラム、そのプログラムを記録した CD — ROM等のコンピュータ読み取り可能な記録媒体等としても実現することができる。 発明の効果
[0016] 本発明の画像生成装置によれば、動画像中において必ずしも動きや対応点が正 確に求まらない画像領域を含んでいる場合にでも、その画像の時空間解像度を動画 像全体で向上させた新たな動画像が生成される。たとえば、高速低解像度動画像と 低速高解像度動画像とから、夫々の優れた特性を併せ持つ高速高解像度動画像が 確実に生成される。
図面の簡単な説明
[0017] [図 1]図 1は、従来の画像生成装置の構成を示すブロック図である。
[図 2]図 2 (a)および (b)は、従来の画像生成装置における入力画像の時系列を示す 図である。
[図 3]図 3は、本発明の実施の形態における画像生成システムのハードウェア構成を 示すブロック図である。
園 4]図 4は、画像生成装置の構成を示す機能ブロック図である。
[図 5]図 5は、画像生成装置の動作を示すフローチャートである。
[図 6]図 6 (a)および (b)は、入力画像の時系列の一例を示す図である。
園 7]図 7 (a)〜(c)は、撮像装置の具体例を示す図である。
[図 8]図 8 (a)〜(c)は、それぞれ、生成する高速高解像度動画像、入力される高速 低解像度動画像および低速高解像度動画像の画素配置の一例を示す図である。 園 9]図 9 (a)〜(c)は、画素値を補正する場合における入射光量と画素値との関係 の例を示すグラフである。
園 10]図 10 (a)および (b)は、高速低解像度動画像で求めた動き検出結果と高速高 解像度動画像との関係を示す図である。
園 11]図 11 (a)〜(d)は、生成する高速高解像度動画像のフレーム画像の一例を示 す図である。
園 12]図 12 (a)〜(d)は、入力される高速低解像度動画像のフレーム画像の一例を 示す図である。
[図 13]図 13は、入力される低速高解像度動画像のフレーム画像の一例を示す図で ある。
園 14]図 14 (a)〜(d)は、信頼度の分布例を示す図である。
[図 15]図 15 (a)〜(d)は、生成された動画像のフレーム画像の一例を示す図である。 園 16]図 16 (a)〜(d)は、信頼度を用いな!/、で生成した場合の動画像のフレーム画 像の一例を示す図である。
[図 17]図 17 (a)〜(e)は、理想的な高速高解像度画像のフレーム画像の一例を示す 図である。
[図 18]図 18 (a)〜(e)は、高速低解像度画像のフレーム画像の一例を示す図である 園 19]図 19 (a)および (b)は、短時間露出で撮影した低速高解像度画像のフレーム 画像の一例を示す図である。
園 20]図 20 (a)および (b)は、長時間露出で撮影した低速高解像度画像のフレーム 画像の一例を示す図である。
[図 21]図 21 (a) (e)は、短時間露出で生成したフレーム画像の一例を示す図であ
[図 22]図 22 (a) (e)は、短時間露出で生成したフレーム画像の一例を示す図であ
[図 23]図 23 (a) (e)は、長時間露出で生成したフレーム画像の一例を示す図であ
[図 24]図 24 (a) (e)は、長時間露出で生成したフレーム画像の一例を示す図であ
[図 25]図 25 (a)および (b)は、フレームの露光期間中の露光量の時間変化を示す図 である。
[図 26]図 26 (a) (c)は、入力画像の露光タイミングと生成画像における仮想的な露 光タイミングとの関係を説明する図である。
[図 27]図 27 (a) (c)は、高速低解像度画像のフレーム画像の一例を示す図である 園 28]図 28は、低速高解像度画像のフレーム画像の一例を示す図である。
[図 29]図 29 (a) (c)は、生成したフレーム画像の一例を示す図である。
[図 30]図 30 (a) (c)は、高速低解像度画像のフレーム画像の一例を示す図である
[図 31]図 31は、露光量を変化させた場合の低速高解像度画像のフレーム画像の一 例を示す図である。
[図 32]図 32 (a) (c)は、露光量を変化させた場合の生成したフレーム画像の一例 を示す図である。
[図 33]図 33 (a)および (b)は、フレームの露光期間中の露光量の時間変化を示す図 である。
[図 34]図 34は、生成した画像の信頼度を用いて画像を符号化する圧縮率を変化さ せる場合の信頼度と圧縮率との関係の一例を示すグラフである。
[図 35]図 35は、カラーの動画像を統合する場合の処理手順を示すフローチャートで ある。
[図 36]図 36は、領域分割処理の一例を示す図である。
[図 37]図 37は、画像生成システムの具体例を示すブロック図である。
[図 38]図 38は、画像生成システムの具体例を示すブロック図である。 符号の説明
10 撮像装置
20 画像記憶装置
30 画像生成装置
40 表不装置
100 画像生成システム
101 画像入力部
101a 高速画像入力部
101b 低速画像入力部
102 符号化部
103 動き検出部
103a 動き分布算出部
103b 動き信頼度分布算出部
103c センサ入力部
104 画像統合部
104a 統合処理部
104b 拘束制御部
104c 動き拘束指定部
104d 外部モデル拘束部
104e 拘束指定部
105 露光制御部
106a 減光部
106b 照明部
300 カメラ 400 ディスプレイ機器
発明を実施するための最良の形態
[0019] 本発明の画像生成装置は、外部の撮像装置によって同一事象を撮影して得られた 第 1動画像及び第 2動画像から、前記事象を表す新たな動画像を生成する画像生成 装置であって、前記第 2動画像の解像度は前記第 1動画像の解像度よりも高ぐかつ 前記第 2動画像のフレームの露光時間は前記第 1動画像のフレームの露光時間より も長ぐ前記撮像装置を制御することにより、前記第 2動画像の 1つのフレームの露出 期間中の露光量を時間的に変化させる露光制御手段と、前記撮像装置から、前記 第 1動画像と、前記露光制御手段の制御下で撮影された前記第 2動画像とを取得す る画像入力手段と、前記取得された第 1動画像と第 2動画像とから、前記第 1動画像 のフレームレート以上のフレームレートでかつ前記第 2動画像の解像度以上の解像 度の新たな動画像を、前記第 2動画像のフレームと、前記第 2動画像のフレームの露 光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させ ることによって生成する画像統合手段とを備える。
[0020] ここで、前記露光制御手段は、前記第 2動画像の 1つのフレームの露光期間中に 少なくとも 1回、前記露光量を低減させる無露光期間を設けてもよぐ前記露光制御 手段は、さらに、前記撮像装置を制御することにより、前記第 1動画像の露光量を、 前記第 2動画像の無露光期間において低減させてもよい。また、前記第 2動画像の 1 つのフレームの露光期間中に含まれる前記第 1動画像の 1以上のフレームのそれぞ れの露光期間において、前記第 2動画像の前記フレームの露光が行われるように、 前記第 2動画像の露光量を変化させてもよ!/、。
[0021] この構成によれば、短い露光時間のために前記第 1動画像に含まれる時間周波数 の高!/、情報と、高!、解像度のために前記第 2動画像に含まれる空間周波数の高レ、 情報とが、前記新たな動画像のフレームに反映されるため、時空間解像度に優れた 前記新たな動画像が得られる。前記第 2動画像の露出時間中の露光量を時間的に 変化させることは、前記第 2動画像が時間周波数のより高い情報を持つことができ、 その結果、前記新たな動画像の時間解像度の向上に役立つ。
[0022] また、前記撮像装置が、前記第 2動画像を撮影する際、被写体からの入射光量を 外部からの制御に応じた量低減させる減光手段を備える場合には、前記露光制御 手段は、前記減光手段を制御することによって、前記露光量を時間的に変化させる こと力 Sでさる。
[0023] また、前記撮像装置が、前記第 2動画像を撮影する際、外部からの制御に応じた強 さで被写体を照明する照明手段を備える場合には、前記露光制御手段は、前記照 明手段を制御することによって、前記露光量を時間的に変化させることができる。
[0024] (実施の形態)
以下、図面を参照しながら本発明の実施の形態に係る画像生成システムについて 詳細に説明する。
[0025] 図 3は、本発明の実施の形態に係る画像生成システムのハードウェア構成を示す ブロック図である。
[0026] 画像生成システム 100は、同一の対象についての複数の動画像(ここでは、高速低 解像度動画像および低速高解像度動画像)から時空間解像度の高!、新たな動画像 (ここでは、高速高解像度動画像)を生成するシステムであり、撮像装置 10と、画像記 憶装置 20と、画像生成装置 30と、表示装置 40とを備えている。撮像装置 10は、被 写体を撮影し、異なる 2種類の時空間解像度で動画像 (ここでは、同一の対象につい ての高速低解像度動画像および低速高解像度動画像)を得るカメラ等である。画像 記憶装置 20は、撮像装置 10で撮像された動画像を一時的に記憶するメモリ等であ る。画像生成装置 30は、画像記憶装置 20に記憶された動画像を読み出し、読み出 した複数の動画像から、時空間解像度を高めた新たな動画像を生成する装置である 。表示装置 40は、画像生成装置 30で生成された新たな動画像を表示する表示装置 である。なお、画像生成装置 30は、専用回路等のハードウェアによって実現してもよ いし、汎用の計算機における画像処理プログラム等のソフトウェアによって実現しても よい。
[0027] 図 4は、図 3に示された画像生成システム 100における撮像装置 10と画像生成装 置 30の内部構成を示す機能ブロック図である。
[0028] 撮像装置 10は、減光部 106aと照明部 106bとを含んで構成される。
[0029] 減光部 106aは、画像生成装置 30からの制御に応じて、時間的に変化可能な量で 撮像される被写体からの入射光を低減させる。減光部 106aは、例えば入射光を撮 像素子に導く光学系(不図示)に配置された、電気的に制御可能なフィルタ又はシャ ッタであるとしてもよい。照明部 106bは、画像生成装置 30からの制御に応じて、時間 的に変化可能な光量で被写体を照明する。
[0030] 画像生成装置 30は、画像入力部 101と、動き検出部 103と、画像統合部 104と、 露光制御部 105とを備える。
[0031] 露光制御部 105は、減光部 106a及び照明部 106bのうち少なくとも一方を制御す ることによって、撮像装置 10によって撮像される低速高解像度画像の 1フレームの露 出期間中の露光量を時間的に変化させる。
[0032] 画像入力部 101は、撮像装置 10によって同一の対象物を撮像して得られる時空間 解像度または時空間位相の異なる複数の動画像を取得するインターフェース等であ り、高速(高速フレームレート)かつ低空間解像度で対象を撮影した動画像(高速低 解像度動画像)を取得する高速画像入力部 101 aと、低速 (低速フレームレート)かつ 高空間解像度で同じ対象を撮影した動画像 (低速高解像度動画像)とを取得する低 速画像入力部 101bとを有する。このように、高速画像入力部 101aに入力された画 像と低速画像入力部 101bに入力された画像は、時空間解像度は異なるが、同じ対 象を撮影した画像である。ここで、低速高解像度画像の 1フレームの露出期間中の露 光量は、減光部 106a又は照明部 106bによって時間的に変化可能であることに注意 する。
[0033] 動き検出部 103は、画像入力部 101に入力される画像を生成する撮像装置 10の 動きを検出するセンサ(撮像装置 10に備えられた加速度センサ等)からの信号を取 得するセンサ入力部 103cと、画像入力部 101に入力された画像及びセンサ入力部 103cに入力された動き信号のうちの少なくとも一方に基づいて、入力画像中の画像 (つまり、撮像の対象物)の動き検出を各フレームの画像全体において行う動き分布 算出部 103aと、動き分布算出部 103aにおける動き検出の信頼度を各フレームの画 像全体において算出する動き信頼度分布算出部 103bとを有する。
[0034] 画像統合部 104は、画像入力部 101に入力された複数の動画像のうち、信頼度の 高い画像領域については動き検出部 103による動き検出の結果を用いて新たな動 画像を生成し、信頼度の低い領域については予め定められた一定の拘束条件を用 いて複数の動画像を統合する処理部であり、統合処理部 104aと、拘束制御部 104b と、動き拘束指定部 104cと、外部モデル拘束部 104dと、拘束指定部 104eとを有す
[0035] 動き拘束指定部 104cは、動き分布算出部 103aによる動き検出の結果を用いて、 生成する高速高解像度動画像の各画素値が満たすべき拘束条件 (以下、動き検出 の結果に依存して指定される拘束条件を「動き拘束条件」という。)を指定する処理部 である。
[0036] 外部モデル拘束部 104dは、生成する高速高解像度動画像の各画素値が動き分 布算出部 103aによる動き検出の結果とは別に満たすべき拘束条件(以下、動き検出 の結果に依存することなく指定される拘束条件を「外部モデル拘束条件」とレ、う。 )を fe疋 ^る。
[0037] 拘束制御部 104bは、動き分布算出部 103aで算出された動き検出の結果と動き信 頼度分布算出部 103bで算出された信頼度とを用いて、生成する高速高解像度動画 像中の各フレーム画像中の各位置において、動き拘束条件と外部モデル拘束条件 とをそれぞれ有効にする度合いを決定し、その度合を拘束指定部 104eに通知する。
[0038] 拘束指定部 104eは、拘束制御部 104bが決定した動き拘束条件と外部モデル拘 束条件との有効度合いに基づいて、動き拘束指定部 104cが指定する動き拘束条件 と外部モデル拘束部 104dが指定する外部モデル拘束条件とを統合した拘束条件、 つまり、生成する高速高解像度動画像の各画素値が満たすべき拘束条件を指定す
[0039] 統合処理部 104aは、拘束指定部 104eによって指定される拘束条件に従って、高 速画像入力部 101aに入力された高速画像と低速画像入力部 101bに入力された低 速画像とを統合し、高速高解像度動画像を生成する。
[0040] 符号化部 102は、統合処理部 104aによって生成された画像を圧縮符号化して出 力する。
[0041] なお、本実施の形態における「フレーム」には、プログレッシブ方式におけるフレー ムだけでなぐインターレース方式における偶数フィールドおよび奇数フィールドが含 まれる。
[0042] 次に、以上のように構成された画像生成装置 30が実行する処理について説明する 。図 5は、画像生成装置 30が実行する処理のフローチャートである。
[0043] ステップ 600では、露光制御部 105が低速高解像度画像の 1フレームの露光期間 中の露光量の時間変化を設定する。ここでは、まず露光期間を通して露光量を一定 にする場合の説明を行う。露光期間中の露光量を時間的に変化させる場合について は後述する。
[0044] 露光制御部 105は、露光量を一定にする制御を撮像装置 10に対して行う。撮像装 置 10は、露光制御部 105からの制御下で、高速低解像度画像と低速高解像度画像 とを撮影する。
[0045] ステップ 601では、高速画像入力部 101aが高速低解像度動画像の入力を受け付 け、低速画像入力部 101bが同一対象についての低速高解像度動画像の入力を受 け付ける。以降、説明に用いる画像は輝度画像を用いて説明する。
[0046] 高速画像入力部 101aに入力される高速低解像度動画像と低速画像入力部 101b に入力される低速高解像度動画像の関係を図 6 (a)および (b)に示す。図 6 (a)およ び(b)は、それら 2つの画像の連続したフレーム画像を時間の順に並べており、フレ ーム 201と 202は低速高解像の画像を表し、フレーム 21;!〜 215は高速低解像の画 像を表している。
[0047] 本図において、空間解像度の違いは画像の大きさで表現されている。フレーム 211 〜215は、フレーム 201と 202に比べて画素数が少なく空間解像度が低い。一方、フ レームレートについては、高速画像入力部 101aは、低速画像入力部 101bに比べ、 撮影のフレームレートが高ぐここでは、低速画像入力部 101bの 1フレーム間隔で高 速画像入力部 101aは 4フレーム撮影している。また、フレーム 201と 202の画像の時 間方向の幅は露出時間を表している。低速画像入力部 101bに入力される画像はフ レームレートが低い分、高速画像入力部 101aに入力される画像に比べて長い露出 が可能となる。図 6 (a)では、低速高解像度動画像のフレーム 201は、高速低解像度 動画像の 4フレーム間隔分の露出が行われて!/、る。
[0048] なお、高速画像入力部 101aに入力されるフレームと低速画像入力部 101bに入力 されるフレームとの撮影タイミングは、時間の相対関係が既知であればよぐ必ずしも 同時に撮影される必要は無い(つまり、撮像タイミングにおける位相が異なっていても よい)。また、長時間露出を行うことで、高解像度の画像中においても移動物体の移 動軌跡のような動き情報を取得することが可能となる。高解像度画像から得た動き情 報と矛盾のな!/、動画像を後述する画像の統合処理にお!/、て生成することで、時空間 解像度の高レ、動画像を生成することが可能となる。
[0049] ここで、撮像装置 10の具体例、つまり、 2種類の画像を取得する撮影手段の例を示 す。 2種類の画像は、図 7 (a)のように、特性の異なる 2種類のカメラを同一画角にな るようにハーフミラーを用いて配置して撮影しても良いし、図 7 (b)のように、 1つのカメ ラ内において特性の異なる 2種類の撮像素子を同一画角になるようにハーフミラーや プリズムを用いて配置して撮影しても良いし、図 7 (c)のように特性の異なる 2種類の 画像を同時に撮影する撮像素子を用いても良い。
[0050] 次に、図 8 (a)〜(c)を用いて、 目的とする高速高解像度動画像の画素値 (ここでは 、輝度値)と、高速画像入力部 101aで取得する高速低解像度動画像および低速画 像入力部 101bで取得する低速高解像度動画像の画素値 (ここでは、輝度値)との関 係を説明する。この関係は、高速高解像度動画像の各画素が満たすべき外部モデ ル拘束条件として画像生成に使用する。
[0051] ここで、各画像の画素値は撮像時の入射光量に比例し、比例定数も共通であると する。図 8 (a)は、 目的とする高速高解像度動画像の各フレームの画素の配置を示し たものである。説明の便宜のため、高速高解像度動画像の一部を取り出して説明す る。図 8 (a)は、縦 (Y軸)方向 3画素、横 (X軸)方向 3画素、 4フレームの画素の配置 を表している。画素位置(X, y, t)の画素の値を HH (x, y, t)とする。ここで xと yは 0、 1、 2の値の範囲とし、 tは 0、 1、 2、 3の値の範囲とする。
[0052] 同様に、図 8 (b)は、図 8 (a)と同じ画角を同じ時間に撮影した高速低解像度動画 像の画素の配置を示す。ここで、高速低解像度動画像の画素位置 (xL, yL, t)の画 素値を HL (xL, yL, t)と表す。低解像度画像と高解像度画像では x、 y方向の画素 数が異なるため、低解像度画像の x、 y座標値をそれぞれ xL、 yLと表して高解像度 画像の場合と区別する。ここでは高解像度画像の x、 y方向それぞれ 3画素からなる 9 画素分の領域が低解像度画像の 1画素に相当する関係にあり、画素値の関係は数 1 のようになる。
[0053] 國
Figure imgf000016_0001
[0054] 同様に、図 8 (c)は、図 8 (a)と同じ画角を同じ時間に撮影した低速高解像度動画像 の画素の配置を示す。ここで、低速高解像度動画像の画素位置 (X, y, tL)の画素 値を LH (x, y, tL)と表す。
[0055] 高速画像と低速画像では時間方向のフレーム数が異なるため、低速画像のフレー ム番号を tLと表して高速画像の場合と区別する。ここでは高速画像の 4フレーム分の 間隔が低速画像の 1フレーム間隔に相当する関係にあり、画素値の関係は数 2のよう になる。
[0056] [数 2]
3
LH{x,y,tL) = >; G( * HH(x9y,t)
f=0
[0057] ここで、 G (t)は、時刻 tの撮影強度を表し、撮像素子の感度や撮影時の絞りの時間 的変化による画素値の変化倍率を示している。撮像素子の感度や撮影時の絞りに時 間的変化が無い場合には、 G (t) = l . 0である。また、露光制御部による露光量の時 間変化がない場合は G (t) = l . 0となる。
[0058] なお、上記の例では時間 tを離散的に表現している力、連続的な時間変化と対応付 ける場合には、数 3の関係式を用いる。数 1、数 2の HH (x, y, t)を数 3で HHcont (x , y, tcont)に置き換えることで、時間的に連続した入力に対する劣化過程を表現す ること力 S出来る。
[0059] [数 3]
HH{x, y} t) ) · HHconi (x, y, tc ) dtcont
Figure imgf000016_0002
[0060] 数 3において、 A tは生成する高速高解像度画像のフレーム画像の仮想的な露出 時間に相当し、 tcontは連続した時間、 HHcont (x, y, tcont)は時間的に連続な画 像、 Exp (tcont)は高速高解像度画像のフレーム画像の仮想的な露出の時間変化を 表している。
[0061] 図 6 (a)および (b)のように、高速画像の露出時間に対して低速画像の露出時間を 長くすることで、長い時間にわたる動きの軌跡情報を蓄積することが可能となり、高速 高解像度動画像を生成する上で動きの生じている部分の時空間解像度の改善に効 果がある。
[0062] 以上の例では、画素値は撮像時の入射光量に比例する場合(図 9 (a) )で説明した 1S y補正等により比例しない場合(図 9 (b) )や比例定数が画素によって異なる場合 には、別途、画像が撮影されたときの撮像素子の入出力特性 (入出力関係)を逆に 対応付けて利用することで、入射光に対して同一の比例関係を持つ値に画素値を補 正し、数 1や数 2の関係を満たすことができる。例えば、図 9 (c)のような画素値と補正 値の対応関係を用いることで図 9 (b)のようにして得られた画素値を補正し、図 9 (a) のようにして得られた画素値と同様に処理することができる。
[0063] また、上述の説明では、画素値として輝度値を用いて説明した力 各画素に R、 G、 Bのカラー値が存在する場合にも R、 G、 Bの個々の値について輝度値と同様の関係 が得られる。
[0064] 他の外部モデル拘束としては、時空間的に隣り合う画素との画素値の連続性や滑 らカ、さがある。画素値の連続性を用いる場合、
[0065] [数 4]
Qs = X SO, , t) . [∑{ II(x, γ, - ΗΗ(χ - 1, y, t)}2
+ V {HH(x, y, - HH(x, — 1, }2
=I
+ {HH(x, , ~ HH(x}y,t - \)}2]
r=l のように高速高解像度動画像の隣り合う画素間の輝度値の差の二乗和 Qsを考える。 画素値の滑らかさを用いる場合には、
[0066] [数 5]
Qs = Xs{x,y,t)'[ Ζ{2·册 Κ + 1, — (ぶ— 1, ,り}2
.r=l
y -1
+ {2■ HH{ , y, t) - HH(x, y + l,t)- HH(x, y-l,t)}2
+ ^{2 · HH(x,y,t) - HH{x,y + 1)— HH(x,y ― l)}2] のように高速高解像度動画像の隣り合う画素間の輝度値の二階差分の二乗和 Qsを 考える。ここで、数 4、数 5において、 Xmaxと Ymaxと tmaxはそれぞれ X方向画素番号 、 y方向画素番号、フレーム番号の最大値を示す。また、 s(x, y, t)は、拘束条件 の時空間的分布を指定する係数であり、後述のステップ 604において動きの信頼度 を用いて決定する。
[0067] このように、外部モデル拘束条件は、生成する高速高解像度動画像に対する評価 関数として表現すること力 Sできる。その評価関数の値 (評価値)を下げることが上記外 部モデル拘束を生成する高速高解像度動画像に加えることに対応する。
[0068] 他の外部モデル拘束として、エッジの時空間的連続性を用いても良い。この場合、 例えば
[0069] [数 6]
Qte = teix,y,t)-
^■ma J^mn ^max -max
∑∑∑∑ iedSe(x + uix> >り, y + νίχ> ,り, t + 0一 edge(x, , t, i)}2 =0 y= t=0 i'=0 に示すように、時間的に隣り合うフレーム間で対応する位置のエッジの向きの変化は 少ないという拘束や、
[0070] [数 7] Qse = λ se(x, y,t) '
-^max J^mnx 'tnnx 'max
∑∑∑∑ iedSe(x + ^ , + f y , 0一 ^ge(x, y, t, z)}2 x=0 y=Q (=0 ;=0 のように、同じ向きのエッジは、そのエッジの方向に空間的に連続して存在するという 拘束である。ここで数 6、数 7の edge (X, y, t, i)は、動画像中の(x, y, t)の位置に 存在する i番目の向きのエッジの強度を示す。 iはエッジの方向の種類を示し、 iは 0か ら imaxまでの整数値をとるものとする。また、数 7の(ix, iy)は i番目のエッジの向きの 方向を表すベクトルを示す。
[0071] また、 u (x, y, t)、v (x, y, t)、は画像中の(x, y, t)の位置における動きベクトルの X方向成分と y方向成分を示す。エッジの検出は方位依存性を有する Gaborフィルタ などのエッジ検出フィルタの出力を用いたり、数 8のように微分演算でエッジの方向と 強度を得た後、必要に応じてエッジの方向を離散化して用いることで実現できる。
[0072] [数 8]
Figure imgf000019_0001
は高速高解像度動画像 HHの座標 (x, y, t)におけるエッジの向きと強度を 2次元べ タトルとして表しており、ベクトルの向きがエッジの向きに対応し、ベクトルの大きさが エッジの強度に対応する。
[0073] ここで、 te (x, y, t)やえ se (x, y, t)は、 l s (x, y, t)と同様に、拘束条件の時空 間的分布を指定する係数であり、後述のステップ 604において動きの信頼度を用い て決定する。
[0074] また、他の拘束条件として、生成する動画像が表現し得る自由度を予め定めた動 画像群の主成分に限定してもよい。例えば、動画像を構成する各フレームの各画素 の輝度値 HH (x, y, t)を独立な要素とし、動画像を 1つのデータ点と考え、予め定め た同じフレーム数'画素数の動画像群に対して主成分分析を行い、主成分を優先し て動画像を生成するものである。この場合、非主成分のベクトルを NPC (x, y, t)とし 、生成する動画像を HH (x, y, t)に対して、非主成分 NPCと生成する動画像 HHと の内積を拘束条件とする。この場合、拘束条件は、
[0075] [数 9コ
^ axノ max ^max
Qpc = λ pc(x, γ, 'ΣΣΥ, NPC{x, y, t) . HH(x, y, t)
x=0 y=0 t=0 の Qpcようになる。 NPCは 1種類ではなく複数個用意しても良いし、入力画像によつ て NPCの種類を切り換えても良い。この場合、入力画像と高解像度時の主成分との 関係を予め学習しておき、この結果を用いて NPCの選択を行えばよい。例えば、異 なる 3種類の高速高解像度の動画像群 1 · 2 · 3を学習用の動画像として用意する。そ の動画像群それぞれから非主成分のベクトル NPC1 'NPC2 'NPC3を求める。別途 、上記動画像群 1 · 2 · 3のそれぞれから数 1や数 2の関係式を用いて高速低解像度動 画像群 HL1 · HL2 · HL3と高速高解像度動画像群 HH1 · HH2 · HH3とを求める。
[0076] ここで学習すべき関係は、画像群 HLl 'HHlと画像群 HL2 -HH2と画像群 HL3 ' HH3の 3つの画像群と上記 3種類の非主成分 NPC1 -NPC2 -NPC3との対応関係 である。対応関係の学習方法は任意の手法を用いてよぐ画像群ごとに高速低解像 度動画像 HLと高速高解像度動画像 HHの平均画像の組を求めておき、平均画像 の組と非主成分の種類との対応関係を保持しておく(学習)。
[0077] 新たな入力画像 HL'HHの組に対して平均画像の組との差を求め、差の最も小さ い平均画像の組に対応する非主成分を入力画像の復元処理に用いるようにする。
[0078] 平均画像と非主成分の種類との関係を保持する替わりに、高速低解像度動画像 H Lと高速高解像度動画像 HHを入力とし、それら HLと HHに対応する非主成分の種 類を出力とした入出力関係をニューラルネットワーク等の学習手法を用いて求めてお き、学習後には入力画像 HL'HHの組をニューラルネットワークに入力して、出力とし て得られる種類の非主成分を拘束条件として用いるようにしてもょレ、。
[0079] ここで、 pc (x, y, t)も上記え s (x, y, t)と同様に拘束条件の時空間的分布を指 定する係数で後述のステップ 604において、動きの信頼度を用いて決定する。 [0080] 次に、ステップ 602では、動き検出部 103が、高速低解像度動画像から画像中の 動きとその動きの信頼度を算出する。ここで、高速画像入力部 101aから得た動画像 の各フレーム画像の各位置において、動き分布算出部 103aが被写体の動きの向き と大きさを求め(動き検出)、動きの向きと大きさの時空間的分布を求める。
[0081] また、動き信頼度分布算出部 103bは、動き検出の信頼度の時空間的分布 Conf ( X, y, t)を併せて求める。この場合、動き検出の信頼度とは、信頼度が高い程、動き 検出の結果が尤もらしぐ信頼度が低い場合には動き検出の結果に誤りがあることを 意味する。
[0082] 隣り合う 2フレーム画像間の画像上の各位置での動きの求め方については、例えば 、 P. AN AND AN, A Computational Framework and an Algoritnm fo r the Measurement of Visual Motion" , IJCV, 2, 283— 310 (1989) (非 特許文献 3)で用いられる方法や動画像符号化で一般的に用いられる動き検出手法 や、画像を用いた移動体追跡などで用いられる特徴点追跡手法などを用いることが できる。
[0083] また、画像全体の大域的動き(ァフィン動きなど)検出の一般的手法や、 Lihi Zelk ik— Manor Multi— body segmentation: Revisiting Motion Consistenc y"、 ECCV (2002) (非特許文献 4)などの手法を用いて複数の領域ごとの動き検出 を行い、各画素位置での動きとして用いてもよい。
[0084] 信頼度の求め方については、上記(非特許文献 3)の文献に記載の方法を用いても よぐブロックマッチングを用いた動き検出の場合には、数 10のように、動きに対応す るブロック同士の画素値の差の 2乗和を差の 2乗和が取り得る最大値 SSDmaxから引 いた値、つまりブロック同士の画素値の差の 2乗和の符号を逆にした値 Conf (x, y, t )を信頼度として用いても良い。また、画像の大域的動き検出や領域ごとの動き検出 を用いた場合にも、各画素位置の動きの始点近傍領域と終点近傍領域との画素値 の差の 2乗和を 2乗和が取り得る最大値 SSDmaxから引いた値 Conf (x, y, t)を信頼 度として用いても良い。
[0085] [数 10]
Figure imgf000021_0001
[0086] 数 10において、位置 (χ', y', t+ 1)は、動き検出の結果として得られた画素位置( X, y, t)の移動先に相当する画素位置である。また、数 10の∑はブロックマッチング で用いるブロック領域内での加算を表す。
[0087] なお、上記説明では、高速画像入力部 101aから得た画像を用いて動き検出と信 頼度算出を行ったが、同様の動き検出処理を低速画像入力部 101bから得た画像に 対して動き検出と信頼度算出を行っても良い。
[0088] また、撮影機器の姿勢の変化を検出するセンサの情報 (センサ入力部 103cに入力 されてくる信号)を入力として用いても良い。この場合、撮像装置 10が加速度や角加 速度センサを備え、センサ入力部 103cが加速度の積分値として速度や角速度を得 ることで、動き分布算出部 103aは、センサ入力部 103cに入力された情報から、手ブ レなどのようなカメラの姿勢の変化による画像全体の動きの情報を得ることができる。
[0089] 例えば、画像入力部 101としてカメラを用いた場合、そのカメラに水平方向と垂直 方向の角加速度センサを備えることで、そのセンサの出力から水平方向と垂直方向 の加速度を各時刻における姿勢計測値として得ることができる。加速度値を時間で 積分すると各時刻の角速度を算出することができる。
[0090] カメラが時刻 tに水平方向に co hの角速度を持ち、垂直方向に ω νの角速度も持つ 場合、カメラの角速度はカメラの向きの起因する撮像素子上 (撮影画像上)の位置 (X , y)における時刻 tにおける像の 2次元的動き (u, V)と一意に対応付けることができる
[0091] カメラの角速度と撮像素子上での像の動きとの対応関係は、カメラの光学系(レンズ など)の特性 (焦点距離やレンズひずみなど)と撮像素子との配置や撮像素子の画素 間隔とから一般的に決定できる。実際に算出するには、光学系の特性と撮像素子の 配置や画素間隔から幾何学的 ·光学的に算出して対応関係を得るか、あらかじめ対 応関係をテーブルとして保持しておき、カメラの角速度 ω ΐ · ω νから、撮像素子上 (X , y)の像の速度 (u, V)を参照するようにしてもよい。
[0092] このようなセンサを用いた動き情報も画像から得た動き検出の結果と合せて用いて も良い。この場合、動き分布算出部 103aは、画像全体の動き検出には主にセンサの 情報を用い、画像内での対象の動きは画像を用いた動き検出の結果を使用すれば よい。
[0093] 次に、ステップ 603では、動き拘束指定部 104cが動き検出部 103が求めた動き検 出結果と、 目的とする高速高解像度動画像との関係を指定する。図 10 (a)および (b) を用いて低解像度画像で求めた動き検出結果と高速高解像度動画像との関係を説 明する。
[0094] 図 10 (a)および (b)は、それぞれ、高速画像の隣り合うフレーム画像(フレーム番号 tと t+ 1)を表している。簡単のため、低解像度画像において 3画素 X 3画素の領域 で説明する。ここで、低解像度画像の 1画素を更に 3画素 X 3画素に分けた領域が高 解像度画像の画素を表している。なお、図 10 (a)および (b)では、説明に必要な高 解像度画素のみ図示してレ、る。
[0095] ここで、動き検出部 103が動き検出を行った結果として、図 10 (a)の太線 501の低 解像度画素位置が、図 10 (b)の画素位置 502に対応している(枠 501の画像が枠 5 02に移動した)とする。ここで、上述のような動き検出の手法では一般的に画素サイ ズより小さい単位で動きの向きや大きさを算出することができる。
[0096] 従って、低解像度画像の動き検出の結果を用いて、図 10 (b)のように低解像度画 素位置に一致しない高解像度画像の画素単位の動きを算出し、高速高解像度の画 素に対する数 1 1の関係を得ることができる。
[0097] この動き検出の結果を用いて、太線の枠内(501 , 502)の高速高解像度動画像の 各画素値について
[0098] [数 11]
HH(x, y, t) = HH x + it(x} y, t), y + v(x, y, t), t + 1) の関係が成り立つと想定する。
[0099] ここで、 u (x, y, t)と v (x, y, t)は、検出結果を表しており、図 10 (a)の太線の黒枠
(501)内の位置 (X, y, t)が図 10 (b)の太線の黒枠(502)内の位置に移動する動き のうち X方向の移動量を u (x, y, t)、y方向の移動量を v (x, y, t)と表している。上記 の例では、動き検出を高速低解像度動画像で行ったが、低速高解像度動画像にお V、て動き検出を行った結果を同様に用いてもよ!/、。高解像度画像を用いた場合は、 動き検出を求めるフレームの時間間隔は増すが、フレーム内での対応付けの位置精 度は向上する。
[0100] 次に、ステップ 604では、拘束制御部 104bが拘束条件の強度の時空間的分布を 決定し、拘束指定部 104eが生成する高速高解像度動画像に対する総合的な拘束 条件を指定する。以下詳細を説明する。拘束指定部 104eは、上記数 1、数 2で示す 高速高解像度動画像と高速画像'低速画像との画素値の関係と、上記数 11で示す 動き検出結果と高速高解像度動画像との関係と、上記数 4、数 5、数 6、数 7、数 9な どで示す外部モデル拘束とを用いて、 目的とする高速高解像度動画像に対する総 合的な拘束条件 J (HH)を指定する。数 12に総合的な拘束条件 Jの例を示す。
[0101] [数 12]
J =\ HL - HL + \ LH- LH +Qs + Qm + Qse + Qte + Qpc
[0102] 数 12において、右辺の第 1項は高速高解像度動画像から数 1の関係式を使って作 り出した高速低解像度動画像 HL'と高速画像入力部 101aに実際に入力される高速 低解像度動画像 HLとの差 (対応する画素値との差の 2乗和)を表す拘束で、第 2項 目は高速高解像度動画像から数 2の関係式を使って作り出した低速高解像度動画 像 LH'と、低速画像入力部 101bに実際に入力される低速高解像度動画像 LHとの 差 (対応する画素値との差の 2乗和)を表す拘束である。第 1項目の拘束と第 2項目 の拘束は、生成した画像と撮影した画像との輝度値の関係が、上記数 1と数 2の関係 をできるだけ満たすようにするものであり、撮影画像と生成画像との間で輝度値の矛 盾を生じにくくする条件である。
[0103] 数 12の右辺の第 3項目は外部モデル拘束条件 Qsであり数 4や数 5の条件を用いる 場合には生成した画像において時空間的に隣り合う画素の輝度値は近い値を持ち やすいような拘束である。従って、ノイズのように輝度値が時空間的に小刻みに変化 するような画像の生成を抑制する。数 12の右辺の第 4項目は動き検出結果に基づい た拘束条件 Qmであり、動き検出を行った結果と生成画像との間に矛盾が生じにくい ように動き検出の結果を用いた拘束の例を数 13に示す。
[0104] [数 13] —i ~ι ——i
Qm =∑ ∑ ∑ K y, - {HH{x + u{x, y, t), y + v(xs y, t), ί + 1) - HH(xt y,t)}2
1=0 =0 i=0
[0105] 数 13では高速高解像度動画像における隣り合うフレーム間(tと t+ 1)の動き u、 Vを 用いて拘束を構成しているカ、 1フレーム以上離れたフレーム間での動き検出結果 u 、v 'を用いて数 14のように離れたフレームとの間の動き検出を行った結果を用いて拘 束条件を設定してもよい。また、数 13と数 14のような拘束を併用しても良い。
[0106] [数 14]
Qm u' (x, y, t), y + (x, y, t), t + 2)- HH(x, y, t)}2
Figure imgf000025_0001
[0107] 異なるフレーム間隔での動き検出を用いることで、遅い動きなどのように少ないフレ ーム間隔では検出しにくい動きなどを検出し、画像生成に反映させることが可能とな
[0108] 数 12の右辺の第 5項目はエッジの時間的連続性を示す拘束条件であり、数 12の 右辺の第 6項目はエッジの空間的連続性を示す拘束条件、数 12の右辺の第 7項目 は生成画像から非主成分を抑制する拘束条件である。
[0109] ここで、 s、 m、 se、 te、 λ pcは拘束条件の強度の時空間的分布を決定す る係数であり拘束制御部 104bが決定する。ステップ 602で動き信頼度分布算出部 1 03bが求めた動き検出の信頼度を Conf (X, y, t) (〉0)とし、値が大きいと動き検出 の信頼度が高いとする。
[0110] s、 m、 se、 te、 λ pcの決め方の例として、 αを予め定めた定数として Con f(x, y, t)〉 αを満たす場合に m(x, y, t)=l.0のように動き拘束を有効にし、 他の拘束条件を座標(X, y, t)において予め定めた小さな値 ε (<1. 0)に設定し、 Conf(x, y, t)< = αではえ m(x, y, t)=0.0、他の λを 1· 0とする。つまり、動き 検出部 103において、動画像を構成する各画像を分割したブロック単位で動きを検 出するに際し、ブロック同士の画素値の差の 2乗和を前記 2乗和の取り得る値の最大 値から引いた値を動き検出の信頼度 Conf (X, y, t)として算出し、画像統合部 104 にお!/、て、その差が予め定めた値 αよりも大き!/、ブロックを信頼度の高レ、画像領域と し、その差が予め定めた値 α以下のブロックを信頼度の低い画像領域として、信頼 度の高レ、画像領域につ!、ては動き検出の結果を用いて新たな画像を生成し、信頼 度の低!/、画像領域につ!/、ては外部モデル拘束条件を用いて新たな画像を生成する
[0111] 他のえの決め方として、ある単調増加関数 g (x)を用いて m (x, y, t) =g (Conf ( x, y, t) )、他のえの(x, y, t)における値を g (Conf— max)— g (Conf (x, y, t) )と するように、連続的に定義してもよい。ここで、 Conf— maxは信頼度が取り得る値の 最大値である。このように、動き検出の信頼度が高い時には動き拘束に重きを置き、 信頼度が低レ、時には外部モデル拘束の割合を増すことで、動き検出が正確に行え ない位置においても、画像が劣化することを抑え、時空間解像度を高めることが可能 となる。また、上記では外部モデル拘束として複数の拘束を同時に用いた力 同様に 他の拘束を更に加えて用いても良!/、し、一部の拘束のみを用いても本発明の効果は 得られる。
[0112] 次に、ステップ 605では、統合処理部 104aが拘束条件 Jを最小にする高速高解像 度動画像を求める。拘束条件 Jを最小にする高速高解像度動画像の求め方としては 、例えば、拘束条件 Jを高速高解像度動画像の各画素値で微分した式が 0とおいた 数 15の方程式を解!/、て求めることや、最急勾配法などを用いて繰り返し法を用いて 求めても良い。最後に、ステップ 606では、統合処理部 104aは、生成した高速高解 像の画像を出力する。
[0113] [数 15] dJ = 0
dHH(x, y, t)
[0114] より具体的な入力画像の組と出力画像の例を図 11から図 15を用いて説明する。こ こでは説明を容易にするために、 6画素 X 6画素 X 4フレームの動画像を用いて説明 する。これはより大きな画像やフレーム数の大きレ、動画像の一部とみなすことができ
[0115] ここで、図 11 (a)〜(d)は、撮影の対象を仮に高速高解像度で撮影できた場合の 画像を示す。図 11 (a)〜(d)の映像は本来撮影により取得できないが、説明の為に 示す。図 11 (a)〜(d)は 4フレームを時間の順番に並べており、静止している被写体 1401と移動して!/、る被写体 1402が写って!/、る。
[0116] このような被写体に対して、高速低解像度動画像と低速高解像度動画像を得る(ス テツプ 601)。このような被写体の高速低解像度動画像(画素数が縦横それぞれ 1/ 3の場合)の例を図 12 (a)〜(d)に示す。図 12 (a)〜(d)は、図 11 (a)〜(d)の撮影 時間に対応するフレームである。ここで、黒の画素と白の画素との中間の画素値の画 素は左下向きの斜線で示している。フレーム数は図 11 (a)〜(d)と同じである力 空 間解像度が図 11 (a)〜(d)よりも低レヽ。
[0117] 同様に、このような被写体の低速高解像度動画像 (フレーム数 1の場合)の例を図 1 3に示している。空間解像度は図 11 (a)〜(d)と同じである力 図 11 (a)〜(d)のフレ 一ムの間を露出しているため、被写体 1402が移動軌跡として撮影されている。
[0118] 次に、高速低解像度動画像から、動き検出部 103は、画像中の被写体の動きと動 きの信頼度を求める(ステップ 602)。図 11 (a)〜(d)の画像がより大きな画像の一部 を示しているため、動き検出自体はより大きな画像全体で行った結果のうち、図 11 (a )〜(d)の画像領域に関する結果を得ても良!/、。
[0119] 図 14 (a)〜(d)に信頼度の分布の例を示す。図 14 (a)〜(d)は、図 l l (a)〜(d)の 撮影時間に対応する。図 14 (b)および (c)において、右下向きの斜線部分が動き検 出の信頼度が低い場所を示し、他の領域(白および黒の画素)は動き検出の信頼度 が高レ、場所を示してレ、る。ここで白と黒の画素の表示は被写体との関係を表しており 、信頼度では区別はない。また、静止している被写体や背景に対する動き検出の結 果は動きの量が 0と!/、ぅ极いになる。
[0120] 図 11 (a)〜(d)の被写体のような場合、 2つの被写体 1401と 1402が接近するあた りでは正確な動き検出が困難となる。拘束制御部 104bは、動き検出結果を用いた拘 束の設定 (ステップ 603)と動きの信頼度の低い位置に対する外部拘束条件とから総 合的な拘束条件を設定し (ステップ 604)、その拘束条件を用いて統合処理部 104a は高速高解像度動画像を生成 ·出力する (ステップ 605、 606)。
[0121] 図 15に生成した画像の例を示す。
[0122] 図 15 (a)〜(d)は、図 11 (a)〜(d)の撮影時間に対応する。 2つの被写体が接近す るフレーム図 15 (b)、(c)では画素値が中間的な値になっているものの、本来撮影で は得られない図 11の映像に近!/、映像が得られる。
[0123] 対比のため、図 16には動き検出の結果のみを用い、動きの信頼度や外部拘束条 件を用いない場合の生成画像の例を示す。動き検出が正確に行えない図 16 (b)、 ( c)のフレームの画像の右上におレ、て正確な画像の生成が行えて!/、な!/、。
[0124] 図 16 (b)、(c)の結果とは異なり、図 15の結果では、動き検出が図 14 (b)、(c)の 右上の領域で正確に行えていないことから、外部拘束条件により、画像の他の位置 や他のフレームとの画素値の連続性(数 4、数 5など)やエッジの連続性(数 6、数 7な ど)や動画像の主成分の傾向(数 9など)を用いることで、統合処理部 104aは高速高 解像度動画像として望ましい画像を生成することができる。
[0125] 次に、低速高解像度動画像の露出時間を高速低解像度動画像のフレーム間隔よ りも長く撮影する効果を図 17〜図 24の画像を用いて説明する。
[0126] 図 17 (a)〜(e)は、撮影の対象を仮に高速高解像度で撮影できた場合の画像を示 す。図 17 (a)〜(e)の映像は本来撮影により取得できないが、説明の為に示す。図 1 7 (a)〜(e)は時間的に連続する 5フレームを時間の順番に並べており、移動している 被写体 A1が写っている。
[0127] このような被写体に対して、撮影した高速低解像度動画像を図 18 (a)〜(e)に示し 、低速高解像度動画像を図 19 (a)および (b)と図 20 (a)および (b)に示す。図 18 (a) 〜(e)は、それぞれ図 17 (a)〜(e)の時間に対応するフレーム画像を示して!/、る。
[0128] 図 18 (a)〜(e)は低解像度の画像を高解像度画像と同じ大きさに図示して!/、るた め、解像度の低さが画素の荒さとして現れている。ここで、低速高解像度画像は高速 低解像度画像の 4分の 1のフレームレートとし、図 19 (a)と図 20 (a)は図 17 (a)の時 間に露出を開始したフレーム画像に対応し、図 19 (b)と図 20 (b)は図 17 (e)の時間 に露出を開始したフレーム画像に対応してレ、る。
[0129] 図 19 (a)および (b)は従来例のように低速高解像度画像の露出時間を短くしている 場合のフレーム画像を示している。図 20 (a)および (b)は本願発明で示すように、低 速高解像度画像の露出時間を高速低解像度画像のフレームレートよりも長くして撮 影したフレーム画像を示して!/、る。 [0130] このようにして撮影した画像を用いて前記の手続きで生成した画像の例を図 2;!〜 図 24に示す。ここで、図 21〜図 24の(a)〜(e)は、それぞれ図 17 (a)〜(e)の時間 に対応するフレーム画像を示す。また、図 22〜図 24の(a)〜(e)において斜線部分 は被写体 A1の輝度と背景の輝度との中間輝度の領域を表している。
[0131] 図 21 (a)〜(e)と図 22 (a)〜(e)は、図 18 (a)〜(e)と図 19 (a)、 (b)の入力画像を 用いて生成した画像の例であり、図 23 (a)〜(e)と図 24 (a)〜(e)は、図 18 (a)〜(e) と図 20 (a)、(b)の入力画像を用いて生成した画像の例である。図 21 (a)〜(e)は動 き情報を用いずに生成した画像の例を示し、図 22 (a)〜(e)は動き情報を用いて生 成した画像の例を示して!/、る。
[0132] 図 21 (a)と(e)、図 22 (a)と(e)は図 19の入力画像と同じタイミングのため鮮明な画 像が得られる。一方、図 21 (b)〜(d)では動き情報を用いないため、図 18 (b)〜(d) と同等の低解像度画像となっている。
[0133] また、図 22 (b)〜(d)では低速高解像度画像を撮影したフレームから離れるに従い 、画像の不鮮明さが増し、次の低速高解像度画像の撮影フレームに達したときに再 び鮮明な状態に戻る。
[0134] これは、低解像度高速画像から得た動き情報を利用して図 22 (b)〜(d)の生成画 像の空間解像度を向上させる必要があるものの、低解像度画像から動き検出を行う ため、動き検出の精度が低くなることと、動き検出では不可避な検出誤差が生じること に起因する。これらの動き検出誤差がフレーム毎に蓄積するため鮮明度が次第に低 下する。
[0135] このように、図 19 (a)および (b)のような入力を用いた場合、動き検出の情報が得ら れないか、不正確であると、図 22 (b)〜(d)において生成画像の鮮明度が次第に低 下すると同時に、生成画像の鮮明度が周期的に(前記の例では 4フレーム周期)大き く変動し、見辛い画像になり得る。低速高解像度画像のフレーム間隔が長いほどこの 傾向は顕著となる。
[0136] 動き検出の精度が高解像度画像の解像度の精度で正確に得られれば上記のよう な問題は生じないが、画像中の被写体形状の複雑な変化ゃォクルージョン、照明変 動等により、現実的には低解像度画像からの高精度の動き検出は困難である。 [0137] 図 23 (a)〜(e)は動き情報を用いずに生成した画像の例を示し、図 24 (a)〜(e)は 動き情報を用いて生成した画像の例を示してレ、る。図 23 (a)〜(e)では図 17 (a)〜( e)や図 19 (a)、(b)の画像に比べて多少鮮明さは低下するものの、図 22 (d)のような 大きな鮮明度の低下が生じない。また、時間的な鮮明度の変化が抑えられており、鮮 明度の時間変化による見辛さは軽減できる。更に、図 24 (a)〜(e)では動きの情報を 用いるため、図 23 (a)〜(e)に比べて更に鮮明度が向上する。
[0138] このように従来の画像生成方法では、高速低解像度画像も低速高解像度画像とも 露出時間を短くし、動きブレを抑えることで、個々の画像を鮮明に撮影していたが、 生成した画像の画質を安定させ、突発的な画像の変化を適切に生成画像に反映さ せる上では必ずしも望まし!/、とは!/、えなかった。
[0139] 本願発明の画像生成手法ではこのような従来手法とは異なり、生成する高速高解 像度画像の鮮明さの向上とフレーム間の鮮明度の変化を抑えるために動きブレが生 じうる長時間撮影により得た低速高解像度画像を用いてが画像を生成することを特 長とする。
[0140] これにより、動き検出が行われない場合にでもフレーム毎の画質の変動を抑えると ともに、画像の動き情報を加味することで画像の鮮明さを向上させることが可能となる
[0141] 更に、動き検出の信頼度を用いて信頼度の高い動き情報のみ用いることで、誤った 動き情報による画像の劣化を抑えることが可能になる。
[0142] なお、長時間露出の露出時間は低速画像のフレーム間で開放すると効果を得やす い。実際には、画素値の読み取り等により、露出終了と次フレームの露出開始までに は未露出時間が生じうる。このような場合にでも可能な範囲で露出を長くしておくこと で本願発明の効果を得ることが可能である。
[0143] なお、長時間撮影を用いて画像を生成したか否かは、高解像度でかつ突発的な画 像の変化が図 19 (a)と (b)の間で生じた場合に生成画像にその変化が含まれるか否 かで判断することができる。
[0144] ここまで、露光制御部 105が低速高解像度画像の 1フレームの露光期間中の露光 量を時間的に一定にする制御を行った場合につ!/、て説明した。次に、露光制御部 1 05が低速高解像度画像の 1フレームの露光期間中の露光量を時間的に変化させる 制御を行った場合につ!/、て説明する。
[0145] 図 25 (a)は、低速画像入力部 101bで取得する低速高解像度動画像の露光量の 時間変化の例で、図 25 (b)は、高速画像入力部 101aで取得する高速低解像度動 画像の露光量の時間変化の例を示す。図 25 (a)および (b)で横軸は時間、縦軸は 撮像時の露光量を示す。図 25 (a)および (b)はそれぞれの画像について同じ期間に おける露光量の時間変化を表しており、 1つのつながった太線が各画像の 1フレーム を得るための露出量の時間変化を表している。
[0146] 図 25 (a)では、低速高解像度画像の 1フレームを得るための 1回の露出期間中に 露光が行なわれている状態と無露光状態が 4回繰り返されることが、太線 21alによつ て示されている。図 25 (b)では、図 25 (a)での 1回の露出と同じ期間に、高速低解像 度画像の 4つのフレームを得るために 4回の露出(太線 21bl、 21b2、 21b3、 21b4) が行なわれることが示されて!/、る。
[0147] 図 8 (b)では、フレーム間隔と露出時間とが等しい(つまりフレーム間で開放露光を 行う)として高速低解像度画像の劣化過程を説明したが、ここでは、図 25 (b)に示さ れるように、高速低解像度画像は、フレーム間隔よりも露出時間が短くなる(言い換え れば、各フレームの露光期間の一部が無露光期間となる)ように制御される。また、図 25 (b)の高速低解像度画像の 4回の未露出期間に同期して、図 25 (a)の低速高解 像度画像の 1回の露出中の減光期間が設定される。
[0148] 次に、図 26を用いて入力画像の露光タイミングと生成画像における仮想的な露光 タイミングとの関係を説明する。ここで仮想的な露光タイミングとは、生成画像に相当 する画像を実際に撮影できたと仮定した場合の露光タイミングに相当する。
[0149] 図 26 (a)は低速高解像度画像 (破線力も破線が 1フレームの露光期間を示す)に おける露光タイミングを表し、縦軸の上側が露光している状態、下側が無露光の状態 を示している。図 26 (a)では 1フレーム中に露光と無露光の状態を 9回繰り返している 。図 26 (b)は図 26 (a)と同時に撮影して!/、る高速低解像度画像の露光タイミング(白 色)と無露光タイミング (斜線)とを表して!/、る。
[0150] 高速低解像度画像では 1フレームごとに露光と無露光とを 1回ずつ含んでいる。図 26 (b)では低速高解像度画像 1フレームの間に、高速低解像度画像が 9フレーム含 まれている。
[0151] 図 26 (c)は生成画像(高速高解像度画像)の仮想的な露光タイミングを表している
[0152] ここで、図 26 (a)、図 26 (b)の露光期間は一致している。このような関係は、一例と して、低速高解像度画像の 1フレームの露光期間に含まれる無露光期間に高速低解 像度画像の露光量もまた低減させるよう、露光制御部 105が撮像装置 10を制御する ことによって実現できる。
[0153] また、高速低解像度画像の各フレーム期間の予め定められた一部が露光期間、残 部が無露光期間として制御される場合に、高速低解像度画像の露光期間において 低速高解像度画像の 1フレームの露光が行われるように露光制御部 105が撮像装置 10を制御しても、このような関係は実現される。
[0154] このような関係を満たすように撮影した画像を用いて図 26 (c)のような仮想的な露 光タイミングを持つ動画像を生成することにより、次のような効果が得られる。
[0155] すなわち、露光および無露光のタイミングが混在していても、数 1や数 2のような線 型式は満たされるため、画像生成の手続きを露光および無露光のタイミングに依存し て複雑に構成する必要が無い。し力、も、露光および無露光のタイミングが混在してい る場合には、入力画像の時間方向の周波数特性では高周波成分の割合が向上し、 生成画像における時間方向の高周波数成分の再現性も向上する。
[0156] ステップ 601以降では、前述した露光量を時間変化させない場合と同じ処理を行う 。ここで、図 17 (a)〜(e)と同じ被写体について被写体の動きが速い場合について考 X·る。
[0157] 露光制御部 105が低速高解像度画像の露光量を時間的に変化させず、高速低解 像度画像のフレーム間隔と露出時間とが等しい場合の高速低解像度画像の例を図 2 7 (a)〜(c)に示す。図 27 (a)、(b)、(c)は連続するフレームの画像であり、各フレー ム画像では動きブレが目立っている。これは高速画像であってもフレーム間で被写 体が大きく動くことによる。図 28は同時に撮影した低速高解像度画像の例である。図 28は、図 27 (a)、(b)、(c)の 3フレームの時間にわたって露光量を時間的に変化さ せずに撮影しており、さらに大きな動きブレを含む画像となっている。
[0158] 図 27 (a)〜(c)の高速低解像度画像と、図 28の低速高解像度画像とに対して、図 24 (a)〜(e)に示される動画像を生成した場合と同じ処理を適用した結果の一例を 図 29 (a)〜(c)に示す。図 29 (a)、(b)、(c)は、図 27 (a)、(b)、(c)の各フレームの 時間に対応する。
[0159] 図 29 (a)〜(c)において、高速低解像度画像と同じフレームレートで図 27 (a)〜(c )よりも高解像度化された画像が得られている。し力、しながら、図 27 (a)〜(c)に含ま れる動きブレは図 29 (a)〜(c)にも含まれている。これは、高速低解像度画像のフレ ームレートよりも速い動きの情報が撮影時に得にくいことによる。
[0160] 次に、同じ被写体に対して図 25 (a)および (b)のような露光量の時間変化を行った 場合を考える。露光制御部 105が低速高解像度画像の露光量を時間的に変化させ て撮影した画像の例を図 30 (a)〜(c)、図 31に示す。
[0161] 図 31は低速高解像度画像で、図 28と同じ被写体を、図 25 (a)のように露光量を時 間的に変化させて撮影した画像となっている。ここで、図 31の斜線部分は黒色の領 域と白色の領域の中間的な画素値 (輝度値)を表している。露光量を時間的に変化 させているため、被写体の画素値 (輝度値)が動きの方向に沿って変化している。
[0162] 図 30 (a)〜(c)は高速低解像度画像で、図 25 (b)のように低速高解像度画像の露 光区間に合わせて露出時間を設定している。フレーム間の被写体の移動量は図 27 ( a)〜(c)と図 30 (a)〜(c)とで等し!/、ものの、露出が短!/、ため図 30 (a)〜(c)では各 フレーム画像の被写体の動きブレが図 27 (a)〜(c)の場合に比べて少なくなつて!/、
[0163] このような入力画像を用いて生成した画像を図 32 (a)〜(c)に示す。図 32 (a)〜(c )は図 29 (a)〜(c)に比べ、動きブレが抑えられた高解像度画像となっている。これは 、図 29 (a)〜(c)の場合と同じ被写体を同じフレームレートで撮影しているものの、露 光量を時間的に変化させていることで、時間的に高い周波数の情報を取得し、画像 生成に利用していることに因る。
[0164] 上記の例では、図 25 (a)および (b)のように低速高解像度画像撮影時の未減光区 間と高速低解像度画像の露出時間とを一致させて撮影した場合を説明したが、図 33 (a)および (b)を用いて両者が一致しな!/、場合の例につ!/、て説明する。
[0165] 図 33 (a)は図 25 (a)と同じ露光量の時間変化を表している力 図 33 (b)の高速低 解像度画像のフレームレートは図 25 (b)の場合の半分であり、破線の 22b2、 22b4 で示される露出期間のフレームは実際には撮影されていない。
[0166] このような場合、太線 22bl及び 22b3で示される露光によって撮影された 2つのフ レーム画像を用いて画像間の動きベクトルを検出する。そして、画像間の対応点の動 きを用いて破線 22b2で示される露出期間に得られたであろう画像を生成する。同様 に前後のフレーム画像を用いて破泉 22b4で示される露出期間における画像も生成 する。このような生成は、従来技術である時間方向の補間処理によって行うことができ
[0167] このようにして、破泉 22b2及び 22b4で示される露出期間における画像を生成した 後に、図 25 (b)の場合と同等の処理を行なうと、図 32 (a)〜(c)のような高速高解像 度かつ動きブレの抑えられた画像を得ることが可能となる。
[0168] 但し、低速高解像度画像の露光量の時間変化と、高速低解像度画像の露出時間 とを合わせることが望ましい。一致させることで、両画像から得られる情報の時間方向 での過不足が抑えられ、撮影してレ、な!/、時間の画像の推定とレ、つた付加処理による 誤差の発生や演算量の増加を抑える効果がある。
[0169] なお、露光量を時間的に変化させる方法としては、機械式の開閉シャツタゃ液晶シ ャッタ等の同様の機能を有する装置を撮像部よりも被写体側に設置することで実現 すること力 Sできる。同様に、照明変化をさせることで、露光量を時間変化させてもよい
[0170] 照明変化を用いる場合、付加すべき装置が簡易に構成できる点や、高速な露光量 の変更が行ないやすい利点があるが、被写体までの距離が遠い場合は、照明強度 を強くする必要がある。一方、シャツタ等を用いる場合は、被写体の距離に関係なく 適用できる利点がある。両方を併用してもよいし、どちらか一方を使っても、本発明の 効果は得られる。
[0171] このように、低速高解像度画像の露光量を時間的に変化させることで、変化させな い場合に比べて時間的により高周波数の情報を取得して画像を生成することが可能 となる。その結果、各フレーム画像での動きブレを抑えるなど生成画像の高周波成分 の再現性を高めた画像を得ることが可能となる。
[0172] 上記の例では、画像統合部 104は、生成画像を出力するのみであるが、生成画像 の出力と併せて画像生成の信頼度を出力しても良い。画像生成の信頼度 γは生成 した画像が正確に高速高解像化されている度合いを予測する値である。 yの決め方 としては、以下の数 16に示される動きの信頼度の総和や、
[0173] [数 16]
^Vmax ymax ma
r= ァ, )
Figure imgf000035_0001
[0174] 有効な拘束条件の数 Nと求めるべき動画像の総画素数 M (=フレーム数 X 1フレー ム画像の画素数)との比率 N/Mなどを用いることができる。ここで N = Nh + Nl + N λ X Cであり、 Nhは高速画像の総画素数(フレーム数 X Iフレーム画像の画素数)、 N1は低速画像の総画素数、 Ν λは外部拘束条件を有効にする時空間位置 (X, y, t )の総数、 Cは外部拘束の種類の数とする。
[0175] なお、数 15などの方程式を連立 1次元方程式として解く場合には、 Cline, A. K.
, Moler, C. B. , Stewart, G. W. and Wilkinson, J. H. , An Estimate for the Condition Number of a Matrix" , SI AM J. Num. Anal. 16 ( 1979) , 368 - 375. (非特許文献 5)などに記載されている解の算出計算の安定性 を示す条件数を信頼度として用いることができる。
[0176] 動きの信頼度の高い場合、動き拘束を用いた生成画像の信頼度も高いことが期待 できる。また、生成する動画像の総画素数に対して有効な拘束条件が多い場合には 、解としての生成画像を安定して得ることができ、生成画像の信頼度も高いことが期 待できる。同様に、上記条件数力 S小さい場合にも解の誤差が小さいことが期待できる 為、生成画像の信頼度が高いと期待できる。
[0177] このように、生成画像の信頼度を出力することで、出力した動画像に対して MPEG などの圧縮符号化を行う際に、信頼度の低い場合には圧縮率を高め、逆に、信頼度 の高い場合には圧縮率を低く設定することが可能となり、適切な圧縮率の設定が可 能となる。
[0178] 例えば生成画像の信頼度 γと符号化の圧縮率 δとの関係を図 34のように単調増 加の関係に設定し、生成した動画像の信頼度 Ίの値に対応する圧縮率 δで符号化 を行う。生成画像の信頼度 γが低い場合には生成画像が誤差を含みうるため、圧縮 率を高くしても実質的に情報の欠損があまり生じないことが期待されるため、効果的 にデータ量を削減できる。
[0179] ここで圧縮率とは、もとの画像のデータ量に対する符号化後のデータ量の割合で、 圧縮率が高い(大きい値)ほど、符号化後のデータ量は小さくなり、復号化した際の 画質は低下する。
[0180] 同様に、 MPEGの場合などでは、前記信頼度の高いフレームを優先的に Iピクチャ などのフレーム内符号化の対象とし、他のフレームをフレーム間符号化の対象とする ことで、動画像の再生時の早送り再生や一次停止時などの画質を向上させることが 可能となる。
[0181] 例えば、前記生成画像の信頼度をフレーム毎に求めておき γ (t)と置く。 tはフレー ム時刻である。連続する複数のフレームの中から、フレーム内符号化を行うフレーム を選択する際に γ (t)が予め定めた閾値 y thより大きいフレームの中から選択したり 、予め定めた連続フレーム区間の中で最も γ (t)の大きいフレームを選択する。
[0182] なお、出力動画像を符号化する処理の有無に関わらず本発明の効果は得られる。
[0183] また、上記の例では、画素値として単一の輝度のみを前提に説明した力 輝度に対 する上記の処理を RGBカラー表現の Rと Gと Bの各成分につ!/、て個々に同じ処理を 行って高速高解像度動画像を得ることで、カラー画像に対しても高速高解像度動画 像を生成することが可能である。
[0184] また、より簡易に色情報を扱う方法としては、低速画像を輝度と色差に分解し、輝度 画像のみを上記の処理で高速高解像度化し、色差情報は補完拡大して前記高速高 解像度輝度画像に付加することでも、効果は得られる。この場合、画像の情報の主 成分は輝度に含まれる為、他の色差の情報が補完拡大された場合であっても、両者 を合せることで、入力した画像に比べて、高速高解像度化した動画像を得ることが可 能となり、 RGB独立に処理する場合に比べて処理量を削減することが可能となる。 [0185] このようなカラー画像に対する処理の手順を図 35に示す。ステップ 2101では高速 低解像度動画像を輝度画像と色差画像に分離し、続いて、ステップ 2102で、前記輝 度画像と低速高解像度動画像の輝度画像とを用いて図 5の手順に基づいて高速高 解像度動画像を生成する。ステップ 2103では、前記色差画像を高解像度画像と同 じ画素数に補間拡大する。ステップ 2104では、前記生成輝度画像と前記補間拡大 した色差画像とを合成して高速高解像度のカラー画像を生成する。
[0186] このように、画像統合部 104が、高速低解像度動画像から色差情報を抽出し、高速 低解像度動画像の輝度情報と低速高解像度動画像とから中間的な新たな動画像を 生成し、生成した中間的な動画像に色差情報を付加することによって、最終的な新 たな動画像を生成することで、カラーの動画像を少なレ、処理量で統合することができ
[0187] 以上のように、本実施の形態における画像生成システム 100によれば、動き検出部 103が求めた動きの信頼度に応じて、拘束制御部 104bが外部モデル拘束条件と動 き拘束条件とを有効にする度合いを決定し、前記拘束条件を用いて高速画像と低速 画像を統合することにより、動き検出が行えない場合や、動き検出の精度が低い画像 領域においても高速高解像の動画を得ることができる。
[0188] なお、本実施の形態では、動画像全体を一括で処理する例を説明したが、動画像 を時空間的に複数の領域に分割し、前記各領域にお!/、て上記と同様の処理を行つ て高速高解像の部分動画像を生成した後、生成した前記各部分動画像を時空間的 に接合し、動画像全体の高速高解像の動画像を得ても良い。このように時空間的に 分割処理を行う事で、画素数の多い画像やフレーム数の多い動画像を行う際に必要 となる計算処理量やメモリ量を抑制する事が可能となる。特に、時間方向に動画像を 分割することで、過去に入力された複数フレームを一括処理することによる画像生成 の時間遅れを短縮することも可能になる。
[0189] また、上記のように分割処理する際に、隣接する時空間領域が分割境界近傍にお いて、重複するように、各領域を設定してもよい。図 36に空間的に重複を持たせて領 域分割をした例を示す。図 36では画像を空間的に重複領域を持たせて領域 70;!〜 704の 4領域に分割している。個々の領域に相当する動画像を生成した後に、重複 部分の画素値は重複する各領域の画素値を重み付け加算平均を行うことで、滑らか な接合を行うことができる。また、時間方向に重複を持たせて図 36と同様に領域分割 しても良い。このように、重複領域を持たせることで、領域分割処理において隣接す る領域間での処理結果の不連続性を抑制する事ができる。
[0190] なお、このような重複を許す分割処理において、重複領域の大きさは、予め定めて おく。重複領域の大きさを大きくすることで、処理領域間での処理結果の不連続性を 低減する効果が増す。重複領域の大きさを小さくすると重複によって増加する計算量 を抑えることが可能となる。
[0191] また、上記のように領域分割する際の時間方向の領域境界としては、予め動画像 のフレーム間の画像の変化を算出し、フレーム間の画像の変化が予め定めた基準よ り大きいフレーム間に時間的な領域境界を設定しても良い。例えば、隣り合うフレー ム画像の差として数 17のような値 SSD (t)を定義し、 SSD (t)〉thを満たす場合に、 時亥 ijtのフレームと時亥 ijt + 1のフレームとの間を処理の境界とし、時刻 t以前のシーケ ンスと時亥 ijt + 1以降のシーケンスの処理を分けて行う。
[0192] [数 17] raax 7max
SSD{^ = ヌ,り— 7 +1)}2
[0193] ここで、 I (x, y, t)は時亥 Ijtのフレーム画像中の位置(x, y)における輝度を示し、 th は予め定めた閾値である。また、閾値 thを基準として処理の区切りを決定する替わり に、処理の区切りを設けたい時間領域のシーケンスにおいて前記 SSD (t)が最大に なる時刻 tを処理の区切りとしても良い。このようにすることで、時間的に隣接する領 域間の処理結果の不連続性がフレーム間の画像の変化に対して相対的に小さくなる 事で不連続性が知覚されに《なるという効果が期待できる。
[0194] 以上、本発明に係る画像生成装置について、実施の形態に基づいて説明したが、 本発明は、この実施の形態に限定されるものではない。実施の形態に対して当業者 が思いつく変形を施して得られる形態も本発明に含まれる。
[0195] 実施の形態では、統合処理部 104aが、拘束指定部 104eによって指定される数 12 の総合的な拘束条件 Jに従って、入力された静止画像 (低速高解像度画像のフレー ムの 1つ)と、その静止画像の露光期間における目的とする高速高解像度動画像の 複数のフレームの合計との誤差 (数 12の右辺の第 2項)を減少させることによって、高 速高解像度動画像を生成すると説明した。
[0196] ここで、合計の代わりに、合計と定数倍の関係にあって合計とは実質的に等価な情 報である平均を用いても構わない。すなわち、静止画像と、その静止画像の露光期 間における目的とする高速高解像度動画像の複数のフレームの平均との誤差を減 少させることによって、 目的とする高速高解像度動画像を生成する構成も、本発明に p¾よれ 。
[0197] また、本発明の画像生成装置が行なう画像生成処理の一部または全部は、専用の 機器で行わせるようにしてもよいし、コンピュータ端末装置や、基地局等に配置される 通信機器や、スタンドアロンのコンピュータに内蔵される CPUが画像生成処理プログ ラムを実行することによって、画像生成処理を行うようにしてもよい。
[0198] また、図 3に示された画像生成システム 100の構成のうち、表示装置 40を除いた構 成を用いて、図 37に示すようなカメラ 300として、つまり、単体の装置として本発明を 実現してもよい。
[0199] さらに、図 37に示されたカメラ 300に表示装置 40を付加することにより、動画像録 画-再生機能付きのカメラとして実現しても良い。
[0200] また、図 3に示された画像生成システム 100の構成のうち、撮像装置 10を除いた構 成を用いて、図 38に示すようにテレビなどのディスプレイ機器 400として本発明を実 現しても良い。この場合、あらかじめ録画してある動画像の時空間解像度を向上させ て表示することが可能になる。
[0201] なお、請求の範囲と実施の形態における構成要素の対応は次の通りである。つまり 、請求の範囲における「露出制御手段」、「画像入力手段」、「動き検出手段」、「画像 統合手段」の一例が、それぞれ、実施の形態における露光制御部 105、画像入力部 101、動き検出部 103、画像統合部 104である。ただし、請求の範囲における各構成 要素は、これら実施の形態における対応する構成要素だけに限定されるのでなぐそ の等価物も含まれる。 産業上の利用可能性
本発明は、複数の動画像から新たな動画像を生成する画像生成装置として、特に 、高速低解像度動画像と低速高解像度動画像とから高速高解像度動画像を生成す る画像生成装置、そのような装置が組み込まれた映像機器やシステム、映像合成装 置、映像編集装置、画像復元装置、画像復元プログラム等として利用できる。

Claims

請求の範囲
[1] 外部の撮像装置によって同一事象を撮影して得られた第 1動画像及び第 2動画像 から、前記事象を表す新たな動画像を生成する画像生成装置であって、
前記第 2動画像の解像度は前記第 1動画像の解像度よりも高ぐかつ前記第 2動画 像のフレームの露光時間は前記第 1動画像のフレームの露光時間よりも長ぐ 前記撮像装置を制御することにより、前記第 2動画像の 1つのフレームの露出期間 中の露光量を時間的に変化させる露光制御手段と、
前記撮像装置から、前記第 1動画像と、前記露光制御手段の制御下で撮影された 前記第 2動画像とを取得する画像入力手段と、
前記取得された第 1動画像と第 2動画像とから、前記第 1動画像のフレームレート以 上のフレームレートでかつ前記第 2動画像の解像度以上の解像度の新たな動画像を 、前記第 2動画像のフレームと、前記第 2動画像のフレームの露光期間に対応する前 記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成す る画像統合手段と
を備えることを特徴とする画像生成装置。
[2] 前記露光制御手段は、前記第 2動画像の 1つのフレームの露光期間中に少なくとも 1回、前記露光量を低減させる無露光期間を設ける
ことを特徴とする請求項 1記載の画像生成装置。
[3] 前記露光制御手段は、さらに、前記撮像装置を制御することにより、前記第 1動画 像の露光量を、前記第 2動画像の無露光期間において低減させる
ことを特徴とする請求項 2記載の画像生成装置。
[4] 前記露光制御手段は、前記第 2動画像の 1つのフレームの露光期間中に含まれる 前記第 1動画像の 1以上のフレームのそれぞれの露光期間において、前記第 2動画 像の前記フレームの露光が行われるように、前記第 2動画像の露光量を変化させる ことを特徴とする請求項 1記載の画像生成装置。
[5] 前記撮像装置は、前記第 2動画像を撮影する際、被写体からの入射光量を外部か らの制御に応じた量低減させる減光手段を備え、
前記露光制御手段は、前記減光手段を制御することによって、前記露光量を時間 的に変化させる
ことを特徴とする請求項 1記載の画像生成装置。
[6] 前記撮像装置は、前記第 2動画像を撮影する際、外部からの制御に応じた強さで 被写体を照明する照明手段を備え、
前記露光制御手段は、前記照明手段を制御することによって、前記露光量を時間 的に変化させる
ことを特徴とする請求項 1記載の画像生成装置。
[7] 外部の撮像装置によって同一事象を撮影して得られた第 1動画像及び第 2動画像 から、前記事象を表す新たな動画像を生成する画像生成方法であって、
前記第 2動画像の解像度は前記第 1動画像の解像度よりも高ぐかつ前記第 2動画 像のフレームの露光時間は前記第 1動画像のフレームの露光時間よりも長ぐ 前記撮像装置を制御することにより、前記第 2動画像の 1つのフレームの露出期間 中の露光量を時間的に変化させる露光制御ステップと、
前記撮像装置から、前記第 1動画像と、前記露光制御ステップでの制御下で撮影 された前記第 2動画像とを取得する画像入力ステップと、
前記取得された第 1動画像と第 2動画像とから、前記第 1動画像のフレームレート以 上のフレームレートでかつ前記第 2動画像の解像度以上の解像度の新たな動画像を 、前記第 2動画像のフレームと、前記第 2動画像のフレームの露光期間に対応する前 記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成す る画像統合ステップと
を含むことを特徴とする画像生成方法。
[8] 複数の動画像から新たな動画像を生成するためのプログラムであって、
請求項 7記載の画像生成方法に含まれるステップをコンピュータに実行させる ことを特徴とするプログラム。
PCT/JP2007/070750 2006-10-30 2007-10-24 画像生成装置および画像生成方法 WO2008053765A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2007800249811A CN101485192B (zh) 2006-10-30 2007-10-24 图像生成装置以及图像生成方法
US12/094,370 US7907183B2 (en) 2006-10-30 2007-10-24 Image generation apparatus and image generation method for generating a new video sequence from a plurality of video sequences
JP2007557268A JP4215266B2 (ja) 2006-10-30 2007-10-24 画像生成装置および画像生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006294698 2006-10-30
JP2006-294698 2006-10-30

Publications (2)

Publication Number Publication Date
WO2008053765A1 true WO2008053765A1 (ja) 2008-05-08
WO2008053765A8 WO2008053765A8 (ja) 2008-07-24

Family

ID=39344107

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/070750 WO2008053765A1 (ja) 2006-10-30 2007-10-24 画像生成装置および画像生成方法

Country Status (4)

Country Link
US (1) US7907183B2 (ja)
JP (1) JP4215266B2 (ja)
CN (1) CN101485192B (ja)
WO (1) WO2008053765A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011083555A1 (ja) * 2010-01-07 2011-07-14 パナソニック株式会社 画像処理装置、画像生成システム、方法、およびプログラム
JP2017028655A (ja) * 2015-07-28 2017-02-02 日本電気株式会社 追跡システム、追跡方法および追跡プログラム
JP2019152617A (ja) * 2018-03-06 2019-09-12 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008032442A1 (fr) * 2006-09-14 2008-03-20 Nikon Corporation Dispositif de traitement d'images, caméra électronique et programme de traitement d'images
TW200924692A (en) * 2007-12-12 2009-06-16 Altek Corp Micro sensor and its manufacturing method
JP5224804B2 (ja) * 2007-12-27 2013-07-03 三星電子株式会社 撮像装置
JP2010028722A (ja) * 2008-07-24 2010-02-04 Sanyo Electric Co Ltd 撮像装置及び画像処理装置
WO2010070809A1 (ja) * 2008-12-16 2010-06-24 パナソニック株式会社 撮像装置
US8390698B2 (en) * 2009-04-08 2013-03-05 Panasonic Corporation Image capturing apparatus, reproduction apparatus, image capturing method, and reproduction method
GB201009595D0 (en) * 2010-06-08 2010-07-21 Penny & Giles Aerospace Ltd Flight recorder
US8681234B2 (en) * 2010-09-28 2014-03-25 Sony Computer Entertainment America Llc System and methdod for capturing and displaying still photo and video content
US8374453B2 (en) * 2010-11-10 2013-02-12 Raytheon Company Integrating image frames
JP5725953B2 (ja) * 2011-04-13 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法、並びに情報処理装置
JP2012253531A (ja) * 2011-06-02 2012-12-20 Sony Corp 撮像装置、撮像方法および画像処理装置
US9625258B2 (en) * 2011-06-06 2017-04-18 3Shape A/S Dual-resolution 3D scanner
JP5821300B2 (ja) * 2011-06-07 2015-11-24 ソニー株式会社 撮像装置及び撮像方法
JP5507014B2 (ja) * 2011-08-10 2014-05-28 富士フイルム株式会社 動体検出装置及び方法
CN103369227A (zh) * 2012-03-26 2013-10-23 联想(北京)有限公司 一种运动对象的拍照方法及电子设备
EP2677732B1 (en) * 2012-06-22 2019-08-28 Nokia Technologies Oy Method, apparatus and computer program product for capturing video content
RU2013102854A (ru) * 2013-01-30 2014-08-10 ЭлЭсАй Корпорейшн Способ и устройство для повышения кадровой частоты потока изображений с использованием, по меньшей мере, одного потока изображений с более высокой кадровой частотой
US9300869B2 (en) * 2013-10-24 2016-03-29 Fujitsu Limited Reduction of spatial resolution for temporal resolution
US9571720B2 (en) * 2013-12-10 2017-02-14 Olympus Corporation Image processing device, display device, imaging apparatus, image processing method, and program
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10419737B2 (en) * 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10289951B2 (en) 2016-11-02 2019-05-14 Adobe Inc. Video deblurring using neural networks
US10943342B2 (en) * 2016-11-30 2021-03-09 Capsovision Inc. Method and apparatus for image stitching of images captured using a capsule camera
US11037330B2 (en) 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
CN109559331A (zh) * 2017-09-27 2019-04-02 九阳股份有限公司 一种基于视频图像的食材管理方法
US10572976B2 (en) * 2017-10-18 2020-02-25 International Business Machines Corporation Enhancing observation resolution using continuous learning
KR102488410B1 (ko) * 2017-11-07 2023-01-16 삼성전자주식회사 복수의 카메라들을 이용하여 영상을 촬영하는 전자 장치와 이의 동작 방법
US11295427B2 (en) * 2020-02-14 2022-04-05 Pixelworks, Inc. Methods and systems for image processing with multiple image sources
US20220138964A1 (en) * 2020-10-30 2022-05-05 Qualcomm Incorporated Frame processing and/or capture instruction systems and techniques
US11910121B2 (en) * 2021-01-26 2024-02-20 Zf Friedrichshafen Ag Converting dual-context video data to full color video
US20220327718A1 (en) * 2021-04-13 2022-10-13 Qualcomm Incorporated Techniques for enhancing slow motion recording
CN113139949B (zh) * 2021-04-30 2023-04-07 逻腾(杭州)科技有限公司 一种机器人图像模糊度检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004040422A (ja) * 2002-07-02 2004-02-05 Monolith Co Ltd 画像処理方法と装置
JP2004064661A (ja) * 2002-07-31 2004-02-26 Shimadzu Corp 撮像装置およびそれを用いた撮影方法
JP2005318548A (ja) * 2004-03-30 2005-11-10 Masahiko Yanaida 撮像システム、画像データ列作成装置、画像生成装置、画像データ列生成装置、画像データ列生成システム、及び画像伝送システム
WO2006137253A1 (ja) * 2005-06-22 2006-12-28 Matsushita Electric Industrial Co., Ltd. 画像生成装置および画像生成方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4244394B2 (ja) 1998-02-17 2009-03-25 富士ゼロックス株式会社 多地点会議システム
JP4039858B2 (ja) 2002-01-09 2008-01-30 株式会社モノリス 画像マッチング方法と装置、および画像符号化方法と装置
US7394484B2 (en) 2002-06-10 2008-07-01 Shimadzu Corporation Photographic apparatus and photographic method using same
JP5109221B2 (ja) 2002-06-27 2012-12-26 新世代株式会社 ストロボスコープを使った入力システムを備える情報処理装置
US20050219642A1 (en) 2004-03-30 2005-10-06 Masahiko Yachida Imaging system, image data stream creation apparatus, image generation apparatus, image data stream generation apparatus, and image data stream generation system
US8094717B2 (en) * 2006-10-19 2012-01-10 Panasonic Corporation Image generation apparatus and image generation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004040422A (ja) * 2002-07-02 2004-02-05 Monolith Co Ltd 画像処理方法と装置
JP2004064661A (ja) * 2002-07-31 2004-02-26 Shimadzu Corp 撮像装置およびそれを用いた撮影方法
JP2005318548A (ja) * 2004-03-30 2005-11-10 Masahiko Yanaida 撮像システム、画像データ列作成装置、画像生成装置、画像データ列生成装置、画像データ列生成システム、及び画像伝送システム
WO2006137253A1 (ja) * 2005-06-22 2006-12-28 Matsushita Electric Industrial Co., Ltd. 画像生成装置および画像生成方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011083555A1 (ja) * 2010-01-07 2011-07-14 パナソニック株式会社 画像処理装置、画像生成システム、方法、およびプログラム
US8471927B2 (en) 2010-01-07 2013-06-25 Panasonic Corporation Image processing device, image generating system, method, and program
JP2017028655A (ja) * 2015-07-28 2017-02-02 日本電気株式会社 追跡システム、追跡方法および追跡プログラム
JP2019152617A (ja) * 2018-03-06 2019-09-12 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
JP6996353B2 (ja) 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム

Also Published As

Publication number Publication date
US20090167909A1 (en) 2009-07-02
US7907183B2 (en) 2011-03-15
JP4215266B2 (ja) 2009-01-28
CN101485192B (zh) 2011-05-18
CN101485192A (zh) 2009-07-15
WO2008053765A8 (ja) 2008-07-24
JPWO2008053765A1 (ja) 2010-02-25

Similar Documents

Publication Publication Date Title
JP4215266B2 (ja) 画像生成装置および画像生成方法
JP3934151B2 (ja) 画像生成装置および画像生成方法
JP4215267B2 (ja) 画像生成装置および画像生成方法
JP4745388B2 (ja) 二重経路画像シーケンス安定化
JP4775700B2 (ja) 画像処理装置及び画像処理方法
JP5017419B2 (ja) 画像生成装置、画像生成方法、およびプログラム
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP2023536674A (ja) マルチカメラビデオ安定化
JP5281495B2 (ja) 画像処理装置およびその方法
EP2523459B1 (en) Image processing device, image generating system, method, and program
US20090278921A1 (en) Image Stabilization of Video Play Back
JP5096645B1 (ja) 画像生成装置、画像生成システム、方法、およびプログラム
JP2007515845A (ja) ローカル予測誤差に基づく映像位置合わせ
JP2007329596A (ja) 画像生成装置および画像生成方法
JP2018033080A (ja) 画像処理装置、画像処理方法およびプログラム
JP4052348B2 (ja) 画像処理装置、及び画像処理方法
KR20110088680A (ko) 복수개의 영상을 합성한 합성 영상에 대한 보정 기능을 구비하는 영상 처리 장치
JP2012085205A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JPH11155096A (ja) 撮像装置、コンピュータ読み取り可能な記憶媒体及び画像処理装置
JP2009153046A (ja) ぶれ補正装置及び方法並びに撮像装置
Quevedo et al. Approach to super-resolution through the concept of multicamera imaging
KR20230032755A (ko) 영상 처리 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780024981.1

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2007557268

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12094370

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07830484

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07830484

Country of ref document: EP

Kind code of ref document: A1