WO2003003304A1 - Appareil et procede de traitement d'image et appareil de recuperation d'image - Google Patents

Appareil et procede de traitement d'image et appareil de recuperation d'image Download PDF

Info

Publication number
WO2003003304A1
WO2003003304A1 PCT/JP2002/006382 JP0206382W WO03003304A1 WO 2003003304 A1 WO2003003304 A1 WO 2003003304A1 JP 0206382 W JP0206382 W JP 0206382W WO 03003304 A1 WO03003304 A1 WO 03003304A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
foreground
area
component
mixture ratio
Prior art date
Application number
PCT/JP2002/006382
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Junichi Ishibashi
Takashi Sawao
Naoki Fujiwara
Takahiro Nagano
Seiji Wada
Toru Miyake
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/362,546 priority Critical patent/US7352917B2/en
Priority to CA2420020A priority patent/CA2420020C/en
Priority to KR1020037002832A priority patent/KR100864336B1/ko
Priority to MXPA03001520A priority patent/MXPA03001520A/es
Priority to EP02743723A priority patent/EP1403821B1/en
Priority to DE60237687T priority patent/DE60237687D1/de
Publication of WO2003003304A1 publication Critical patent/WO2003003304A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Definitions

  • Image processing apparatus and method and imaging apparatus
  • the present invention relates to an image processing apparatus and method, and an image capturing apparatus, and more particularly to an image processing apparatus and method that takes into account a difference between a signal detected by a sensor and the real world, and an image capturing apparatus.
  • motion blur occurs when the moving speed of the object is relatively high.
  • the present invention has been made in view of such a situation, and an object of the present invention is to make it possible to know the state of mixing in an image.
  • a first image processing apparatus specifies a mixed area in which a foreground object component constituting a foreground object and a background object component constituting a background object are mixed, corresponding to image data.
  • the ratio of the mixture of the foreground object component and the background object component in the mixed region in which the foreground object component and the background object component are mixed is calculated.
  • a mixture ratio detecting means for detecting the indicated mixture ratio, wherein at least one of the region specifying means and the mixture ratio detecting means performs image processing based on a plurality of types of components.
  • the component identification area detection means detects a mixed area for each of a plurality of types of components, and outputs a detection result corresponding to each component as component mixed area information, and the component mixed area detection means detects the mixed area.
  • a mixed area specifying means for specifying a mixed area corresponding to the image data based on the detection result of the mixed area corresponding to the plurality of types of components.
  • a spatial association value indicating a correlation between target pixel data corresponding to a pixel and pixel data of a spatially neighboring pixel located in the vicinity of the target pixel in the spatial direction is calculated based on a plurality of types of components corresponding to the target pixel.
  • Foreground area specifying means for specifying a foreground area consisting of only foreground object components can be provided.
  • the area specifying means may be provided with a mixed area specifying means for specifying a mixed area based on a foreground area of the frame of interest and a foreground area of a nearby frame near the frame of interest.
  • Component mixing ratio detecting means for detecting a mixing ratio for each of a plurality of types of components and mixing ratio detection results corresponding to the plurality of types of components detected by the component mixing ratio detecting means are integrated into the mixing ratio detecting means.
  • a component integrated mixture ratio detecting means for detecting a mixture ratio corresponding to image data.
  • An integrating means for integrating pixel values of a plurality of types of components for each pixel into a mixing ratio detecting means and outputting as integrated data, and an integrated data mixing ratio for detecting a mixing ratio corresponding to image data based on the integrated data.
  • Detection means can be provided.
  • the integration means can add pixel values of a plurality of types of components for each pixel, and output a result of the addition as integrated data.
  • an area specification for specifying a mixed area in which a foreground object component forming a foreground object and a background object component forming a background object are mixed in accordance with image data
  • the mixing ratio indicating the mixing ratio of the foreground object component and the background object component in the mixed area where the foreground object component and the background object component are mixed corresponding to the step and the image data.
  • a mixed region is detected for each of a plurality of types of components, and a detection result corresponding to each component is output as component mixed region information.
  • a mixed area specifying step of specifying a mixed area corresponding to the image data based on a detection result of the mixed area corresponding to the detected plural types of components.
  • a spatial correlation value indicating the correlation between the pixel data of interest corresponding to the pixel of interest of the frame of interest of the image data and the pixel data of the spatially neighboring pixel located in the vicinity of the pixel of interest in the spatial direction is obtained. Calculating a spatial correlation value based on a plurality of types of components corresponding to the target pixel data, and calculating a temporal correlation value indicating a correlation between the target pixel data and pixel data of a temporally neighboring pixel located in the vicinity of the target pixel in the time direction.
  • a temporal correlation value calculation step based on a plurality of types of components corresponding to the pixel of interest, and a foreground region consisting only of foreground object components based on the spatial correlation value and the time correlation value corresponding to the pixel of interest.
  • a foreground area specifying step of specifying is
  • the foreground region of the frame of interest and the vicinity of the frame of interest A mixed area specifying step for specifying a mixed area based on the foreground area of the neighboring frame can be provided.
  • the component mixture ratio detection step integrates the component mixture ratio detection step that detects the mixture ratio for each of multiple types of components, and the mixture ratio detection results corresponding to the multiple types of components detected in the component mixture ratio detection step. By doing so, a component integration mixture ratio detection step of detecting a mixture ratio corresponding to the image data can be provided.
  • the mixing ratio detection step pixel values of multiple types of components are integrated for each pixel.
  • An integration step that outputs as integrated data, and an integrated data mixing ratio detection that detects the mixing ratio corresponding to image data based on the integrated data Steps can be provided.
  • pixel values of a plurality of types of components can be added for each pixel, and the added result can be output as integrated data.
  • a program on a recording medium wherein a mixed area formed by mixing a foreground object component constituting a foreground object and a background object component constituting a background object in correspondence with image data.
  • At least one of the region identification step and the mixing ratio detection step is based on a plurality of types of components. Image processing.
  • a mixed region is detected for each of a plurality of types of components, and a detection result corresponding to each component is output as component mixed region information.
  • a spatial correlation value indicating the correlation between the pixel data of interest corresponding to the pixel of interest of the frame of interest of the image data and the pixel data of the spatially neighboring pixel located in the vicinity of the pixel of interest in the spatial direction is obtained. Calculating a spatial correlation value based on a plurality of types of components corresponding to the target pixel data, and calculating a temporal correlation value indicating a correlation between the target pixel data and pixel data of a temporally neighboring pixel located in the vicinity of the target pixel in the time direction.
  • a temporal correlation value calculation step based on a plurality of types of components corresponding to the pixel of interest, and a foreground region consisting only of foreground object components based on the spatial correlation value and the time correlation value corresponding to the pixel of interest.
  • a foreground area specifying step of specifying is
  • the region specifying step may include a mixed region specifying step of specifying a mixed region based on a foreground region of the frame of interest and a foreground region of a nearby frame near the frame of interest.
  • the component mixture ratio detection step integrates the component mixture ratio detection step that detects the mixture ratio for each of multiple types of components, and the mixture ratio detection results corresponding to the multiple types of components detected in the component mixture ratio detection step. By doing so, a component integration mixture ratio detection step of detecting a mixture ratio corresponding to the image data can be provided.
  • the mixing ratio detection step pixel values of multiple types of components are integrated for each pixel.
  • An integration step that outputs as integrated data, and an integrated data mixing ratio detection that detects the mixing ratio corresponding to image data based on the integrated data Steps can be provided.
  • pixel values of a plurality of types of components can be added for each pixel, and the added result can be output as integrated data.
  • a first program specifies, in a computer, a mixed area formed by mixing a foreground object component constituting a foreground object and a background object component constituting a background object in accordance with image data.
  • a mixture ratio detection step and an output control step for controlling the output of the detected mixture ratio are executed.At least one of the region identification step and the mixture ratio detection step is performed based on a plurality of types of components. It is characterized by processing.
  • a mixed region is detected for each of a plurality of types of components, and a detection result corresponding to each component is output as component mixed region information.
  • a mixed area specifying step of specifying a mixed area corresponding to the image data based on a detection result of the mixed area corresponding to the detected plural types of components.
  • a spatial correlation value indicating the correlation between the pixel data of interest corresponding to the pixel of interest of the frame of interest of the image data and the pixel data of the spatially neighboring pixel located in the vicinity of the pixel of interest in the spatial direction is obtained. Calculating a spatial correlation value based on a plurality of types of components corresponding to the target pixel data, and calculating a temporal correlation value indicating a correlation between the target pixel data and pixel data of a temporally neighboring pixel located in the vicinity of the target pixel in the time direction.
  • a temporal correlation value calculation step based on a plurality of types of components corresponding to the pixel of interest, and a foreground region consisting only of foreground object components based on the spatial correlation value and the time correlation value corresponding to the pixel of interest.
  • a foreground area specifying step of specifying is
  • the region specifying step may include a mixed region specifying step of specifying a mixed region based on a foreground region of the frame of interest and a foreground region of a nearby frame near the frame of interest.
  • the component mixture ratio detection step integrates the component mixture ratio detection step that detects the mixture ratio for each of multiple types of components, and the mixture ratio detection results corresponding to the multiple types of components detected in the component mixture ratio detection step. Do thus, a component integrated mixture ratio detection step of detecting a mixture ratio corresponding to the image data can be provided.
  • an integration step in which pixel values of multiple types of components are integrated for each pixel and output as integrated data, and an integrated data mixing ratio detection that detects a mixing ratio corresponding to image data based on the integrated data Steps can be provided.
  • pixel values of a plurality of types of components can be added for each pixel, and the added result can be output as integrated data.
  • the first imaging apparatus of the present invention converts a subject image captured by an imaging device having a predetermined number of pixels having a time integration effect into a predetermined number of pixel data having a plurality of types of components at the same pixel position. And a mixed region in which foreground object components constituting a foreground object and background object components constituting a background object are mixed in accordance with the image data. The ratio of the mixture of the foreground object component and the background object component in the mixed region where the foreground object component and the background object component are mixed corresponding to the image data is determined. At least one of the area specifying means and the mixing ratio detecting means is provided. Image processing is performed based on a plurality of types of components.
  • the mixed area detecting means detects mixed areas for each of a plurality of types of components and outputs a detection result corresponding to each component as component mixed area information.
  • a mixed area specifying means for specifying a mixed area corresponding to the image data based on the detection result of the mixed area corresponding to the plurality of types of detected components may be provided.
  • the spatial correlation value indicating the correlation between the target pixel data corresponding to the target pixel of the frame and the pixel data of the spatially neighboring pixels located in the vicinity of the target pixel in the spatial direction is calculated using a plurality of types of components corresponding to the target pixel.
  • a time correlation value calculating means for calculating a time correlation value indicating a correlation with pixel data of a neighboring pixel located near the time based on a plurality of types of components corresponding to the pixel of interest; and a spatial correlation value and time corresponding to the pixel of interest.
  • Foreground area specifying means for specifying a foreground area consisting only of foreground object components based on the correlation value can be provided.
  • the area specifying means may be provided with a mixed area specifying means for specifying a mixed area based on a foreground area of the frame of interest and a foreground area of a nearby frame near the frame of interest.
  • Component mixing ratio detecting means for detecting a mixing ratio for each of a plurality of types of components and mixing ratio detection results corresponding to the plurality of types of components detected by the component mixing ratio detecting means are integrated into the mixing ratio detecting means.
  • a component integrated mixture ratio detecting means for detecting a mixture ratio corresponding to image data.
  • An integrating means for integrating pixel values of a plurality of types of components for each pixel into a mixing ratio detecting means and outputting as integrated data, and an integrated data mixing ratio for detecting a mixing ratio corresponding to image data based on the integrated data. Detection means can be provided.
  • the integration means can add pixel values of a plurality of types of components for each pixel, and output a result of the addition as integrated data.
  • a second image processing apparatus configures a foreground object corresponding to image data based on image data acquisition means for acquiring image data and a plurality of types of components of the acquired image data.
  • the foreground object component and the background object component correspond to the region identification processing for identifying the mixed region in which the foreground object component and the background object component constituting the background object are mixed, and the image data.
  • a process execution means for executing one of a mixture ratio detection process for detecting a mixture ratio indicating a mixture ratio of a foreground object component and a background object component in a mixed region formed by mixing. It is characterized by.
  • the processing execution means includes a foreground object component that constitutes a foreground object corresponding to the image data based on a plurality of types of components of the acquired image data.
  • a foreground object component that constitutes a foreground object corresponding to the image data based on a plurality of types of components of the acquired image data.
  • the processing execution means is based on a plurality of types of components of the acquired image data, and foreground object components in a mixed area where the foreground object component and the background object component are mixed corresponding to the image data. It is possible to execute a mixture ratio detection process of detecting a mixture ratio indicating a mixture ratio between the object and the background object component.
  • a foreground object is formed corresponding to image data based on an image data obtaining step of obtaining image data and a plurality of types of components of the obtained image data.
  • Foreground object components and background object components corresponding to the image data, and an area specifying process for specifying a mixed area formed by mixing the foreground object components and the background object components constituting the background object A mixing ratio detection process for detecting a mixing ratio indicating a mixing ratio of a foreground object component and a background object component in a mixed region where It is characterized by the following.
  • the foreground object component constituting the foreground object and the background object component constituting the background object are mixed in accordance with the image data based on the plurality of types of components of the acquired image data.
  • An area specifying process for specifying the mixed area can be performed.
  • the processing execution step is based on a plurality of types of components of the acquired image data, and in accordance with the image data, a foreground object component in a mixed region in which the foreground object component and the background object component are mixed. It is possible to execute a mixture ratio detection process for detecting a mixture ratio indicating a mixture ratio between the object and the background object component.
  • the program of the second recording medium of the present invention comprises: an image data obtaining step of obtaining image data; and forming a foreground object corresponding to the image data based on a plurality of types of components of the obtained image data.
  • Foreground object components and Area specifying processing to specify the mixed area where the background object components that make up the background and background objects are mixed, and the mixed area where the foreground object component and the background object component are mixed corresponding to the image data
  • the foreground object component constituting the foreground object and the background object component constituting the background object are mixed in accordance with the image data based on the plurality of types of components of the acquired image data.
  • An area specifying process for specifying the mixed area can be performed.
  • the processing execution step is based on a plurality of types of components of the acquired image data, and in accordance with the image data, the foreground object component in the mixed region where the foreground object component and the background object component are mixed. It is possible to execute a mixture ratio detection process for detecting a mixture ratio indicating a mixture ratio of the component and the background object component.
  • a second program is a computer-readable storage medium storing, in a computer, an image data acquiring step of acquiring image data, and a foreground object corresponding to the image data based on a plurality of types of components of the acquired image data.
  • Area identification processing to identify a mixed area in which the foreground object component and the background object component constituting the background object are mixed, and the foreground object component and the background object corresponding to the image data Executes one of the mixture ratio detection processes that detects the mixture ratio indicating the proportion of the mixture of the foreground object component and the background object component in the mixed region where the components are mixed. And executing the steps.
  • a foreground object component constituting a foreground object and a background object component constituting a background object are mixed in accordance with the image data, based on a plurality of types of components of the acquired image data.
  • An area specifying process for specifying a mixed area can be executed.
  • the processing execution step is based on a plurality of types of components of the acquired image data, and in accordance with the image data, a foreground object component in a mixed region in which the foreground object component and the background object component are mixed. It is possible to execute a mixture ratio detection process for detecting a mixture ratio indicating a mixture ratio between the object and the background object component.
  • the second imaging apparatus of the present invention converts a subject image captured by an imaging element having a predetermined number of pixels having a time integration effect into a predetermined number of pixel data having a plurality of types of components at the same pixel position.
  • a foreground object component forming a foreground object and a background object forming a background object corresponding to the image data based on a plurality of types of components of the image data.
  • Foreground object component and background object in a mixed region where the foreground object component and the background object component are mixed in accordance with the region specifying processing for specifying the mixed region where the components are mixed and the image data.
  • Either of the mixing ratio detection processing that detects the mixing ratio indicating the mixing ratio with the cut component Characterized in that it comprises a process execution means for executing management.
  • the processing execution means is configured to mix a foreground object component constituting a foreground object and a background object component constituting a background object in accordance with the image data based on a plurality of types of components of the image data.
  • An area specifying process for specifying a mixed area can be executed.
  • the processing execution means is based on a plurality of types of components of the image data, and in accordance with the image data, the foreground object component and the background in a mixed region where the foreground object component and the background object component are mixed. It is possible to execute a mixture ratio detection process for detecting a mixture ratio indicating a mixture ratio with the object component.
  • Image data is acquired, and a foreground object component constituting a foreground object and a background object component constituting a background object are mixed in accordance with the image data based on a plurality of types of components of the acquired image data.
  • the foreground object component and the background object component in the mixed region where the foreground object component and the background object component are mixed corresponding to the image data and the region specifying processing for specifying the mixed region One of the mixture ratio detection processes for detecting the mixture ratio indicating the ratio of the mixture with the mixture is executed.
  • FIG. 1 is a diagram showing an embodiment of an image processing apparatus according to the present invention.
  • FIG. 2 is a block diagram illustrating the image processing apparatus.
  • FIG. 3 is a diagram illustrating imaging by a sensor.
  • FIG. 4 is a diagram illustrating the arrangement of pixels.
  • FIG. 5 is a diagram illustrating the operation of the detection element.
  • FIG. 6A is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 6B is a diagram for explaining a model corresponding to an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 7 is a diagram illustrating a background area, a foreground area, a mixed area, a covered background area, and an uncovered background area.
  • Fig. 8 shows the pixel values of adjacent pixels arranged in a row in the time direction, in the image of the object corresponding to the stationary foreground and the object corresponding to the stationary background. It is a model figure.
  • FIG. 9 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 10 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 11 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 12 is a diagram illustrating an example in which pixels in a foreground area, a background area, and a mixed area are extracted.
  • Fig. 13 is a diagram showing the correspondence between pixels and a model in which pixel values are expanded in the time direction.
  • Fig. 14 is a model in which pixel values are expanded in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 15 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 16 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 17 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 18 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 19 is a flowchart illustrating the process of adjusting the amount of motion blur.
  • FIG. 20 is a block diagram showing an example of the configuration of the area specifying unit 103. As shown in FIG. 20
  • FIG. 21 is a diagram illustrating an image when an object corresponding to the foreground is moving.
  • Figure 22 expands the pixel values in the time direction and divides the period corresponding to the shirt time FIG.
  • FIG. 23 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 24 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 25 is a diagram for explaining conditions for region determination.
  • FIG. 26A is a diagram showing an example of a result of specifying an area by the area specifying unit 103.
  • FIG. 26B is a diagram showing an example of a result of specifying an area by the area specifying unit 103.
  • FIG. 26C is a diagram illustrating an example of a result of specifying a region by the region specifying unit 103.
  • FIG. 26D is a diagram illustrating an example of a result of specifying a region by the region specifying unit 103.
  • FIG. 27 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103.
  • FIG. 28 is a flowchart for explaining the area specifying process.
  • FIG. 29 is a block diagram illustrating another example of the configuration of the area specifying unit 103.
  • FIG. 30 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 31 is a diagram illustrating an example of a background image.
  • FIG. 32 is a block diagram showing a configuration of the binary object image extraction unit 302.
  • FIG. 33A is a diagram for explaining calculation of a correlation value.
  • FIG. 33B is a diagram illustrating calculation of a correlation value.
  • FIG. 34A is a diagram illustrating calculation of a correlation value.
  • FIG. 34B is a diagram illustrating calculation of a correlation value.
  • FIG. 35 is a diagram illustrating an example of a binary object image.
  • FIG. 36 is a block diagram showing the configuration of the time change detecting section 303. As shown in FIG.
  • FIG. 37 is a diagram for explaining the determination by the area determination unit 342.
  • FIG. 38 is a diagram illustrating an example of determination by the time change detection unit 303.
  • FIG. 39 is a flowchart for explaining the area identification processing of the area determination unit 103.
  • FIG. 40 is a flowchart illustrating details of the area determination process.
  • FIG. 41 is a block diagram showing still another configuration of the area specifying unit 103.
  • FIG. 42 is a block diagram illustrating the configuration of the mouth busting unit 361.
  • FIG. 43 is a diagram illustrating the motion compensation of the motion compensation unit 381.
  • FIG. 44 is a diagram illustrating the motion compensation of the motion compensation unit 381.
  • FIG. 45 is a flowchart for explaining the area specifying process.
  • FIG. 46 is a flowchart for explaining the details of the mouth bust process.
  • FIG. 47 is a block diagram illustrating an example of the configuration of the mixture ratio calculation unit 104. As illustrated in FIG.
  • FIG. 48 is a diagram showing an example of an ideal mixture ratio.
  • FIG. 49 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 50 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • FIG. 51 is a diagram for explaining approximation using correlation of foreground components.
  • FIG. 52 is a diagram illustrating the relationship between C, N, and P.
  • FIG. 53 is a block diagram illustrating a configuration of the estimated mixture ratio processing unit 401.
  • FIG. 54 is a diagram illustrating an example of the estimated mixture ratio.
  • FIG. 55 is a block diagram showing another configuration of the mixture ratio calculating unit 104. As shown in FIG.
  • FIG. 56 is a flowchart for explaining the process of calculating the mixture ratio.
  • FIG. 57 is a flowchart for explaining the process of calculating the estimated mixture ratio.
  • FIG. 58 is a diagram illustrating a straight line that approximates the mixing ratio H.
  • FIG. 59 is a diagram illustrating a plane that approximates the mixture ratio H.
  • FIG. 60 is a diagram for explaining the correspondence of pixels in a plurality of frames when calculating the mixture ratio H.
  • FIG. 61 is a block diagram illustrating another configuration of the mixture ratio estimation processing unit 401.
  • FIG. 62 is a diagram illustrating an example of the estimated mixture ratio.
  • Figure 63 shows the mixture ratio estimation using the model corresponding to the covered background area. 3 is a flowchart for explaining the processing of FIG.
  • FIG. 64 is a block diagram illustrating an example of the configuration of the foreground / background separation unit 105.
  • FIG. 65A is a diagram illustrating an input image, a foreground component image, and a background component image.
  • FIG. 65B is a diagram illustrating a model of the input image, the foreground component image, and the background component image.
  • FIG. 66 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 67 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 68 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 69 is a block diagram illustrating an example of the configuration of the separation unit 600.
  • FIG. 7OA shows an example of a separated foreground component image.
  • FIG. 7 OB is a diagram showing an example of the separated background component image.
  • FIG. 71 is a flowchart illustrating the process of separating the foreground and the background.
  • FIG. 72 is a block diagram illustrating an example of the configuration of the motion-blur adjusting unit 106.
  • FIG. 73 is a diagram illustrating a processing unit.
  • FIG. 74 is a model diagram in which the pixel values of the foreground component image are developed in the time direction and the period corresponding to the shirt time is divided.
  • FIG. 75 is a model diagram in which the pixel values of the foreground component image are developed in the time direction and the period corresponding to the shutter time is divided.
  • FIG. 76 is a model diagram in which the pixel values of the foreground component image are developed in the time direction, and the period corresponding to the shirt time is divided.
  • FIG. 77 is a model diagram in which the pixel values of the foreground component image are developed in the time direction and the period corresponding to the shirt time is divided.
  • FIG. 78 is a diagram showing another configuration of the motion-blur adjusting unit 106.
  • Fig. 79 shows the amount of motion blur included in the foreground component image by the motion blur adjustment unit 106.
  • 3 is a flowchart for explaining the adjustment process of FIG.
  • FIG. 80 is a block diagram illustrating another example of the configuration of the motion-blur adjusting unit 106.
  • FIG. 81 is a diagram illustrating an example of a model that specifies a correspondence between a pixel value and a foreground component.
  • FIG. 82 is a diagram for explaining calculation of a foreground component.
  • FIG. 83 is a diagram for explaining calculation of a foreground component.
  • FIG. 84 is a flowchart illustrating the process of removing the motion blur in the foreground.
  • FIG. 85 is a block diagram illustrating another configuration of the functions of the image processing apparatus.
  • FIG. 86 is a diagram illustrating a configuration of the combining unit 1001.
  • FIG. 87 is a block diagram illustrating still another configuration of the functions of the image processing apparatus.
  • FIG. 88 is a block diagram illustrating a configuration of the mixture ratio calculation unit 111.
  • FIG. 89 is a block diagram showing a configuration of the foreground / background separation unit 1102.
  • FIG. 90 is a block diagram illustrating still another configuration of the functions of the image processing apparatus.
  • FIG. 91 is a diagram illustrating the configuration of the synthesizing unit 1221.
  • FIG. 92 is a diagram illustrating an embodiment of an image processing apparatus that generates region information based on an input image input as a component signal.
  • FIG. 93 is a diagram for explaining the relationship between the component 1, the component 2, and the component 3.
  • FIG. 94 is a flowchart for explaining the area determination process using the component signal.
  • FIG. 95 is a diagram illustrating another embodiment of an image processing device that generates region information based on an input image input as a component signal.
  • FIG. 96 is a flowchart for explaining another process of the area determination using the component signal.
  • FIG. 97 is a diagram illustrating still another embodiment of the image processing apparatus that generates the area information based on the input image input as the component signal.
  • Figure 98 shows the relationship between spatial and temporal correlations in the stationary and moving regions.
  • FIG. 99 is a view for explaining an example of calculating a spatial correlation.
  • FIG. 100 is a diagram illustrating an example of calculating a time correlation.
  • FIG. 101 is a diagram for explaining temporal correlation and spatial correlation in a stationary region.
  • FIG. 102 is a diagram for explaining the temporal correlation and the spatial correlation in the motion area.
  • FIG. 103 is a diagram illustrating an example of an input image.
  • FIG. 104 is a diagram illustrating a result of determining a moving area or a still area for each pixel.
  • FIG. 105 is a diagram illustrating a result of determining a motion area or a still area using a block of 15 pixels ⁇ 15 pixels as a unit.
  • FIG. 106 is a diagram showing a result of determination of a foreground area, a background area, a covered background area, and an covered background area.
  • FIG. 107 is a flowchart illustrating the process of area determination using a component signal.
  • FIG. 108 is a diagram illustrating an embodiment of an image processing apparatus that calculates a mixture ratio based on an input image and area information input as a component signal.
  • FIG. 109 is a diagram showing the relationship of the mixing ratio in each component.
  • FIG. 110 is a flowchart illustrating a process of calculating a mixture ratio using a component signal.
  • FIG. 11 is a diagram illustrating another embodiment of the image processing apparatus that calculates the mixture ratio based on the input image and the area information input as the component signals.
  • FIG. 112 is a flowchart for explaining another process of calculating the mixture ratio using the component signal.
  • FIG. 113 is a diagram showing still another embodiment of the image processing apparatus for calculating the mixture ratio based on the input image and the area information input as the component signal.
  • FIG. 114 is a block diagram showing the configuration of the mixture ratio calculation unit 14421.
  • Figure 115 shows the input image and area information input as component signals. Based on this, still another process for calculating the mixing ratio will be described.
  • FIG. 1 is a diagram showing an embodiment of an image processing apparatus according to the present invention.
  • the CPU (Central Processing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a storage unit 28.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 25 is connected to the CPU 21 via a bus 24.
  • the input / output interface 25 is connected to an input unit 26 including a keyboard, a mouse, and a microphone, and an output unit 27 including a display, a speaker, and the like.
  • the CPU 21 executes various processes in response to a command input from the input unit 26. Then, the CPU 21 outputs an image, a sound, and the like obtained as a result of the processing to the output unit 27.
  • the storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk, and the c communication unit 29 for storing programs to be executed by the CPU 21 and various types of data. Communicate with external devices via the network.
  • the communication unit 29 functions as an acquisition unit that captures the output of the sensor c.
  • the program may be acquired via the communication unit 29 and stored in the storage unit 28 c.
  • the drive 30 connected to the drive drives the magnetic disk 51, the optical disk 52, the magneto-optical disk 53, or the semiconductor memory 54 when they are mounted, and drives the programs and the programs recorded there. Acquire data etc.
  • the acquired programs and data are transferred to and stored in the storage unit 28 as necessary.
  • FIG. 2 is a block diagram illustrating the image processing apparatus.
  • each function of the image processing device is realized by hardware or software. It does not matter if it appears. That is, each block diagram in this specification may be considered as a block diagram of hardware or a functional block diagram by software.
  • an image to be imaged that corresponds to an object in the real world is referred to as an image object.
  • the input image supplied to the image processing apparatus is supplied to an object extracting unit 101, a region specifying unit 103, a mixture ratio calculating unit 104, and a foreground / background separating unit 105.
  • the object extraction unit 101 roughly extracts an image object corresponding to the foreground object included in the input image, and supplies the extracted image object to the motion detection unit 102.
  • the object extraction unit 1. 1 roughly extracts the image object corresponding to the foreground object, for example, by detecting the outline of the image object corresponding to the foreground object included in the input image.
  • the object extraction unit 101 roughly extracts an image object corresponding to a background object included in the input image, and extracts the extracted image object from the motion detection unit.
  • the object extracting unit 101 roughly extracts, for example, an image object corresponding to the background object from a difference between the input image and the extracted image object corresponding to the extracted foreground object. .
  • the object extracting unit 101 determines the image object corresponding to the foreground object from the difference between the background image stored in the background memory provided therein and the input image.
  • the image object corresponding to the background object may be roughly extracted.
  • the motion detection unit 102 detects the motion vector of the image object corresponding to the coarsely extracted foreground object by using a method such as a block matching method, a gradient method, a phase correlation method, or a perrecursive method. After calculating, the calculated motion vector and the position information of the motion vector (information for specifying the position of the pixel corresponding to the motion vector) are stored in the area specifying unit 103 and the motion blur adjusting unit 106. Supply.
  • a method such as a block matching method, a gradient method, a phase correlation method, or a perrecursive method.
  • the motion vector output by the motion detection unit 102 includes information corresponding to the motion amount V. Further, for example, the motion detection unit 102 may output the motion vector for each image object to the motion blur adjustment unit 106 together with the pixel position information for specifying the pixel in the image object. .
  • the motion amount V is a value representing a change in the position of the image corresponding to the moving object in units of pixel intervals. For example, when the image of an object corresponding to the foreground is moving so that it is displayed at a position separated by 4 pixels in the next frame with respect to a certain frame, the amount of motion of the image of the object corresponding to the foreground V is assumed to be 4.
  • the object extracting unit 101 and the motion detecting unit 102 are necessary when adjusting the amount of motion blur corresponding to a moving object.
  • the area specifying unit 103 specifies each of the pixels of the input image as one of a foreground area, a background area, and a mixed area, and for each pixel, any one of a foreground area, a background area, and a mixed area.
  • information indicating belongs to (hereinafter, region information hereinafter) to the mixture-ratio calculator 1 0 4, a foreground portion 1 0 5, and the motion-blur adjusting unit 1 0 6 supplies c mixture-ratio calculator 1 0 4 Calculates a mixture ratio (hereinafter, referred to as a mixture ratio a) corresponding to the pixels included in the mixture region 63 based on the input image and the region information supplied from the region identification unit 103.
  • the foreground / background separation unit 105 generates an image corresponding to the foreground object based on the region information supplied from the region identification unit 103 and the mixture ratio Ot supplied from the mixture ratio calculation unit 104.
  • the input image is separated into a foreground component image composed of only the components (hereinafter, also referred to as foreground components) and a background component image composed of only the background components. Supply to part 107. It is also conceivable to use the separated foreground component image as the final output. Identify only the foreground and background without considering the conventional mixed area, and obtain more accurate foreground and background compared to the separated method Can be done.
  • the motion-blur adjusting unit 106 determines a processing unit indicating one or more pixels included in the foreground component image based on the motion amount V and the area information known from the motion vector.
  • the processing unit is data that specifies a group of pixels to be processed for adjusting the amount of motion blur.
  • the motion blur adjustment unit 106 includes a motion blur adjustment amount input to the image processing apparatus, a foreground component image supplied from the foreground / background separation unit 105, and a motion vector supplied from the motion detection unit 102.
  • the motion included in the foreground component image such as removing the motion blur included in the foreground component image, reducing the amount of motion blur, or increasing the amount of motion blur, based on the The amount of blur is adjusted, and the foreground component image in which the amount of motion blur is adjusted is output to the selector 107.
  • the motion vector and its position information may not be used.
  • the motion blur refers to a distortion included in an image corresponding to a moving object, which is caused by the movement of the object in the real world to be imaged and the characteristics of the sensor imaging. .
  • the selection unit 107 includes, for example, a foreground component image supplied from the foreground / background separation unit 105 and a motion supplied from the motion blur adjustment unit 106 based on a selection signal corresponding to the user's selection.
  • a foreground component image supplied from the foreground / background separation unit 105 and a motion supplied from the motion blur adjustment unit 106 based on a selection signal corresponding to the user's selection.
  • One of the foreground component images whose blur amount has been adjusted is selected, and the selected foreground component image is output.
  • FIG. 3 is a diagram illustrating imaging by a sensor.
  • the sensor is constituted by, for example, a CCD video camera equipped with a CCD (Charge-Coupled Device) area sensor which is a solid-state image sensor.
  • the object 111 corresponding to the foreground in the real world moves horizontally between the sensor 112 corresponding to the background in the real world and the sensor. For example, the object moves horizontally from the left side to the right side in the figure.
  • the sensor detects the object 1 1 1 corresponding to the foreground and the object 1 1 corresponding to the background.
  • G The sensor outputs the captured image in units of one frame.
  • C For example, the sensor outputs an image composed of 30 frames per second.
  • the exposure time of the sensor can be 1 Z 30 seconds.
  • the exposure time is the period from when the sensor starts converting the input light into electric charge until the sensor finishes converting the input light into electric charge.
  • the exposure time is also referred to as shirt time.
  • FIG. 4 is a diagram illustrating the arrangement of pixels.
  • a to I indicate individual pixels.
  • the pixels are arranged on a plane corresponding to the image.
  • One detection element corresponding to one pixel is arranged on the sensor.
  • one detection element When the sensor captures an image, one detection element outputs a pixel value corresponding to one pixel forming the image.
  • the position of the detection element in the X direction corresponds to the position in the horizontal direction on the image
  • the position of the detection element in the Y direction corresponds to the position in the vertical direction on the image.
  • a detection element such as a CCD converts input light into electric charges and accumulates the converted electric charges for a period corresponding to the shutter time.
  • the amount of charge is approximately proportional to the intensity of the input light and the time the light is input.
  • the detection element adds the electric charge converted from the input light to the electric charge already stored during a period corresponding to the shutter time. That is, the detection element integrates the input light for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. It can be said that the detection element has an integration effect with respect to time.
  • the electric charge accumulated in the detection element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output. Therefore, the individual pixel values output from the sensor are the values projected onto a one-dimensional space, which is the result of integrating the spatially extended part of the object corresponding to the foreground or background over the shirt time. Having.
  • the image processing device extracts significant information buried in the output signal, for example, the mixture ratio by the accumulation operation of the sensor.
  • the image processing device adjusts the amount of distortion caused by mixing of the foreground image objects themselves, for example, the amount of motion blur.
  • the image processing device is configured to use the foreground image object and the background. It adjusts the amount of distortion caused by mixing with the image object.
  • FIG. 6A is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 6B is a diagram illustrating a model corresponding to an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 6A shows an image obtained by capturing an object corresponding to a foreground with motion and an object corresponding to a stationary background.
  • the object corresponding to the foreground moves horizontally from left to right with respect to the screen.
  • FIG. 6B is a model diagram in which pixel values corresponding to one line of the image shown in FIG. 6A are expanded in the time direction.
  • the horizontal direction in Fig. 6B corresponds to the spatial direction X in Fig. 6A.
  • the pixels in the background area are the background components, that is, the pixel values from only the components of the image corresponding to the background object. Is configured.
  • the pixel values of the pixels in the foreground area are composed of only the components of the foreground, that is, the components of the image corresponding to the foreground object.
  • the pixel value of a pixel in the mixed area is composed of a background component and a foreground component. Since the pixel value is composed of the background component and the foreground component, the mixed region can be said to be a distorted region.
  • the mixed area is further classified into a covered back dark area and an uncovered background area.
  • the covered background area is a mixed area at a position corresponding to the front end of the foreground object in the traveling direction with respect to the foreground area, and is an area where the background component is covered by the foreground with the passage of time. .
  • the uncovered background area is a mixed area at the position corresponding to the rear end of the foreground object in the traveling direction with respect to the foreground area. The area that appears.
  • FIG. 7 is a diagram illustrating the background area, foreground area, mixed area, covered backdrop area, and uncovered background area as described above.
  • the background area is a stationary part
  • the foreground area is a moving part
  • the covered background area of the mixed area is a part that changes from the background to the foreground.
  • the uncovered background area of the area is the part that changes from the foreground to the background.
  • Fig. 8 shows the timewise expansion of the pixel values of the pixels that are arranged in a row and adjacent to each other in the images of the object corresponding to the stationary foreground and the object corresponding to the stationary background. It is a model figure. For example, it is possible to select pixels that are arranged on one line of the screen as pixels that are adjacently arranged in one column.
  • the pixel values of F01 to F04 shown in FIG. 8 are the pixel values of the pixels corresponding to the stationary foreground object.
  • the pixel values B01 to B04 shown in FIG. 8 are the pixel values of the pixels corresponding to the stationary background object.
  • the horizontal direction in FIG. 8 corresponds to the spatial direction X described in FIG. 6A. More specifically, in the example shown in FIG. 8, the distance from the left side of the rectangle described as “F01” to the right side of the rectangle described as “B04” in FIG. Double, that is, the interval between eight consecutive pixels.
  • the shirt In the period corresponding to the time, the light input to the sensor does not change.
  • the period corresponding to the shutter time is divided into two or more periods of the same length.
  • the model diagram shown in FIG. 8 can be represented as a model shown in FIG.
  • the number of virtual divisions is set according to the amount of movement V of the object corresponding to the foreground within the shutter time.
  • the number of virtual divisions is set to 4 corresponding to the motion amount V of 4, and the period corresponding to the shutter time is divided into four.
  • the top row in the figure corresponds to the first, divided period since the shirt opened.
  • the second row from the top in the figure corresponds to the second, divided period when the shirt is open.
  • the third row from the top in the figure corresponds to the third, divided period since the shirt opened.
  • the fourth row from the top in the figure corresponds to the fourth, divided period since the shirt opened.
  • the shirt time divided according to the movement amount V is also referred to as shirt time / v.
  • the foreground component FO l / v is equal to the value obtained by dividing the pixel value F01 by the number of virtual divisions.
  • the foreground component F02 / v is equal to the value obtained by dividing the pixel value F02 by the number of virtual divisions
  • the foreground component F03 / v is obtained by dividing the pixel value F03 by the pixel value F03.
  • the foreground component F04 / v is equal to the value obtained by dividing the pixel value F04 by the number of virtual divisions.
  • the background component BOl / v is equal to the value obtained by dividing the pixel value B01 by the number of virtual divisions.
  • the background component BOl / v is equal to the value obtained by dividing the pixel value B01 by the number of virtual divisions.
  • B02 / V is equal to the pixel value B02 divided by the virtual division number
  • B03 / v is equal to the pixel value B03 divided by the virtual division number
  • B04 / V is the pixel value B04 by the virtual division number. Equal to the value divided by.
  • the light corresponding to the background object input to the sensor does not change during the period corresponding to the shirt time, so the first The background component BO l / v corresponding to V, and the background component BO l / v corresponding to the second opening of the shirt, and the third background component BO l / v corresponding to the shirt time / V
  • the corresponding background component BO l / v has the same value as the background component BO l / v corresponding to the fourth shutter opening time / V when the shutter is opened.
  • B02 / v to B04 / v also have the same relationship.
  • Figure 10 is a model diagram in which the pixel values of the pixels on one line, including the covered background area, are expanded in the time direction when the object corresponding to the foreground moves to the right in the figure. It is.
  • the foreground motion amount V is 4. Since one frame is short, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed.
  • the image of the object corresponding to the foreground moves so as to be displayed four pixels to the right in the next frame with respect to a certain frame.
  • the leftmost pixel to the fourth pixel from the left belong to the foreground area.
  • the fifth through seventh pixels from the left belong to the mixed area that is the covered background area.
  • the rightmost pixel belongs to the background area. Since the object corresponding to the foreground moves so as to obscure the object corresponding to the background over time, the components included in the pixel values of the pixels belonging to the covered background area correspond to the shutter time. At some point during the period, the background component changes to the foreground component.
  • a pixel value M indicated by a thick line frame in FIG. 10 is represented by Expression (1).
  • the fifth pixel from the left contains the background component corresponding to one shirt time / V and the foreground component corresponding to three shirt times / V, so the fifth pixel from the left is mixed The ratio is 1/4.
  • the sixth pixel from the left contains the background component corresponding to the two shirt times / v and the foreground component corresponding to the two shirt times / V, so the mixture ratio of the sixth pixel from the left Is 1/2.
  • the seventh pixel from the left contains the background component corresponding to three shutter times / V and the foreground component corresponding to one shutter time / V, so the mixture ratio a of the seventh pixel from the left a Is 3/4.
  • the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so that it is displayed four pixels to the right in the next frame, for example, from the left in Fig. 10
  • the fifth pixel from the left in Figure 10 is the second at the time of the shirt at the open time.
  • the foreground component F07 / v is the foreground component of the sixth pixel from the left in Fig. 10 corresponding to the third shirt time / v when the shirt is open, and the left in Fig. 10
  • the foreground components corresponding to the fourth shutter time / v from the shutter opening of the seventh pixel to the seventh pixel, respectively, are equal to each other.
  • the foreground component F06 / v of the first pixel is the fourth pixel from the left in Fig. 10; Equal to the foreground component corresponding to the th shirt time / v.
  • the foreground component F06 / v is the fifth pixel from the left in Fig. 10, the foreground component corresponding to the third shirt time / v when the shirt is open, and the left in Fig. 10
  • the sixth pixel is equal to the foreground component corresponding to the fourth shirt time / V when the shirt opens.
  • the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so that it is displayed four pixels to the right in the next frame, for example, from the left in Fig. 10
  • the foreground component F05 / v is the foreground component of the fourth pixel from the left in Fig. 10 corresponding to the third shirt time / v when the shirt is opened, and the left in Fig. 10 From the fifth pixel, the shirt is open and the fourth shirt is equal to the foreground component corresponding to time / v, respectively.
  • the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so that it is displayed four pixels to the right in the next frame, for example, the leftmost object in Fig. 10
  • the foreground component F04 / v of the pixel in which the shirt is open and the first shirtta time / V, is the foreground corresponding to the second pixel from the left in Fig. 10, in which the shirt is open and the second shirtta time / V Is equal to the component of
  • the foreground component F04 / v is the foreground component of the third pixel from the left in Fig.
  • the foreground area corresponding to the moving object includes the motion blur as described above, it can be said that the area is a distortion area.
  • FIG. 11 is a model diagram in which pixel values of pixels on one line, including the uncovered background area, are developed in the time direction when the foreground moves toward the right side in the figure.
  • the motion amount V of the foreground is 4.
  • the image of the object corresponding to the foreground moves to the right by four pixels in the next frame with respect to a certain frame.
  • the leftmost pixel to the fourth pixel from the left are Belongs to the background area.
  • the fifth to seventh pixels from the left belong to the mixed area that is the uncovered background.
  • the rightmost pixel belongs to the foreground area.
  • the pixels belonging to the uncovered background area At some point during the period that corresponds to the shirt time, the components included in the values change from the foreground components to the background components.
  • a pixel value M ′ with a thick frame in FIG. 11 is represented by Expression (2).
  • the fifth pixel from the left contains the background component corresponding to three shirt times / V and the foreground component corresponding to one shirt time / V, so the fifth pixel from the left is mixed
  • the ratio is 3/4.
  • the sixth pixel from the left contains the background component corresponding to the two shutter times / V and the foreground component corresponding to the two shutter times / v, so the mixing ratio of the sixth pixel from the left is Is 1/2. Since the seventh pixel from the left contains a background component corresponding to one shutter time / V and a foreground component corresponding to three shutter times / V, the mixture ratio of the seventh pixel from the left is , 1/4.
  • h is the mixing ratio.
  • B is the pixel value of the background
  • Fi / v is the component of the foreground. Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the amount of movement V is 4, for example, the shirt of the fifth pixel from the left in Fig. 11 opens.
  • the foreground component FO l / v of the first shutter time / V is equal to the foreground component of the sixth pixel from the left in Fig. 11 corresponding to the second shutter time / V when the shutter is opened.
  • FO l / v is the foreground component of the seventh pixel from the left in Fig. 11 corresponding to the third shutter time / V when the shutter is open
  • the eighth pixel from the left in Fig. 11 Pixel is equal to the foreground component corresponding to the fourth shutter time / V after the shutter is opened.
  • the first foreground component F02 / v of the shutter time / V is equal to the foreground component of the seventh pixel from the left in FIG. 11 corresponding to the second shutter time / V from when the shutter is opened.
  • the foreground component F02 / v is equal to the foreground component of the eighth pixel from the left in FIG. 11 corresponding to the third shirt time / V when the shirt is opened.
  • the shirt of the seventh pixel from the left in Fig. 11 opens.
  • the first foreground component F03 / v of the shirt time / V is equal to the foreground component of the eighth pixel from the left in FIG. 11 corresponding to the second shutter time / V when the shutter is opened.
  • the number of virtual divisions has been described as four, but the number of virtual divisions corresponds to the amount of motion V.
  • the motion amount V generally corresponds to the moving speed of the object corresponding to the foreground. For example, when the object corresponding to the foreground is moving so as to be displayed four pixels to the right in the next frame with respect to a certain frame, the motion amount V is set to 4.
  • the number of virtual divisions is four.
  • the motion amount V is set to 6, and the virtual division is performed.
  • the number is six.
  • Figs. 12 and 13 show the mixed area consisting of the foreground area, background area, covered background area or uncovered background area, and the foreground component and background corresponding to the divided shutter time. This shows the relationship with the components.
  • Figure 12 shows an example of extracting pixels in the foreground, background, and mixed regions from an image containing the foreground corresponding to an object moving in front of a stationary background.
  • the object indicated by A and corresponding to the foreground moves horizontally with respect to the screen.
  • Frame # n + l is the next frame after frame ttn
  • frame # n + 2 is the next frame after frame # n + l.
  • the pixel value in the foreground area is composed of four different foreground components corresponding to the time / V period, since the object corresponding to the foreground moves.
  • the leftmost pixel of the pixels in the foreground area shown in FIG. 13 is
  • pixels in the foreground area include motion blur.
  • the pixel value in the background area does not include motion blur.
  • a pixel value of a pixel belonging to a mixed area composed of a covered background area or an uncovered background area is composed of a foreground component and a background component.
  • FIG. 4 is a model diagram developed in the time direction. The frame is the next frame after frame ttn-1, and frame # n + l is the next frame after frame ftn. Other frames are similarly referred to.
  • the pixel values B01 to B12 shown in FIG. 14 are the pixel values of the pixels corresponding to the stationary background object. Since the object corresponding to the background is stationary, the pixel values of the corresponding pixels do not change from frame ttn-1 to frame n + 1. For example, the pixel in the frame ftn and the pixel in the frame corresponding to the position of the pixel having the pixel value of B05 in the frame # n-l have the pixel value of B05.
  • FIG. 15 shows three adjacent pixels of three frames of an image of the object corresponding to the foreground moving to the right in the figure together with the object corresponding to the stationary background.
  • FIG. 9 is a model diagram in which pixel values of pixels at the same position on a frame are developed in the time direction.
  • the model shown in FIG. 15 includes a covered background region.
  • Fig. 15 it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed, and the foreground image moves so that it is displayed four pixels to the right in the next frame.
  • the motion amount V is 4, and the number of virtual divisions is 4.
  • the foreground component of the pixel at the second shutter opening time / V when the shutter opens is also F 12 / v.
  • the fourth pixel from the left in Figure 15 is the fourth pixel from the left pixel
  • the foreground component of the shirt time / V is F12 / v.
  • the foreground component of the leftmost pixel in frame #nl in Fig. 15 and the third shutter time / V from when shutter is opened is FlO / v
  • the second pixel from the left in Fig. 15 is Flo / v
  • the foreground component of the fourth shutter time / V when the shutter is open is also FlO / v.
  • Figure 15 The leftmost pixel of frame # n-1 in frame 5, the fourth shutter with the shutter open
  • the foreground component of the data time / V is F09 / v.
  • the background component of the second pixel from the left of frame-1 in Fig. 15 at the first shutter time / V after the shutter is opened is BOl / v .
  • the background components of the third pixel from the left of frame # n-l in Fig. 15 at the first and second shutter / V when shutter is opened are B02 / v.
  • the background components of the first to third shirt / time from the shutter opening of the fourth pixel from the left of frame # n-l in FIG. 15 from the left are B03 / v.
  • the leftmost pixel belongs to the foreground area, and the second to fourth pixels from the left belong to the mixed area that is the covered background area.
  • the fifth through 12th pixels from the left of frame ⁇ 1 in FIG. 15 belong to the background area, and their pixel values are respectively # 04 through B11.
  • the first to fifth pixels from the left of frame ⁇ in FIG. 15 belong to the foreground area.
  • the foreground component of the shirt time / V in the foreground area of the frame ⁇ is one of F05 / to F12 / v.
  • the shutter of the fifth pixel from the left The foreground component of the plotter time / v is F12 / v.
  • the foreground component of the sixth pixel from the left in FIG. Becomes The foreground component of the seventh pixel from the left in Fig. 15 at shutter open / third shutter release time / V, and the fourth pixel of the eighth pixel from left in Fig. 15
  • the foreground component of the shirt time / V is F12 / v.
  • the foreground component of the fifth pixel from the left of frame #n in Fig. 15 at shutter release / second shutter release time / V is Fl l / v
  • the sixth pixel from the left in Fig. 15 The foreground component of the pixel, which is the third shirt time / V when the shirt is opened, is also Fl l / v.
  • the foreground component of the seventh pixel from the left in Fig. 15 at the fourth shutter time / v when the shutter is open is Fl l / v.
  • the foreground component of the fifth pixel from the left of frame #n in Fig. 15 in which the shirt is open and the third shirt time / V is FlO / v is the sixth pixel from the left in Fig. 15
  • the raw, foreground component of the fourth shirt time / V when the shirt is open is also FLO / v.
  • the foreground component of the fifth pixel from the left of frame tin in Figure 15 from the left, which is the fourth shirt time / V after the shirt is opened, is F09 / v.
  • the background component of the sixth pixel from the left of frame ⁇ in Fig. 15 at the first shutter time / V after the shutter has opened is ⁇ 05 / ⁇ .
  • the background component of the seventh pixel from the left of frame # ⁇ in FIG. 15 at the first and second shirt time / ⁇ from the opening of the shirt is ⁇ 06 / ⁇ .
  • the background component of the first to third shirt-time / V in the eighth pixel from the left of frame ⁇ in Fig. 15 from the left is B07 / V.
  • the ninth to 12th pixels from the left of the frame in FIG. 15 belong to the background area, and the pixel values are 08 to B11, respectively.
  • the first through ninth pixels from the left of frame ⁇ + l in FIG. 15 belong to the foreground area.
  • the foreground component of the shirt time / V Is any of FOl / v to F12 / v.
  • the foreground component of the ninth pixel from the left of + l and the first shutter time / V from when the shutter is opened is F12 / v
  • the shutter of the 1 ⁇ th pixel from the left in Figure 15 is
  • the foreground component of the second Zeta time / V after opening is also F12 / v.
  • the foreground component of the fourth shutter time / V is F12 / v.
  • the foreground component of the ninth pixel from the left of frame ⁇ + l in Fig. 15 in the period of the second shirt time / V when the shutter is open is Fll / v.
  • the foreground component of the 0th pixel at the third shutter time / V after the shutter is opened also becomes Fll / v.
  • the foreground component of the first pixel from the left, which is the fourth pixel when the shirt is opened, and the fourth time, the shirt time / V is Fll / v.
  • the foreground component of the ninth pixel from the left of frame # n + l in Fig. 15 from the left, the third position of the shirt from the left, and the foreground of the shirt time / V is FlO / v.
  • the foreground component of the 0th pixel, at the fourth shutter time / V after the shutter is opened, is also FlO / v.
  • the foreground component of the ninth pixel from the left of frame ⁇ + l in Fig. 15 at the fourth shutter time / V when the shutter is open is F09 / v.
  • the background component of the 10th pixel from the left of frame # ⁇ + 1 in Fig. 15 corresponding to the first shutter time / V after the shutter has opened is B09 / V.
  • the background components of the first pixel from the left of frame # ⁇ + 1 in FIG. 15 corresponding to the first and second shutter time / V from when the shutter has opened are ⁇ / ⁇ .
  • the background components of the 1st to 3rd pixels from the left of the first pixel of the frame ⁇ + 1 in FIG. 15 ⁇ + 1, the first to the third pixels, and the background component of the shirt time / V are Bll / v.
  • FIG. 16 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.
  • Figure 17 shows the pixels that are adjacent to each other and are arranged in a single row in the three frames of the image that captures the foreground corresponding to the object that moves to the right in the figure together with the stationary background.
  • FIG. 5 is a model diagram in which pixel values of pixels at the same position are developed in the time direction. In FIG. 17, an uncovered background area is included.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed. Since the object corresponding to the foreground is moving so that it is displayed four pixels to the right in the next frame, the motion amount V is 4, for example, the most significant amount of frame #nl in Fig.
  • the time / V foreground component is also F13 / v.
  • the foreground component of the shirt time / V is F13 / v.
  • the foreground component of the second pixel from the left in frame # n-1 in Fig. 17 at the first shutter release time / V after shutter release is F14 / v
  • the third pixel from the left in Fig. 17 The foreground component of the pixel's second shirt time / V when the shirt is opened is also F14 / v.
  • the foreground component of the shirt time / v, which is the first pixel when the shirt opens, is F15 / v.
  • the background components of the third and fourth shirts time / V after the shutter is opened are ⁇ 26 / ⁇ .
  • the background component of the third pixel from the left of frame ⁇ -l in Fig. 17 at the fourth shutter time / ⁇ from the opening of the shutter is ⁇ 27 / ⁇ .
  • the leftmost pixel to the third pixel are It belongs to the mixed area which is the covered background area.
  • the fourth to 12th pixels from the left of frame # n-1 in FIG. 17 belong to the foreground area.
  • the foreground component of the frame is one of F13 / v to F2Vv.
  • the leftmost pixel to the fourth pixel from the left in the frame in FIG. 17 belong to the background area, and the pixel values are # 25 to # 28, respectively.
  • the foreground component of the seventh pixel from the left in Figure 17, the third pixel at the time of opening, and the foreground component of the seventh pixel from the left in Figure 17, the fourth pixel of the pixel at the eighth pixel from the left in Figure 17 The foreground component of the shirt time / V is F13 / v.
  • the foreground component of the sixth shutter pixel from the left in frame # ⁇ in Fig. 17 at the first shutter time / V after shutter opening is F / v
  • the foreground component of the second shutter time / V when the shutter is open is also F14 / v
  • the foreground component is F 15 / v.
  • the background component of the fifth pixel from the left of frame #n in Fig. 17 and the second to fourth shirtta time / V of the shirt from the left is the following: B29 / v.
  • the background components of the sixth pixel from the left of the frame in Fig. 17 corresponding to the third and fourth shutter time / V from when the shutter has opened are B30 / v.
  • the background component of the seventh pixel from the left of the frame in Fig. 17 corresponding to the fourth shutter time / V after the shutter is opened is B31 / V.
  • the 8th to 12th pixels from the left of frame ⁇ in Fig. 17 are the foreground area Belongs to the area.
  • the value corresponding to the period of the shirt time / V in the foreground area of frame #n is one of F13 / v to F20 / v.
  • the leftmost pixel to the eighth pixel from the left of frame # n + 1 in FIG. 17 belong to the background area, and the pixel values are B25 to B32, respectively.
  • the foreground component of the 10th pixel from the left of frame # n + l in Fig. 17 at the first shutter release time / V after the shutter is opened is F14 / v
  • the 11th pixel from the left in Fig. 17 The foreground component of the pixel at the second shutter time / V after the shutter is opened is also F14 / V.
  • the foreground component of the first pixel from the left in the first pixel at the time when the shirt is opened is F15 / v.
  • the components of the ninth pixel from the left of frame # n + l in Fig. 17 and the background components of the 2nd to 4th, shirt time / v Becomes B33 / v.
  • the background components of the 10th pixel from the left of frame ⁇ + 1 in FIG. 17 at the 3rd and 4th shutter time / V from when the shutter has opened are ⁇ 34 / ⁇ .
  • the background component of the 11th pixel from the left of frame # ⁇ + 1 in Fig. 17 corresponding to the fourth portion of the shutter time / ⁇ from when the shutter has opened is ⁇ 35 / ⁇ .
  • the 12th pixel from the left of frame ⁇ + l in FIG. 17 belongs to the foreground area.
  • the foreground component of the shirt time / V is from F13 / v One of F16 / v.
  • FIG. 18 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.
  • the area specifying unit 103 uses the pixel values of a plurality of frames to set a flag indicating that the area belongs to the foreground area, background area, covered background area, or uncovered back-drop area.
  • the information is supplied to the mixture ratio calculation unit 1.4 and the motion blur adjustment unit 106 as region information in association with each other.
  • the mixture ratio calculation unit 104 calculates the mixture ratio a for each pixel for the pixels included in the mixed region based on the pixel values of a plurality of frames and the region information, and divides the calculated mixture ratio H into foreground / background separation. Supply to part 105.
  • the foreground / background separation unit 105 extracts a foreground component image consisting of only foreground components based on the pixel values, the area information, and the mixture ratio of the plurality of frames, and supplies the extracted foreground component image to the motion blur adjustment unit 106. .
  • the motion blur adjustment unit 106 is supplied from the foreground component image supplied from the foreground / background separation unit 105, the motion vector supplied from the motion detection unit 102, and the region identification unit 103. Based on the area information, the amount of motion blur included in the foreground component image is adjusted, and a foreground component image in which the amount of motion blur is adjusted is output.
  • step S11 the region specifying unit 103 determines whether each pixel of the input image belongs to any of the foreground region, the background region, the covered background region, or the covered background region based on the input image.
  • An area specifying process for generating area information indicating is executed. The details of the area specifying process will be described later.
  • the region specifying unit 103 supplies the generated region information to the mixture ratio calculating unit 104.
  • the area specifying unit 103 determines, for each pixel of the input image, a foreground area, a background area, or a mixed area (covered background area or uncovered background area) based on the input image.
  • Region information indicating whether the region belongs to or may be generated.
  • the scene / background separation unit 105 and the motion blur adjustment unit 106 determine whether the mixed area is a covered background area or an uncovered background area based on the direction of the motion vector. .
  • the mixed area is determined as a covered background area, and the mixed area is determined as the corresponding area of the motion vector.
  • the background area, the mixed area, and the foreground area, the mixed area is determined to be an covered background area.
  • step S12 the mixture ratio calculation unit 104 calculates a mixture ratio H for each pixel included in the mixture region based on the input image and the region information. The details of the mixture ratio calculation process will be described later.
  • the mixture ratio calculation unit 104 supplies the calculated mixture ratio H to the foreground / background separation unit 105.
  • step S13 the foreground / background separation unit 105 extracts a foreground component from the input image based on the region information and the mixture ratio H, and supplies the foreground component image to the motion blur adjustment unit 106. I do.
  • step S14 the motion-blur adjusting unit 106 determines, based on the motion vector and the area information, continuous pixels arranged in the motion direction, the uncovered background area, the foreground area, and the covered back area.
  • a processing unit indicating the position of an image belonging to one of the ground regions on the image is generated, and the amount of motion blur included in the foreground component corresponding to the processing unit is adjusted. The details of the processing for adjusting the amount of motion blur will be described later.
  • step S15 the image processing apparatus determines whether or not processing has been completed for the entire screen. If it is determined that processing has not been completed for the entire screen, the process proceeds to step S14, where the processing unit is determined. The process of adjusting the amount of motion blur for the foreground component corresponding to is repeated.
  • step S15 If it is determined in step S15 that the processing has been completed for the entire screen, the processing ends.
  • the image processing apparatus separates the foreground from the background, and The amount of ke can be adjusted. That is, the image processing apparatus can adjust the amount of motion blur included in the sample data that is the pixel value of the foreground pixel.
  • FIG. 20 is a block diagram showing an example of the configuration of the area specifying unit 103. As shown in FIG. The region specifying unit 103 whose configuration is shown in FIG. 20 does not use a motion vector.
  • the frame memory 201 stores the input image in frame units. When the processing target is a frame ⁇ , the frame memory 201 stores a frame # ⁇ -2 which is a frame immediately before the frame # ⁇ , and a frame # ⁇ - which is a frame immediately before the frame # ⁇ . 1.
  • the frame # ⁇ + 1, which is the frame after the frame # ⁇ , and the frame # ⁇ + 2, which is the frame after the frame # ⁇ , are stored.
  • the static / movement determining unit 202_1 includes the pixel value of the pixel of frame itn + 2 at the same position as the pixel on the image that is the target of the region identification of the frame, and the region identification target of the frame #n
  • the pixel value of the pixel of frame # n + 1 located at the same position as the pixel on the image is read from the frame memory 201, and the absolute value of the difference between the read pixel values is calculated.
  • the static / movement determining unit 202-2-1 determines whether or not the absolute value of the difference between the pixel value of frame +2 and the pixel value of frame ⁇ + 1 is greater than a preset threshold Th, When it is determined that the absolute value of the difference is larger than the threshold Th, a static / moving determination indicating a motion is supplied to the area determining unit 203-3-1. When it is determined that the absolute value of the difference between the pixel value of the pixel of frame # n + 2 and the pixel value of the pixel of frame # n + l is equal to or smaller than the threshold Th- Then, the still / moving judgment indicating the stillness is supplied to the area judging section 203-3-1.
  • the static / movement determining unit 202-2-2 calculates the pixel value of the pixel of the frame ⁇ + l at the same position as the pixel on the image, which is the target of specifying the region of the frame, and the pixel value of the target pixel of the frame t.
  • the pixel value is read from the frame memory 201, and the absolute value of the difference between the pixel values is calculated.
  • the static / movement determining unit 202-2-2 determines whether or not the absolute value of the difference between the pixel value of frame + ⁇ + l and the pixel value of frame # ⁇ is greater than a preset threshold Th.
  • a still / moving determination indicating a motion is supplied to the area determination section 203-3 and the area determination section 203-3-2.
  • the static / moving determination unit 20 22 The static determination shown is supplied to the area determination section 203-3-1 and the area determination section 203-3-2.
  • the static / movement determining unit 202-3 determines the pixel value of the pixel that is the target of specifying the area of the frame tin, and the frame ⁇ at the same position as the pixel on the image that is the target of specifying the area of the frame #n. -Read the pixel value of pixel 1 from the frame memory 201 and calculate the absolute value of the difference between the pixel values.
  • the static / movement determining unit 202-3 determines whether the absolute value of the difference between the pixel value of frame # ⁇ and the pixel value of frame # ⁇ -1 is greater than a predetermined threshold Th, When it is determined that the absolute value of the difference between the pixel values is larger than the threshold value Th, a still / moving determination indicating a motion is supplied to the region determination unit 203-3-2 and the region determination unit 203-3-3.
  • the static / movement determining unit 202-2-3 When it is determined that the absolute value of the difference between the pixel value of the pixel of the frame and the pixel value of the pixel of the frame ⁇ -1 is equal to or smaller than the threshold Th, the static / movement determining unit 202-2-3 indicates a still state The static motion determination is supplied to the area determination section 203 and the area determination section 203-3.
  • the static / movement determining unit 202-4 determines the pixel value of the pixel of the frame ⁇ -l at the same position as the pixel on the image that is the target of the region identification of the frame ttn, and the region identification target of the frame ttn.
  • the pixel value of the pixel of frame # ⁇ -2 at the same position as the position of the certain pixel on the image is read from the frame memory 201, and the absolute value of the difference between the pixel values is calculated.
  • the static / movement determining unit 202-4 determines whether the absolute value of the difference between the pixel value of frame ttn-1 and the pixel value of frame # ⁇ -2 is greater than a preset threshold Th.
  • the static / movement determination indicating the movement is supplied to the area determination unit 203-3-3. If it is determined that the absolute value of the difference between the pixel value of the pixel of frame #nl and the pixel value of frame ⁇ ⁇ 2 is equal to or smaller than the threshold Th, the static / movement determination unit 202-2-4 The static / movement determination indicating the stationary state is supplied to the area determination unit 203-3-3.
  • the area determination unit 203--1 indicates that the static / movement determination supplied from the static / movement determination unit 202-1 is stationary, and that the static / dynamic determination supplied from the static / movement determination unit 2 ⁇ 2_2 Indicates that the pixel of the frame in which the area is to be specified belongs to the uncovered background area, and the uncovered background area determination flag corresponding to the pixel determined as the area indicates that the pixel is uncovered. Set "1" to indicate that it belongs to the background area.
  • the region determination unit 203-3 is configured to determine whether the static / dynamic determination supplied from the static / dynamic determination unit 202-1 indicates movement, or to determine whether or not the static / dynamic determination is supplied from the static / dynamic determination unit 202-2-2. When the determination indicates stillness, it is determined that the pixel for which the area is specified in frame # ⁇ does not belong to the uncovered background area, and the uncovered background area corresponding to the pixel whose area is determined is determined. Set the flag to "0" to indicate that it does not belong to the uncovered background area.
  • the area determination unit 203-3-1 supplies the anchored background area determination flag set to "1" or "0" to the determination flag storage frame memory 204.
  • the area determination unit 203-3-2 is a static / dynamic determination supplied from the static / dynamic determination unit 202_2, indicating a static state, and the static / dynamic determination supplied from the static / dynamic determination unit 202-3. Indicates that the pixel in the frame ⁇ , which is the target of the area identification, belongs to the still area, and the still area determination flag corresponding to the pixel whose area is determined indicates that the pixel belongs to the still area. ” Set 1 ".
  • the area determination unit 203-3-2 is configured to determine whether the static / dynamic determination supplied from the static / dynamic determination unit 202-2 indicates movement, or to determine whether the static / dynamic determination is supplied from the static / dynamic determination unit 202-3. When the determination indicates a motion, it is determined that the pixel for which the region is specified in the frame does not belong to the still region, and the pixel does not belong to the still region in the still region determination flag corresponding to the pixel whose region is determined. Is set to "0".
  • the area determination unit 203-3-2 supplies the stationary area determination flag set to "1" or "0" to the determination flag storage frame memory 204.
  • the area determination unit 203-3-2 indicates that the static / movement determination supplied from the static / movement determination unit 202-2 indicates a motion, and the static / dynamic determination supplied from the static / movement determination unit 202-3.
  • the area determination unit 203-3-2 is configured to determine whether the static / movement determination supplied from the static / movement determination unit 202-2 is stationary, or the static / dynamic determination supplied from the static / movement determination unit 202-3. When the determination indicates stillness, it is determined that the pixel for which the area is specified in the frame ttn does not belong to the moving area, and the pixel does not belong to the moving area in the moving area determination flag corresponding to the pixel whose area is determined. Is set to '' 0 ''.
  • the area determination unit 203-3-2 supplies the motion area determination flag in which "1" or "0" is set to the determination flag storage frame memory 204.
  • the area determination section 203-3 indicates that the static / motion determination supplied from the static / movement determination section 202-3 indicates movement, and the static / dynamic determination supplied from the static / movement determination section 202-4. Indicates that the pixel in the frame ttn that is the target of the area identification belongs to the covered background area, and the covered background area determination flag corresponding to the pixel whose area is determined is included in the covered background area. Set "1" to indicate that it belongs to the area.
  • the area determination unit 203-3 is configured to determine whether the static / dynamic determination supplied from the static / dynamic determination unit 202-3 indicates stationary or the static / dynamic determination supplied from the static / dynamic determination unit 202-4. When the determination indicates a motion, it is determined that the pixel for which the area is specified in the frame #n does not belong to the covered background area, and the covered background area determination flag corresponding to the pixel whose area is determined is set. Set to "0" to indicate that it does not belong to the covered background area.
  • the area determination unit 203-3-3 supplies the covered background area determination flag in which "1" or "0" has been set to the determination flag storage frame memory 204.
  • the determination flag storage frame memory 204 includes an uncovered background area determination flag supplied from the area determination section 203-3, a still area determination flag supplied from the area determination section 203-3-2, and area determination.
  • the moving area determination flag supplied from the section 203-3-2 and the covered background area determination flag supplied from the area determining section 203-3 are stored.
  • the determination flag storage frame memory 204 supplies the stored uncovered background area determination flag, stationary area determination flag, moving area determination flag, and force bird background area determination flag to the synthesis unit 205.
  • the synthesis unit 205 determines the uncovered background area determination flag, the still area determination flag, the motion area determination flag, and the covered background area determination flag supplied from the determination flag storage frame memory 204. Then, area information indicating that each pixel belongs to any of the uncovered background area, the still area, the moving area, and the covered background area is generated and supplied to the determination flag storage frame memory 206.
  • the determination flag storage frame memory 206 stores the area information supplied from the synthesizing unit 205 and outputs the stored area information.
  • Figure 22 shows a model diagram in which the pixel values of pixels arranged in a row adjacent to the motion direction of the image corresponding to the foreground object are developed in the time direction.
  • the model diagram in Fig. 22 shows a model in which the pixel values of adjacent pixels on one line are expanded in the time direction. Is shown.
  • the line at frame #n is the line at frame ttn + 1. Is the same as
  • the foreground components corresponding to the objects included in the second to 13th pixels from the left are the sixth to 17th pixels from the left in frame # ⁇ + 1. included.
  • the pixels belonging to the covered background area are the 11th to 13th pixels from the left, and the pixels belonging to the uncovered background area are the 2nd to 4th pixels from the left .
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left, and the pixels belonging to the uncovered background area are the 6th to 8th pixels from the left. is there.
  • the foreground component included in the frame ⁇ ! ⁇ is moved by four pixels in the frame # ⁇ + 1, so the motion amount V is 4.
  • the virtual division number is 4 corresponding to the motion amount V.
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left. Since the motion amount V is 4, in the previous frame # ⁇ -1, the 15th to 17th pixels from the left include only background components and belong to the background area. Further, in the immediately preceding frame ttn-2, the fifteenth through seventeenth pixels from the left include only background components and belong to the background region.
  • the pixel value of the 15th pixel from the left of frame ⁇ _1 is calculated from the pixel value of the 15th pixel from the left of frame # ⁇ -2. It does not change.
  • the pixel value of the 16th pixel from the left of frame ⁇ -l does not change from the pixel value of the 16th pixel from the left of frame-2, and the 17th pixel from the left of frame-1 The pixel value of does not change from the pixel value of the 17th pixel from the left of frame ttn-2.
  • the pixels of frame-1 and frame # n-2 which correspond to the pixels belonging to the covered background area in frame #n, consist only of the background component, and the pixel value does not change. , Which is almost zero. Therefore, the still / moving judgment for the pixels of frame # n-l and frame # n-2 corresponding to the pixels belonging to the mixed area in frame #n is judged to be still by the still / moving judgment section 202-4. You.
  • the still / movement determination for the pixels belonging to the mixed area in frame # ⁇ and the corresponding pixels in frame # ⁇ 1 is determined to be motion by the still / movement determination section 202-3.
  • the area determination unit 203-3-3 is supplied with the result of the static motion determination indicating the motion from the static motion determination unit 202-3, and the static determination unit 202-4 indicates the static motion indicating the static.
  • the result of the motion determination is supplied, it is determined that the corresponding pixel belongs to the covered background area.
  • the pixels included in the uncovered background area are the second to fourth pixels from the left. Since the motion amount V is 4, in the next frame # n + 1, the second to fourth pixels from the left include only the background component and belong to the background area. In the next frame ttn + 2, the second to fourth pixels from the left include only the background component and belong to the background area.
  • the pixel value of the second pixel from the left of frame +2 does not change from the pixel value of the second pixel from the left of frame # n + l.
  • the pixel value of the third pixel from the left of frame ⁇ + 2 does not change from the pixel value of the third pixel from the left of frame ⁇ + 1, and the fourth pixel value from the left force of frame ttn + 2.
  • the pixel value of the pixel does not change from the pixel value of the fourth pixel from the left of frame # n + l.
  • the pixels of frame # ⁇ + 1 and frame +2 which correspond to the pixels belonging to the uncovered background area in frame ⁇ , are composed of only the background component and the pixel values do not change, so the absolute value of the difference is , Which is almost zero. Therefore, the still / moving judgment for the pixels of frame # ⁇ + 1 and frame ttn + 2 corresponding to the pixels belonging to the mixed area in frame # ⁇ is judged to be still by the still / moving judging section 202-2-1. You.
  • the still / movement determination for the pixels belonging to the mixed area in frame #n and the corresponding pixels in frame # n + 1 is determined to be movement by the still / movement determination unit 202-2-2.
  • the area determination unit 203-1 is supplied with the result of the static motion determination indicating the motion from the static motion determination unit 220-2, and the static determination unit 202-1 indicates the static motion indicating the static.
  • the result of the motion determination is supplied, it is determined that the corresponding pixel belongs to the uncovered background area.
  • FIG. 25 is a diagram showing the determination conditions of the region identification unit 103 in the frame tin.
  • the pixel of the frame ⁇ 2 at the same position as the position of the pixel to be determined in the frame ⁇ on the image is shown in FIG.
  • the pixel of frame -1 at the same position as the position of the pixel to be determined for the frame on the image is determined to be still, and the same position as the position of the pixel for the determination of frame ⁇ on the image
  • the region specifying unit 103 sets the pixel to be determined of frame #n in the covered background area. It is determined that they belong.
  • the region identification unit 103 sets the frame #n Are determined to belong to the still area.
  • the pixel of the frame ⁇ -l and the pixel of the frame at the same position as the position of the pixel to be determined for the frame on the image and the pixel of the frame are determined to be moving, and the pixel of the frame # ⁇ and the pixel of the frame # ⁇
  • the region identification unit 103 is to determine the frame Un It is determined that the pixel belongs to the motion area.
  • the pixel of the frame and the pixel of the frame ttn + 1 at the same position as the position of the pixel to be determined for the frame on the image are determined to be motion, and the position of the pixel to be determined for the frame on the image
  • the region specifying unit 103 determines that the pixel to be determined for the frame belongs to the uncovered background region.
  • FIGS. 26A to 26D illustrate the region specifying unit 103 specifying the region.
  • FIG. 9 is a diagram showing an example of the result of the above. In FIG. 26A, pixels determined to belong to the covered background area are displayed in white. In FIG. 26B, pixels determined to belong to the uncovered background area are displayed in white.
  • FIG. 26C the pixels determined to belong to the motion area are displayed in white.
  • FIG. 26D the pixels determined to belong to the still area are displayed in white.
  • FIG. 27 is a diagram showing, as an image, area information indicating a mixed area among the area information output from the frame memory 206 for storing the determination flag.
  • the pixels determined to belong to the covered background area or the uncovered background area that is, the pixels determined to belong to the mixed area, are displayed in white.
  • the region information indicating the mixed region output by indicates the mixed region and the portion having the texture surrounded by the non-textured portion in the foreground region.
  • step S201 the frame memory 201 stores the judgment pair. Acquire images from frame # n-2 to frame # n + 2 including elephant frame ttn.
  • step S202 the still / movement determination unit 202-3 determines whether or not the pixel of frame # n-1 and the pixel at the same position of frame #n are stationary, and determines that the pixel is stationary. If, the process proceeds to step S 2 0 3, moving determining portion 2 0 2 2, between pixels at the same position of the pixel in frame # n + l frames, determines static or not.
  • step S203 if it is determined that the pixel of the frame and the pixel at the same position of frame # n + l are still, the process proceeds to step S204, and the region determination unit 203-3 determines the region Set “1” indicating that the pixel belongs to the still area in the still area determination flag corresponding to the pixel to be determined.
  • the area determination unit 203-3-2 supplies the still area determination flag to the determination flag storage frame memory 204, and the procedure proceeds to step S205.
  • step S202 If it is determined in step S202 that the pixel of frame # n-l and the pixel at the same position in frame #n are moving, or in step S203, the pixel of frame and frame #n If the pixel at the same position of + l is determined to be in motion, the pixel of the frame does not belong to the still area, and the processing of step S204 is skipped, and the procedure is step S204. Go to 5.
  • step S205 the static / movement determining unit 202-3 determines whether or not the pixel of the frame ⁇ -1 and the pixel of the same position of the frame # ⁇ are moving, and when the motion is determined. Then, the process proceeds to step S206, and the static / movement determining unit 202-2-2 determines whether or not the pixel of the frame # ⁇ and the pixel at the same position of the frame # ⁇ + 1 are moving.
  • step S206 If it is determined in step S206 that the pixel of the frame tin and the pixel at the same position of the frame # n + l have been moved, the process proceeds to step S207, and the region determination unit 203-3, The motion region determination flag corresponding to the pixel whose region is determined is set to "1" indicating that the pixel belongs to the motion region.
  • the area determination unit 203-3-2 supplies the motion area determination flag to the determination flag storage frame memory 204, and the procedure proceeds to step S208.
  • step S205 the pixel at frame ttn-1 and the pixel at frame If it is determined that the pixel is stationary, or if it is determined in step S206 that the pixel of frame #n and the pixel at the same position of frame # n + l are stationary, frame #n Since the pixel does not belong to the motion area, the process in step S207 is skipped, and the procedure proceeds to step S208.
  • step S208 the still / movement determination unit 202-4 determines whether the pixel of frame # n-2 and the pixel at the same position of frame-1 are stationary or not, and is determined to be stationary. In this case, the process proceeds to step S209, and the static / movement determining unit 202-3 determines whether or not the pixel of frame # n-1 and the pixel at the same position of frame ⁇ are moving.
  • step S209 when it is determined that the pixel of the frame ⁇ -1 and the pixel at the same position of the frame are moving, the process proceeds to step S210, and the region determination unit 203-3 determines the region. Set "1" to the covered background area judgment flag corresponding to the pixel to be judged, indicating that the pixel belongs to the covered background area.
  • the area determination unit 203-3 supplies the covered background area determination flag to the determination flag storage frame memory 204, and the procedure proceeds to step S211.
  • step S208 If it is determined in step S208 that the pixel of frame # ⁇ -2 and the pixel at the same position of frame-1 are moving, or in step S209, the pixel of frame # ⁇ -1 If the pixel and the pixel at the same position in frame # ⁇ are determined to be still, the processing in step S210 is skipped because the pixel in frame # ⁇ does not belong to the covered background area, and the procedure is as follows. Proceed to step S211.
  • step S211 the static / movement determining unit 20-22-2 determines whether or not the pixel of the frame # ⁇ and the pixel at the same position of the frame ttn + 1 are a motion, and determines that the motion is a motion. Then, the process proceeds to step S212, where the static / movement determining unit 202_2_1 determines whether or not the pixel of frame # n + 1 and the pixel at the same position of frame # n + 2 are stationary.
  • step S212 if it is determined that the pixel of frame # n + l and the pixel at the same position of frame # n + 2 are still, the process proceeds to step S213, and the area determination unit 203 1 indicates “1” indicating that the pixel belongs to the uncovered background area in the uncovered background area determination flag corresponding to the pixel whose area is determined. Set.
  • the area determination unit 203-3-1 supplies the uncovered background area determination flag to the determination flag storage frame memory 204, and the procedure proceeds to step S2114.
  • step S211 If it is determined in step S211 that the pixel of frame #n and the pixel at the same position in frame # n + l are stationary, or in step S212, the pixel of frame ⁇ + l and the frame If it is determined that the pixel is in motion with the pixel at the same position of +2, since the pixel of frame # ⁇ does not belong to the uncovered background area, the processing in step S213 is skipped, and the procedure is performed in step Go to S2 1 4
  • step S214 the region specifying unit 103 determines whether or not the region has been specified for all the pixels of the frame tin, and determines that the region has not been specified for all the pixels of the frame tin. If this is the case, the procedure returns to step S202, and repeats the area specifying process for other pixels.
  • step S214 If it is determined in step S214 that the region has been specified for all the pixels of the frame t, the process proceeds to step S215, and the combining unit 205 stores the determination flag in the frame memory 202 for storing the determination flag. Based on the uncovered background area judgment flag and the covered background area judgment flag, area information indicating the mixed area is generated, and each pixel is further divided into an uncovered background area, a still area, and a moving area. , And area information indicating that the area belongs to one of the covered background areas is set, and the generated area information is set in the determination flag storage frame memory 206, and the process ends.
  • the region specifying unit 103 obtains, for each of the pixels included in the frame, region information indicating that the pixel belongs to the moving region, the still region, the uncovered background region, or the covered background region.
  • the area specifying unit 103 generates area information corresponding to the mixed area by applying a logical sum to the area information corresponding to the uncovered background area and the covered background area. Then, for each pixel included in the frame, a flag indicating that the pixel belongs to the motion area, the still area, or the mixed area It is also possible to generate the area information consisting of:
  • the region specifying unit 103 can more accurately specify the moving region.
  • the area specifying unit 103 can output the area information indicating the moving area as the area information indicating the foreground area, and output the area information indicating the stationary area as the area information indicating the background area.
  • the above-described processing for specifying the area can be applied even when the image corresponding to the background area includes motion.
  • the area specifying unit 103 shifts the entire image in accordance with this movement, and the object corresponding to the background is stationary. The same processing is performed.
  • the area specifying unit 103 selects a pixel corresponding to the motion and executes the above-described processing.
  • FIG. 29 is a block diagram illustrating another example of the configuration of the area specifying unit 103.
  • the area specifying unit 103 shown in FIG. 29 does not use a motion vector.
  • the background image generation unit 301 generates a background image corresponding to the input image, and supplies the generated background image to the binary object image extraction unit 302.
  • the background image generation unit 301 extracts, for example, an image object corresponding to a background object included in the input image, and generates a background image.
  • Fig. 30 shows an example of a model diagram in which the pixel values of pixels arranged in a row adjacent to the motion direction of the image corresponding to the foreground object are developed in the time direction.
  • the model diagram in FIG. 30 shows the pixel values of adjacent pixels on one line in the time direction.
  • the expanded model is shown.
  • the line in frame # ⁇ is the same as the line in frame I / one ⁇ ⁇ -l and frame ⁇ + 1.
  • pixels from the 6th pixel to the 17th pixel from the left are included in the second through 13th pixels from the left in frame # n-l, and the 10th through 21st pixels from the left in frame # n + l. include.
  • the pixels belonging to the covered background area are the 11th to 13th pixels from the left, and the pixels belonging to the uncovered background area are the 2nd to 4th pixels from the left. is there.
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left, and the pixels belonging to the uncovered background area are the 6th to 8th pixels from the left.
  • the pixels belonging to the covered background area are the 19th to 21st pixels from the left, and the pixels belonging to the uncovered background area are the 10th to 12th pixels from the left. is there.
  • the pixels belonging to the background area are the first pixel from the left and the 14th to 21st pixels from the left.
  • the pixels belonging to the background area are the first through fifth pixels from the left and the 18th through 21st pixels from the left.
  • the pixels belonging to the background area are the first through ninth pixels from the left.
  • FIG. 31 shows an example of a background image generated by the background image generation unit 301 and corresponding to the example of FIG.
  • the background image is composed of pixels corresponding to the background object and does not include the components of the image corresponding to the foreground object.
  • the binary object image extraction unit 302 generates a binary object image based on the correlation between the background image and the input image, and supplies the generated binary object image to the time change detection unit 303.
  • FIG. 32 is a block diagram showing the configuration of the binary object image extraction unit 302, and the correlation value calculation unit 321, the background image and the input image supplied from the background image generation unit 301.
  • the correlation value is calculated, a correlation value is generated, and the generated correlation value is supplied to the threshold value processing section 3222.
  • Correlation value calculating section 3 2 1, for example, as shown in FIG. 3 3 A, and the block in the 3 X 3 of the background image around the X 4, as shown in FIG. 3 3 B, the background image the block in the in the input image of the 3 X 3 around the Y 4 corresponding to the block, by applying equation (4) to calculate a correlation value corresponding to Upsilon 4.
  • Correlation value (4)
  • the correlation value calculation unit 3221 supplies the correlation value calculated for each pixel as described above to the threshold value processing unit 3222.
  • the correlation value calculation unit 3 21 includes a block in a 3 ⁇ 3 background image centered on X 4 and a background image as shown in FIG. 34B.
  • the block in the 3 X 3 of the input image around the Y 4 corresponding to the block in the image by applying the equation (7), and calculate the difference absolute values corresponding to Upsilon 4 Good.
  • the correlation value calculation unit 321 supplies the difference absolute value calculated in this way as a correlation value to the threshold value processing unit 3222.
  • the threshold processing unit 3 2 2 compares the pixel value of the correlation image with the threshold thO, and sets 1 to the pixel value of the binary object image when the correlation value is equal to or smaller than the threshold thO. If the correlation value is larger than the threshold thO, the pixel value of the binary object image is set to 0, and a binary object image in which 0 or 1 is set to the pixel value is output.
  • the threshold value processing unit 3 22 may store the threshold value thO in advance, or may use the threshold value thO input from outside.
  • FIG. 35 is a diagram showing an example of a binary object image corresponding to the model of the input image shown in FIG. In the binary object image, the pixel value is set to 0 for pixels having strong correlation with the background image.
  • FIG. 36 is a block diagram showing a configuration of the time change detection unit 303.
  • the frame memory 341, frame # 1, frame #n, and frame # n + l supplied from the binary object image extraction unit 302 The binary object image is stored.
  • the region determination unit 3422 is configured to generate a region for each pixel of the frame ⁇ based on the binary object images of the frame ⁇ -1, the frame ttn, and the frame # n + 1 stored in the frame memory 341. Is determined, area information is generated, and the generated area information is output.
  • FIG. 37 is a diagram for explaining the determination by the area determination unit 342.
  • the region determining unit 342 determines that the focused pixel of the frame #n belongs to the background region.
  • the pixel of interest in the binary object image in frame #n is 1, the corresponding pixel in the binary object image in frame #nl is 1, and the binary object image in frame ttn + 1 corresponds
  • the area determination unit 342 determines that the pixel of interest in the frame belongs to the foreground area.
  • the area determination section 3 4 2 It is determined that the pixel of interest n belongs to the covered background area.
  • the area determination unit 342 4 It is determined that the pixel of interest belongs to the uncovered background area.
  • FIG. 4 is a diagram showing an example where a time change detection unit 303 has determined.
  • the time change detection unit 303 determines that the first to fifth pixels from the left of the frame t belong to the background area since the corresponding pixel of the frame ttn of the binary object image is 0.
  • the time change detection unit 303 recovers the sixth to ninth pixels from the left since the pixel of frame tin of the binary object image is 1 and the corresponding pixel of frame # n + l is 0 It is determined that it belongs to the ground area.
  • the time change detection unit 303 determines that the pixel of frame #n of the binary object image is 1, the corresponding pixel of frame ttn-1 is 1, and the corresponding pixel of frame # n + l is 1, It is determined that the 10th to 13th pixels from the left belong to the foreground area.
  • the time change detection unit 303 covers the 14th to 17th pixels from the left since the pixel of frame ttn of the binary object image is 1 and the corresponding pixel of frame ttn-1 is 0. It is determined that it belongs to the ground area.
  • the time change detection unit 303 determines that the 18th to 21st pixels from the left belong to the background area because the corresponding pixel of the frame ttn of the binary object image is 0.
  • step S301 the background image generation unit 301 of the area determination unit 103 extracts, for example, an image object corresponding to a background object included in the input image based on the input image. A background image is generated, and the generated background image is supplied to the binary object image extraction unit 302.
  • step S302 the binary object image extraction unit 302 executes, for example, the input image and the background image generation unit 301 by the operation described with reference to FIGS. 33A and 33B.
  • the correlation value with the background image supplied from is calculated.
  • step S303 the binary object image extraction unit 302, for example, compares the correlation value with the threshold value thO to obtain a binary object image from the correlation value and the threshold value thO. Is calculated.
  • step S304 the time change detection unit 303 executes the area determination processing, and the processing ends.
  • step S321 the area determination section 342 of the time change detection section 303 determines whether or not the pixel of interest is 0 in the frame stored in the frame memory 341. If it is determined that the pixel of interest is 0 in frame #n, the flow advances to step S3222 to set that the pixel of interest in frame #n belongs to the background area, and the process ends. .
  • step S32 1 If it is determined in step S32 1 that the pixel of interest is 1 in the frame itn, the flow advances to step S32 3 and the area determination section 3 42 of the time change detection section 303 3 4 In frame #n stored in 1, it is determined whether the pixel of interest is 1 and in frame # n-l the corresponding pixel is 0, and in frame #n If it is determined that the pixel of interest is 1 and the corresponding pixel is 0 in frame # ⁇ -1, the process proceeds to step S324, where the pixel of interest in frame #n is covered The process ends, setting to belong to the ground area.
  • step S32 23 If it is determined in step S32 23 that the pixel of interest is 0 in frame #n or that the corresponding pixel is 1 in frame ⁇ -l, the process proceeds to step S325.
  • the region determination unit 3422 of the time change detection unit 303 detects that the pixel of interest is 1 in the frame # ⁇ stored in the frame memory 341, and that the frame # ⁇ + 1 It is determined whether or not the corresponding pixel is 0, and when it is determined that the pixel of interest is 1 in frame # ⁇ and the corresponding pixel is 0 in frame # ⁇ + 1 Then, the process proceeds to step S3226, where it is set that the pixel of interest in frame # ⁇ belongs to the uncovered background area, and the process ends.
  • step S325 if the pixel of interest is determined to be 0 in frame #n, or the corresponding pixel is determined to be 1 in frame # n + l In this case, the process proceeds to step S3227, in which the region determination unit 3422 of the time change detection unit 303 sets the pixel of interest in the frame th as the foreground region, and the process ends.
  • the region specifying unit 103 determines whether the pixels of the input image are the foreground region, the background region, the covered background region, and the uncovered back region based on the correlation value between the input image and the corresponding background image. By specifying which of the ground areas it belongs to, it is possible to generate area information corresponding to the specified result.
  • FIG. 41 is a block diagram illustrating another configuration of the area specifying unit 103.
  • the area specifying unit 103 shown in FIG. 41 uses the motion vector supplied from the motion detection unit 102 and its position information.
  • the same parts as those shown in FIG. 29 are denoted by the same reference numerals, and description thereof will be omitted.
  • the mouth bust converter 361 converts the robust binary object image based on the binary object image of N frames supplied from the binary object image extractor 302. It is generated and output to the time change detection unit 303.
  • FIG. 42 is a block diagram illustrating the configuration of the robust unit 361.
  • the motion compensator 381 compensates for the motion of the binary object image of N frames based on the motion vector supplied from the motion detector 102 and its position information, and the motion is compensated.
  • the binary object image is output to the switch 382.
  • the motion compensation of the motion compensation unit 381 will be described. For example, when determining the area of a frame, when a binary object image of frame ttn-1, frame #n, and frame ⁇ + l is input as shown in FIG. Based on the motion vector supplied from the motion detection unit 102, the binary object image of the frame fln-1 and the image of the frame ⁇ + l The motion of the value object image is motion-compensated, and the motion-compensated binary object image is supplied to the switch 382.
  • the switch 382 outputs the motion-compensated binary object image of the first frame to the frame memory 3803-1, and outputs the motion-compensated binary object image of the second frame to the frame memory 3. 8 Output to 3-2.
  • switch 3 8 2 stores each of the motion-compensated binary object images of the third to N — 1st frames in one of the frame memories 3 8 3-3 to 3 8 3-(N-1). And outputs the motion-compensated binary object image of the Nth frame to the frame memory 383-N.
  • the frame memory 383-1-1 stores the motion-compensated binary object image of the first frame, and outputs the stored binary object image to the weighting unit 38.4_1.
  • the frame memory 3 8 3-2 stores the motion-compensated binary object image of the second frame and outputs the stored binary object image to the weighting unit 3 8 4 _ 2 .
  • each of the frame memories 3 8 3-3 to 3 8 3-(N- 1) is one of the motion-compensated binary object images of the third to N- 1st frames. And outputs the stored binary object image to one of the weighting units 3 8 4-3 to 3 8 4-(N- 1).
  • the frame memory 3 8 3-N stores N The motion-compensated binary object image of the th frame is stored, and the stored binary object image is output to the weighting unit 384-N.
  • the weighting unit 3844-1 multiplies the pixel value of the motion-compensated binary object image of the first frame supplied from the frame memory 3833-1 by a predetermined weight wl, and Supply 8 5
  • the weighting section 3 84-2 multiplies the pixel value of the motion-compensated binary object image of the second frame supplied from the frame memory 3 8 3-2 by a predetermined weight w2, Supply 8 5
  • each of the weighting units 3 8 4-3 to 3 8 4-(N-1) is supplied from one of the frame memories 3 8 3-3 to 3 8 3-(N-1) Multiplying the pixel value of the motion-compensated binary object image of any one of the third to N-th frames by one of the predetermined weights w3 to w (N-l), Supply 3 8 5
  • the weighting section 384-N is a motion-compensated binary object of the Nth frame supplied from the frame memory 383-N.
  • the pixel value of the image is multiplied by a predetermined weight wN and supplied to the accumulator 385.
  • the accumulator 385 accumulates the corresponding pixel values of the binary object image, which are motion-compensated for the 1st to Nth frames and multiplied by one of the weights wl to wN, respectively.
  • a binary object image is generated by comparing the pixel value with a predetermined threshold thO.
  • the robustization unit 361 generates a binary object image that is mouth-busted from the N binary object images and supplies it to the time change detection unit 303.
  • the area specifying unit 103 shown in FIG. 41 can specify the area more accurately than the case shown in FIG. 29, even if the input image contains noise.
  • the area specifying process of the area specifying unit 103 shown in FIG. 41 will be described with reference to the flowchart of FIG.
  • the processing of steps S3401 to S3343 is the same as that of steps S301 to S303 described in the flowchart of FIG. 39, and a description thereof will be omitted.
  • step S3444 the robust unit 361 executes robust processing.
  • step S345 the time change detection unit 303 executes the area determination processing, and the processing ends.
  • the details of the processing in step S345 are the same as the processing described with reference to the flowchart in FIG. 40, and a description thereof will be omitted.
  • step S3661 the motion compensating unit 3811 determines the motion of the input binary object image based on the motion vector supplied from the motion detecting unit 102 and its position information. Execute the compensation process.
  • step S3652 one of the frame memories 383-1 to 383-N stores the motion-compensated binary object image supplied via the switch 3832.
  • step S3663 the robust unit 361 determines whether or not N binary object images are stored, and the N binary object images are stored. If it is determined that there is no binary object image, the process returns to step S361, and the process of motion compensation for the binary object image and the process of storing the binary object image are repeated.
  • step S3653 If it is determined in step S3653 that N binary object images have been stored, the process proceeds to step S364, where each of the weighting units 384-1-1 to 384-N Weighting is performed by multiplying each of the binary object images by a weight of wl to wN.
  • step S365 the integrating section 385 integrates the weighted N binary object images.
  • step S366 the integrator 385 generates a binary object image from the integrated image by, for example, comparing with a predetermined threshold value thl, and the process ends. .
  • the area specifying unit 103 shown in FIG. 41 can generate area information based on a robust binary object image.
  • the region specifying unit 103 calculates, for each of the pixels included in the frame, region information indicating that the pixel belongs to the moving region, the still region, the uncovered background region, or the force bird background region. Can be generated.
  • FIG. 47 is a block diagram illustrating an example of the configuration of the mixture ratio calculation unit 104.
  • the estimated mixture ratio processing unit 401 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the covered background area based on the input image, and uses the calculated estimated mixture ratio as the mixture ratio determination unit. Supply to 4003.
  • the estimated mixture ratio processing unit 402 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered background area based on the input image, and uses the calculated estimated mixture ratio as the mixture ratio determination unit. Supply to 4003.
  • the mixing ratio of the pixels belonging to the mixed region has the following properties. That is, the mixing ratio H changes linearly in response to the change in the pixel position. Pixel position If the change is one-dimensional, the change in the mixture ratio can be represented by a straight line, and if the change in the pixel position is two-dimensional, the change in the mixture ratio 0? Can be represented by a plane. Wear.
  • the slope of the mixture ratio H is the inverse ratio of the amount of motion V in the foreground within the shutter time.
  • Figure 48 shows an example of an ideal mixing ratio.
  • the ideal mixture ratio (the slope 1 in the mixture region of X can be expressed as the reciprocal of the motion amount V).
  • the ideal mixture ratio has a value of 1 in the background region, a value of 0 in the foreground region, and a value exceeding 0 and less than 1 in the mixture region.
  • the pixel value C06 of the seventh pixel from the left of frame #n can be expressed by equation (8) using the pixel value P06 of the seventh pixel from the left of frame-1. it can.
  • Equation (8) 2 / v -P06 + ⁇ F v (8)
  • the pixel value C06 is expressed as the pixel value M of the pixel in the mixed area
  • the pixel value P06 is expressed as the pixel value B of the pixel in the background area. That is, the pixel value M of the pixel in the mixed area and the pixel value B of the pixel in the background area can be expressed as in Equation (9) and Equation (10), respectively.
  • Equation (8) corresponds to the mixture ratio. Since the motion amount V is 4, the mixture ratio of the seventh pixel from the left of frame t is 0.5.
  • the pixel value C of the frame of interest ttn is regarded as the pixel value of the mixed area. None, by regarding the pixel value P of frame #nl before the frame as the pixel value of the background area, equation (3) indicating the mixture ratio H can be rewritten as equation (11).
  • F in Equation (1 1) is the sum of the foreground components included in the pixel of interest ⁇ iFi / v.
  • the variables included in Equation (1 1) are the mixture ratio a and the sum f of the foreground components.
  • FIG. 50 shows a model in which pixel values are expanded in the time direction in which the amount of motion V is 4 and the number of virtual divisions in the time direction is 4 in the uncovered background area.
  • Equation (3) which indicates the mixture ratio H, can be expressed as Equation (12).
  • Equations (8) to (1 2) can be applied.
  • the pixel value B of the pixel in the background area in Expression (10) is set to the pixel value P04.
  • Equations (1 1) and (1 2) each contain two variables, so the mixture ratio H cannot be determined as it is.
  • an image generally has a strong spatial correlation, adjacent pixels have substantially the same pixel value.
  • the equation is modified so that the sum f of the foreground components can be derived from the previous or subsequent frame, and the mixture ratio h is obtained.
  • Equation (15) is established using the spatial correlation of the foreground components.
  • Equation (14) can be replaced with equation (16) using equation (15). Monkey
  • equation (18) holds for all pixels in the mixed area from the relationship of the internal division ratio .
  • equation (11) can be expanded as shown in equation (19).
  • equation (12) can be expanded as shown in equation (20).
  • Equations (1 9) and (20) C, ⁇ , and ⁇ are known pixel values, and therefore, Equations (1 9) and ( The variable included in (20) is only the mixture ratio.
  • the relationship between C, N, and P in Equations (19) and (20) is shown in Fig. 52, where c C is the pixel value of the pixel of interest in frame #n for calculating the mixture ratio H is there.
  • N is the pixel value of the pixel at frame +1 corresponding to the pixel of interest and the position in the spatial direction.
  • P is the pixel value of the pixel of frame #nl, whose position in the spatial direction corresponds to the pixel of interest.
  • each of the equations (19) and (20) includes one variable, the mixture ratio ⁇ can be calculated using the pixel values of the pixels of the three frames.
  • the condition for calculating the correct mixture ratio H is that the foreground components related to the mixture area are equal, that is, the foreground object is stationary. Pixels in the foreground image object imaged at the boundary of the image object, corresponding to the direction of motion of the foreground object, and a continuous number of twice the amount of motion V The pixel value of the pixel in question is constant.
  • the mixture ratio of pixels belonging to the covered background area is calculated by Expression (21), and the mixture ratio of pixels belonging to the uncovered background region is calculated by Expression (22).
  • FIG. 53 is a block diagram illustrating a configuration of the estimated mixture ratio processing unit 401.
  • the memory 421 stores the input image in frame units, and supplies the next frame after the frame input as the input image to the frame memory 422 and the mixture ratio calculation unit 423.
  • the frame memory 422 stores the input image in frame units, and supplies the next frame from the frame supplied from the frame memory 421 to the mixture ratio calculation unit 423.
  • the frame memory 4 2 1 supplies the frame #n to the mixture ratio calculation unit 4 2 3.
  • Frame memory 4 2 2 Supplies the frame-1 to the mixing ratio calculator 4 23.
  • the mixture ratio calculation unit 4 23 calculates the pixel value of the pixel of interest in frame #n (:, frame # n + in which the pixel of interest corresponds to the spatial position. Calculate the estimated mixture ratio of the pixel of interest based on the pixel value N of the pixel of l and the pixel value P of the pixel of frame # n-1 that corresponds to the spatial position with the pixel of interest.
  • the mixture ratio calculation unit 4 23 outputs the pixel value C of the pixel of interest in the frame ⁇ , the pixel value of interest, Based on the pixel value N of the pixel in frame # n + l, which has the same position in the frame, and the pixel value P of the pixel in frame -1, which has the same position in the frame as the pixel of interest.
  • the estimated mixture ratio of the pixel is calculated, and the calculated estimated mixture ratio is output.
  • the estimated mixture ratio processing unit 401 can calculate the estimated mixture ratio based on the input image and supply it to the mixture ratio determination unit 403.
  • the estimated mixture ratio processing unit 402 calculates the estimated mixture ratio of the pixel of interest by the calculation shown in Expression (21).
  • the operation shown in (22) is the same as that of the estimated mixture ratio processing unit 401 except that the part for calculating the estimated mixture ratio of the pixel of interest is different, and therefore description thereof is omitted.
  • FIG. 54 is a diagram illustrating an example of the estimated mixture ratio calculated by the estimated mixture ratio processing unit 401.
  • Estimated mixture ratio shown in FIG. 5. 4 the results when the amount of movement V corresponding to the object Bok is moving with constant velocity is 1 1, it illustrates to one line t It can be seen that the estimated mixing ratio changes almost linearly in the mixing region, as shown in FIG.
  • the mixture ratio determination unit 4003 determines that the pixels for which the mixture ratio is to be calculated supplied from the region identification unit 103 are the foreground region, the background region, and the covered backdrop region. , Or based on the area information indicating whether the area belongs to the uncovered background area. If the target pixel belongs to the foreground area, the mixture ratio determination unit 403 sets 0 to the mixture ratio, and if the target pixel belongs to the background area, sets 1 to the mixture ratio. If the target pixel belongs to the covered background area, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 401 is set to the mixture ratio, and the target pixel is set to the uncovered background area. If it belongs to, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 402 is set to the mixture ratio a. The mixture ratio determination unit 403 outputs a mixture ratio a set based on the area information.
  • FIG. 55 is a block diagram showing another configuration of the mixture ratio calculating section 104.
  • the selection unit 44 1 determines the pixels belonging to the covered background area and the corresponding pixels of the previous and subsequent frames based on the estimated mixture ratio processing unit 4. 4 Feed to 2.
  • the selection unit 4441 estimates and mixes the pixels belonging to the uncovered background area and the corresponding pixels of the previous and subsequent frames. Supplied to ratio processing section 4 4 3.
  • the estimated mixture ratio processing unit 4442 Based on the pixel values input from the selection unit 441, the estimated mixture ratio processing unit 4442 performs the estimated mixture of the pixels of interest belonging to the covered background area by the calculation shown in Expression (21). The ratio is calculated, and the calculated estimated mixture ratio is supplied to the selection unit 4 4 4.
  • the estimation mixture ratio processing unit 4443 estimates the pixel of interest belonging to the uncovered background area by the calculation shown in Expression (22). Calculate the mixture ratio and provide the calculated estimated mixture ratio to the selection unit 4 4 4 Pay.
  • the selection unit 4444 selects an estimated mixture ratio of 0, and selects the mixture ratio. If the target pixel belongs to the background area, select the estimated mixture ratio of 1 and set it to the mixture ratio. When the target pixel belongs to the covered background area, the selection unit 444 selects the estimated mixture ratio supplied from the estimated mixture ratio processing unit 442 and sets it as the mixture ratio. If it belongs to the uncovered background area, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 443 is selected and set as the mixture ratio. The selection unit 444 outputs the mixing ratio ⁇ selected and set based on the area information.
  • the mixture ratio calculation unit 104 having another configuration shown in FIG. 55 can calculate the mixture ratio for each pixel including an image and can output the calculated mixture ratio. You.
  • step S401 the mixture ratio calculation unit 104 acquires the area information supplied from the area identification unit 103.
  • step S402 the estimated mixture ratio processing unit 401 executes a process of calculating the estimated mixture ratio using a model corresponding to the covered background area, and calculates the calculated estimated mixture ratio in the mixture ratio determination unit 4003. To supply.
  • the details of the calculation process of the mixture ratio estimation will be described later with reference to the flowchart in FIG.
  • step S403 the estimated mixture ratio processing unit 402 executes a process of calculating the estimated mixture ratio using a model corresponding to the uncovered background area, and calculates the calculated estimated mixture ratio in the mixture ratio determination unit 400. Supply to 3.
  • step S404 the mixture ratio calculator 104 determines whether or not the mixture ratio H has been estimated for the entire frame, and determines that the mixture ratio H has not been estimated for the entire frame. Then, returning to step S402, the process of estimating the mixture ratio for the next pixel is executed. If it is determined in step S404 that the mixture ratio has been estimated for the entire frame, the process proceeds to step S405, and the mixture ratio determination unit 4003 determines that the pixel is a foreground region, a background region, The mixing ratio is set based on the area information supplied from the area specifying unit 103 indicating whether the area belongs to the covered background area or the uncovered background area.
  • the mixture ratio determination unit 400 sets the mixture ratio to 0 if the target pixel belongs to the foreground region, and sets 1 to the mixture ratio if the target pixel belongs to the background region.
  • the estimated mixing ratio supplied from the estimated mixing ratio processing unit 401 is set to the mixing ratio, and the target pixel belongs to the uncovered background area.
  • the estimated mixture ratio supplied from the estimated mixture ratio processing unit 402 is set to the mixture ratio 01, and the process ends.
  • the mixture ratio calculation unit 104 calculates the mixture ratio H, which is a feature amount corresponding to each pixel, based on the region information supplied from the region identification unit 103 and the input image. be able to.
  • the process of calculating the mixture ratio by the mixture ratio calculation unit 104 having the configuration shown in FIG. 55 is the same as the process described in the flowchart of FIG. 56, and a description thereof will be omitted.
  • step S421 the mixture ratio calculation unit 423 acquires the pixel value C of the target pixel of the frame ttn from the frame memory 421.
  • step S422 the mixture ratio calculation unit 423 acquires the pixel value P of the pixel of frame # n-l corresponding to the pixel of interest from the frame memory 422.
  • step S 423 the mixture ratio calculator 423 acquires the pixel value N of the pixel of the frame ⁇ + 1 corresponding to the target pixel included in the input image.
  • step S 424 the mixture ratio calculation unit 423 determines the pixel value of the pixel of interest in frame ⁇ , the pixel value ⁇ of the pixel in frame ttn ⁇ 1, and the image value of the pixel in frame # ⁇ + 1. Calculate the estimated mixture ratio based on the prime value N.
  • step S425 the mixture ratio calculation unit 423 determines whether the process of calculating the estimated mixture ratio has been completed for the entire frame, and ends the process of calculating the estimated mixture ratio for the entire frame. If it is determined that it has not been performed, the process returns to step S421, and the process of calculating the estimated mixture ratio for the next pixel is repeated.
  • step S425 If it is determined in step S425 that the process of calculating the estimated mixture ratio has been completed for the entire frame, the process ends.
  • the estimated mixture ratio processing unit 401 can calculate the estimated mixture ratio based on the input image.
  • step S403 of FIG. 56 The process of estimating the mixture ratio by the model corresponding to the uncovered background region in step S403 of FIG. 56 is performed by using the equation corresponding to the model of the uncovered background region, as shown in the flowchart of FIG. The description is omitted because it is the same as that shown in FIG.
  • estimated mixture ratio processing unit 442 and the estimated mixture ratio processing unit 443 shown in FIG. 55 execute the same processing as the flow chart shown in FIG. 57 to calculate the estimated mixture ratio. The description is omitted.
  • the above-described processing for obtaining the mixture ratio H can be applied even when the image corresponding to the background area includes motion.
  • the estimated mixture ratio processing unit 401 shifts the entire image in accordance with the movement of the background, and the object corresponding to the background is stationary.
  • the estimated mixture ratio processing unit 401 responds to the background motion as a pixel corresponding to a pixel belonging to the mixed region. A pixel is selected and the above-described processing is performed.
  • the mixture ratio calculation unit 104 executes only the mixture ratio estimation process using the model corresponding to the covered background area for all the pixels, and outputs the calculated estimated mixture ratio as the mixture ratio. You may make it.
  • the ratio H indicates the ratio of the background component for the pixels belonging to the covered background region, and indicates the ratio of the foreground component for the pixels belonging to the uncovered background region. For the pixels belonging to the uncovered background area. If the absolute value of the difference between the mixture ratio thus calculated and 1 is calculated, and the calculated absolute value is set as the mixture ratio H, the image processing apparatus can calculate For pixels belonging to the uncovered background area, a mixing ratio indicating the ratio of the background component can be obtained.
  • the mixture ratio calculation unit 104 executes only the mixture ratio estimation process using the model corresponding to the uncovered background area for all the pixels, and outputs the calculated estimated mixture ratio as the mixture ratio H. You may make it.
  • i is an index in the spatial direction with the position of the pixel of interest set to 0. 1 is the slope of the straight line of the mixing ratio.
  • p is the intercept of the straight line of the mixture ratio and the mixture ratio of the pixel of interest.
  • the index i is known, but the slope 1 and the intercept p are unknown.
  • Figure 58 shows the relationship between the index slope and the intercept p.
  • Fig. 5 8 White circles indicate the target pixel, and black circles indicate the neighboring pixels.
  • Equation (23) a plurality of different mixture ratios for a plurality of pixels are represented by two variables.
  • the five mixture ratios for five pixels are represented by two variables, slope 1 and intercept p.
  • Equation (24) j is the horizontal index with the position of the pixel of interest set to 0, and k is the vertical index.
  • m is the horizontal inclination of the plane of the mixture ratio, and q is the vertical inclination of the plane of the mixture ratio.
  • P is the intercept of the surface of the mixing ratio.
  • equations (25) to (27) hold for C05 to C07, respectively.
  • x represents a position in the spatial direction.
  • equation (28) can be expressed as equation (29).
  • Equation (29) j is a horizontal index with the position of the pixel of interest set to 0, and k is a vertical index.
  • Equation (34) If the sum of the mixture ratio and the foreground component in Equation (13) is replaced using Equations (24) and (29), the pixel value M is expressed by Equation (34).
  • Equation (34) the unknown variables are the horizontal slope tn of the mixture ratio plane, the vertical slope q of the mixture plane, and the intercepts p, s, t, and u of the mixture ratio plane. The six.
  • a pixel value M or a pixel value B is set in the normal equation shown in Equation (34) in correspondence with a pixel in the vicinity of the pixel of interest, and a plurality of normal equations in which the pixel value M or the pixel value B is set Is solved by the least squares method, and the mixture ratio is calculated.
  • the horizontal index j of the pixel of interest is set to 0, the vertical index k is set to 0, and a 3 ⁇ 3 pixel near the pixel of interest is expressed by the normal equation shown in equation (3 4).
  • pixel value M or pixel value B is set to 5
  • Equation (4 3) are obtained.
  • the least square method is used to calculate the horizontal slope m, the vertical slope q, the intercepts p, s, t, and u, respectively. Is calculated, and the intercept p is output as the mixture ratio H.
  • Equation (3 5) can be rewritten as equation (4 5).
  • Mx ⁇ , ay * Wy + ex (45)
  • y In the equation (45), x is any one of integers from 0 to 8.
  • Equation (4 6) can be derived from equation (4 5).
  • Equation (4 9) substitute one of the integers from 0 to 5 for v in equation (4 9).
  • sweeping method Gauss-Jordan elimination method
  • w0 is the horizontal slope m
  • wl is the vertical slope q
  • w2 is the intercept p
  • w3 is s
  • w4 is t
  • w5 is u
  • the least squares method to the equation in which the pixel value M and the pixel value B are set, the horizontal slope m, the vertical slope q, the intercept p, s, t, and u are obtained. be able to.
  • the pixel values P04 to C08 of the pixels of the frame #n and the pixel values P04 to P08 of the pixels of the frame #nl are obtained. Set to normal equation.
  • the pixel values N28 to N32 of the pixel of the room # n + 1 are set in the + O regular normal equation.
  • the pixels included in the covered background area shown in FIG. 1 are also included in the pixels included in the covered background area shown in FIG. 1 .
  • white circles indicate pixels regarded as the background, and black and circles +-> indicate pixels in the mixed area.
  • the pixel value of the pixel for calculating the mixture ratio is M +
  • Mcl (-1) • Bel-m + (-l) • Bel (5 0)
  • Mc2 (0) ⁇ Bc2m + (-l)-Bc2q + Bc2 (5 1)
  • Mc3 (+1) • Bc3 • m + (-1) • Bc3 • q + Bc3 (5 2)
  • Mc4 (-D • Bc4 • m + (0) Bc4q + Bc4
  • Mc5 (0) .Bc5m + (0) Bc5-q + Bc5-p + (0) s + (0)-t + u (54)
  • Mc6 (+1) • Bc6 • m + (0) Bc6q + Bc6 (5 5)
  • Mc7 (-D • Bc7-m + (+ l) • Bc7 • q + Bc7 • p + (-1)-s + (+ l) t + u (5 6)
  • Mc8 (0)-Bc8m + (+ l) Bc8q + Bc8 (5 7)
  • Mc9 (+1) • Bc9 • m + (+ l) • Bc9 • q + Bc9 • p + (+ l)-s + (+ l) ⁇ t + u (5 8) Included in the covered background area of frame tin
  • the following equations (59) to (67) are established.
  • the pixel value of the pixel for calculating the mixture ratio is Mu5.
  • Mu5 (0) Bu5-m + (0) Bu5q + Bu5p + (0)-s + (0)-t + u (6 3
  • Mu6 (+ 1) Bu6m + (0)-Bu6-q + Bu6-p + (+ l)-s + (0)-t + u (64
  • Mu9 (+ 1) Bu9-m + (+ l) Bu9-q + Bu9p + (+ l) s + (+ l) -t + u (included in uncovered background area of frame #n # 7
  • FIG. 61 is a block diagram illustrating a configuration of the estimated mixture ratio processing unit 401.
  • the image input to the estimated mixture ratio processing unit 401 is supplied to the delay circuit 501 and the adding unit 502.
  • the delay circuit 501 delays the input image by one frame and supplies it to the adding section 502.
  • delay circuit 501 supplies frame # n-1 to adding section 502.
  • the adding unit 502 sets the pixel value of the pixel near the pixel for which the mixture ratio H is to be calculated and the pixel value of frame-1 in a normal equation. For example, the adding unit 502 sets the pixel values Mcl to Mc9 and the pixel values Bel to Bc9 in the normal equation based on Expressions (50) to (58). The adding unit 502 supplies the normal equation in which the pixel value is set to the calculating unit 503.
  • the arithmetic unit 503 sweeps out the normal equation supplied from the adding unit 502, The estimated mixture ratio is obtained by solving the method, and the obtained estimated mixture ratio is output.
  • the estimated mixture ratio processing unit 401 can calculate the estimated mixture ratio based on the input image and supply it to the mixture ratio determination unit 403.
  • the estimated mixture ratio processing unit 402 has the same configuration as the estimated mixture ratio processing unit 401, and a description thereof will be omitted.
  • FIG. 62 is a diagram illustrating an example of the estimated mixture ratio calculated by the estimated mixture ratio processing unit 401.
  • the estimated mixture ratio shown in Fig. 62 is based on the result calculated by generating an equation in units of a block of 7 x 7 pixels, where the foreground motion V corresponding to an object moving at a constant speed is 11 and , For one line.
  • step S ⁇ b> 521 the adding unit 502 sets the pixel value included in the input image and the pixel value included in the image supplied from the delay circuit 501 as a model of the covered background area. Set to the corresponding normal equation.
  • step S522 the estimated mixture ratio processing unit 401 determines whether or not the setting for the target pixel has been completed, and determines that the setting for the target pixel has not been completed. If so, the process returns to step S522, and the process of setting the pixel value to the normal equation is repeated.
  • step S522 when it is determined that the setting of the pixel value for the target pixel has been completed, the process proceeds to step S522, and the arithmetic unit 503 calculates the normal equation in which the pixel value is set. Based on this, the estimated mixture ratio is calculated, and the obtained estimated mixture ratio is output.
  • the estimated mixture ratio processing unit 401 shown in FIG. 61 can calculate the estimated mixture ratio based on the input image.
  • the process of estimating the mixture ratio by the model corresponding to the uncovered background region is the same as the process shown in the flowchart of FIG. 63 using the normal equation corresponding to the model of the uncovered background region, and therefore the description is omitted. I do.
  • the description has been made assuming that the object corresponding to the background is stationary, the above-described processing for obtaining the mixture ratio can be applied even when the image corresponding to the background area includes motion. For example, when the image corresponding to the background region is moving uniformly, the estimated mixing ratio processing unit 401 shifts the entire image in response to this movement, and the object corresponding to the background stops moving.
  • the estimated mixture ratio processing unit 401 selects a pixel corresponding to the motion as a pixel corresponding to a pixel belonging to the mixed region. The above processing is executed.
  • the mixture ratio calculation unit 102 calculates the mixture ratio H, which is a feature amount corresponding to each pixel, based on the region information supplied from the region identification unit 101 and the input image. be able to.
  • FIG. 64 is a block diagram illustrating an example of the configuration of the foreground / background separation unit 105.
  • the input image supplied to the foreground / background separation unit 105 is supplied to the separation unit 601, switch 602, and switch 604.
  • Information indicating the covered background area and the area information indicating the uncovered background area supplied from the area specifying unit 103 are supplied to the separating unit 601.
  • the area information indicating the foreground area is supplied to the switch 602.
  • Area information indicating the background area is supplied to the switch 604.
  • the mixing ratio supplied from the mixing ratio calculating unit 104 is supplied to the separating unit 601.
  • the separating unit 601 supplies area information indicating the covered background area and area information indicating the uncovered background area.
  • the foreground component is separated from the input image based on,, and the mixture ratio, and the separated foreground component is supplied to the synthesis unit 603, and the background component is separated from the input image and separated.
  • the background component thus obtained is supplied to the synthesis unit 605.
  • the switch 602 is closed when the pixel corresponding to the foreground is input based on the area information indicating the foreground area, and supplies only the pixel corresponding to the foreground included in the input image to the synthesizing unit 603 I do.
  • the switch 604 is closed when a pixel corresponding to the background is input based on the area information indicating the background area, and supplies only the pixel corresponding to the background included in the input image to the synthesizing unit 605. I do.
  • the synthesizing unit 603 includes a component corresponding to the foreground supplied from the separating unit 601 and a switch.
  • the foreground component image is synthesized based on the pixels corresponding to the foreground supplied from 602, and the synthesized foreground component image is output. Since the foreground area and the mixed area do not overlap,
  • 603 applies a logical OR operation to a component corresponding to the foreground and a pixel corresponding to the foreground to synthesize a foreground component image.
  • the synthesizing unit 603 stores an image in which all pixel values are 0 in a built-in frame memory in an initialization process executed at the beginning of the process of synthesizing the foreground component image, and In the synthesis process, the foreground component image is stored (overwritten). Therefore, in the foreground component image output from the combining unit 603, 0 is stored as a pixel value in a pixel corresponding to the background region.
  • the synthesizing unit 605 includes a component corresponding to the background supplied from the separating unit 601 and a switch.
  • the background component image is synthesized based on the pixels corresponding to the background supplied from 604, and the synthesized background component image is output. Since the background area and the mixed area do not overlap, the synthesis unit 605 synthesizes the background component image by, for example, applying a logical OR operation to the component corresponding to the background and the pixel corresponding to the background.
  • the synthesizing unit 605 stores an image in which all pixel values are 0 in a built-in frame memory in an initialization process executed at the beginning of the background component image synthesizing process, and The background component image is stored (overwritten) in the composition process. Therefore, in the background component image output from the combining unit 605, 0 is stored as a pixel value for a pixel corresponding to the foreground area.
  • FIG. 65A is a diagram illustrating an input image input to the foreground / background separation unit 105, and a foreground component image and a background component image output from the foreground / background separation unit 105.
  • Figure 6 5 B is, c 6 5 illustrates the input image input into the foreground background separator 1 0 5, and the model of the foreground component image and the background component image output from the foreground background separator 1 0 5 A is a schematic diagram of a displayed image
  • FIG. 65B is a one-line image including pixels belonging to the foreground area, background area, and mixed area corresponding to FIG. 65A.
  • FIG. 4 shows a model diagram in which pixels are developed in the time direction.
  • the background component image output from the foreground / background separation unit 105 is composed of pixels belonging to the background region and background components included in the pixels of the mixed region. You.
  • the foreground component image output from the foreground / background separation unit 105 is composed of pixels belonging to the foreground area and foreground components included in the pixels of the mixed area. You.
  • the pixel values of the pixels in the mixed area are separated into a background component and a foreground component by the foreground / background separation unit 105.
  • the separated background component forms a background component image together with the pixels belonging to the background region.
  • the separated foreground component forms a foreground component image together with the pixels belonging to the foreground area.
  • the pixel value of the pixel corresponding to the background region is set to 0, and meaningful pixel values are set to the pixel corresponding to the foreground region and the pixel corresponding to the mixed region.
  • the pixel value of the pixel corresponding to the foreground area is set to 0, and a significant pixel value is set to the pixel corresponding to the background area and the pixel corresponding to the mixed area.
  • FIG. 66 is an image model showing the foreground component and the background component of two frames including the foreground corresponding to the object moving from left to right in the figure.
  • the foreground motion amount V is 4, and the number of virtual divisions is 4.
  • the leftmost pixel and the 14th to 18th pixels from the left consist only of background components and belong to the background area.
  • the second through fourth pixels from the left include the background component and the foreground component, and belong to the anchored bird background area.
  • the 11th to 13th pixels from the left include the background component and the foreground component, and belong to the covered background region.
  • the fifth through tenth pixels from the left consist only of foreground components and belong to the foreground area.
  • frame # ⁇ + 1 the first through fifth pixels from the left and the eighteenth pixel from the left consist only of background components and belong to the background area.
  • frame # ⁇ + 1 the sixth through eighth pixels from the left include background and foreground components, and belong to the uncovered background area.
  • frame # ⁇ + 1 the fifteenth through seventeenth pixels from the left include the background component and the foreground component, and belong to the covered background area.
  • frame ttn + 1 the ninth to 14th pixels from the left consist only of foreground components and belong to the foreground area.
  • FIG. 67 is a diagram illustrating a process of separating a foreground component from pixels belonging to a covered background area.
  • hi 1 to hi 18 are mixing ratios corresponding to each of the pixels in frame #n.
  • the 15th to 17th pixels from the left belong to the covered background area.
  • 15 is the mixture ratio of the 15th pixel from the left of frame #n.
  • P15 is the pixel value of the 15th pixel from the left of frame # n-1.
  • is the pixel value of the corresponding pixel in the previous frame.
  • FIG. 68 is a diagram illustrating a process of separating a foreground component from pixels belonging to an uncovered background area.
  • hi 1 to 18 are mixing ratios corresponding to the respective pixels in frame # ⁇ .
  • the second to fourth pixels from the left belong to the anchored background area.
  • the pixel value C02 of the second pixel from the left of frame # ⁇ is expressed by equation (73).
  • hi 2 is the mixture ratio of the second pixel from the left of frame ⁇ .
  • ⁇ 02 is the pixel value of the second pixel from the left of frame ⁇ + l.
  • the foreground component fu included in the pixel value C of the pixel belonging to the uncovered background area is calculated by Expression (77).
  • is the pixel S of the corresponding pixel in the next frame.
  • the separation unit 6001 determines the mixed area based on the information indicating the covered background area and the information indicating the uncovered background area, which are included in the area information, and the mixing ratio for each pixel. Foreground components and background components can be separated from pixels belonging to.
  • FIG. 69 is a block diagram illustrating an example of the configuration of the separation unit 601 that performs the above-described processing.
  • the image input to the separation unit 61 is supplied to the frame memory 621, and the area information indicating the covered background area and the uncovered background area supplied from the mixture ratio calculation unit 104, and The mixing ratio is input to the separation processing block 62.
  • the frame memory 6 21 stores the input image in frame units.
  • the frame memory 6 21 stores the frame ⁇ -1 which is the frame immediately before the frame ⁇ , the frame, and the frame ⁇ + l which is the frame after the frame ttn Is stored.
  • the frame memory 6 21 supplies the pixels corresponding to the frames # ⁇ 1, # ⁇ , and # ⁇ + 1 to the separation processing block 6 22.
  • the separation processing block 622 based on the area information indicating the covered background area and the uncovered background area, and the mixing ratio, the frame # n-l supplied from the frame memory 621, and the Apply the operation described with reference to FIGS. 67 and 68 to the pixel values of the corresponding pixels in frame # n + l. Foreground and background components are extracted from the pixels belonging to the mixed area in frame forest n. It is separated and supplied to the frame memory 623.
  • the separation processing block 6 22 includes an uncovered area processing section 6 31, a covered area processing section 6 32, a combining section 6 33, and a combining section 6 3 4.
  • the multiplier 6 4 1 of the uncovered area processing unit 6 3 1 multiplies the mixture ratio by the pixel value of the pixel of frame itn + 1 supplied from the frame memory 6 2 1 and outputs the result to the switch 6 4 2 .
  • the switch 642 is closed when the pixel of the frame ttn (corresponding to the pixel of the frame ttn + 1) supplied from the frame memory 621, is in the uncovered background area, and the multiplier 641 is closed.
  • the pixel value multiplied by the mixture ratio H supplied from is supplied to the computing unit 643 and the synthesizing unit 6334.
  • the value obtained by multiplying the pixel value of the pixel of frame # n + l output from the switch 642 by the mixture ratio H is equal to the background component of the pixel value of the corresponding pixel of the frame.
  • Arithmetic unit 643 subtracts the background component supplied from switch 642 from the pixel value of the pixel of frame #n supplied from frame memory 621, and obtains the foreground component.
  • the arithmetic unit 643 supplies the foreground component of the pixel of the frame t belonging to the uncovered background area to the synthesizing unit 633.
  • the multiplier 651 of the covered area processing unit 632 multiplies the mixture ratio H by the pixel value of the pixel of frame-1 supplied from the frame memory 621 and outputs the result to the switch 652.
  • the switch 652 is closed when the pixel of frame #n (corresponding to the pixel of frame ttn-1) supplied from the frame memory 621, is a covered background area, and the switch 652 is closed.
  • the pixel value multiplied by the supplied mixture ratio is supplied to the computing unit 653 and the synthesizing unit 6334.
  • the value obtained by multiplying the pixel value of the pixel of frame #nl output from switch 652 by the mixture ratio H is the corresponding value of frame #n. Equal to the background component of the pixel value of the pixel.
  • Arithmetic unit 653 subtracts the background component supplied from switch 652 from the pixel value of the pixel of frame #n supplied from frame memory 621, to obtain the foreground component.
  • the computing unit 653 supplies the foreground component of the pixel of the frame t belonging to the covered background area to the combining unit 633.
  • the synthesizing unit 633 includes the foreground components of the pixels belonging to the uncovered background area supplied from the computing unit 643 and the covered background area supplied from the computing unit 653 in the frame.
  • the foreground components of the pixels to which they belong are combined and supplied to the frame memory 6 23
  • the synthesizing unit 634 includes, in the frame, the background component of the pixel belonging to the anchored background area supplied from the switch 642 and belonging to the covered background area supplied from the switch 652.
  • the background components of the pixels are combined and supplied to the frame memory 623.
  • the frame memory 62 3 stores the foreground component and the background component of the pixels in the mixed area of the frame #n supplied from the separation processing block 62 2, respectively.
  • the frame memory 623 outputs the stored foreground components of the pixels in the mixed area of frame #n and the stored background components of the pixels in the mixed area of frame #n.
  • the synthesizing unit 603 generates a foreground component image by synthesizing the foreground components of the pixels in the mixed region of frame #n output from the separating unit 601 and the pixels belonging to the foreground region.
  • the unit 605 combines the background component of the pixel in the mixed area of the frame #n output from the separation unit 601 with the pixel belonging to the background area to generate a background component image.
  • FIG. 7OA shows an example of a foreground component image corresponding to the frame tin in FIG. Since the leftmost pixel and the 14th pixel from the left consisted of only the background component before the foreground and background were separated, the pixel value was set to 0.
  • the second to fourth pixels from the left belong to the expanded background area before the foreground and the background are separated, the background component is set to 0, and the foreground component is left as it is.
  • the 11th to 13th pixels from the left belong to the covered background area, the background component is set to 0, and the foreground component is left as it is.
  • the 5th to 10th pixels from the left are left as they are because they consist only of foreground components.
  • FIG. 70B shows an example of a background component image corresponding to frame #n in FIG.
  • the leftmost pixel and the 14th pixel from the left are left alone because they consisted only of the background component before the foreground and background were separated.
  • the second to fourth pixels from the left belong to the expanded background area before the foreground and the background are separated, the foreground component is set to 0, and the background component is left as it is.
  • the 11th to 13th pixels from the left belong to the covered background area before the foreground and background are separated, the foreground component is set to 0, and the background component is left as it is. Since the fifth through tenth pixels from the left consist only of the foreground components before the foreground and background are separated, the pixel value is set to 0.
  • step S601 the frame memory 621 of the separation unit 600 acquires the input image, and sets the frame ttn to be separated from the foreground and the background into the previous frame #nl and the subsequent frame 11 with ttn + 1.
  • step S602 the separation processing block 622 of the separation unit 601 acquires the area information supplied from the mixture ratio calculation unit 104.
  • step S603 the separation processing block 622 of the separation unit 601 acquires the mixture ratio H supplied from the mixture ratio calculation unit 104.
  • step S604 the uncovered area processing unit 631 sends the uncovered buffer supplied from the frame memory 621, based on the area information and the mixture ratio.
  • the background component is extracted from the pixel values of the pixels belonging to the background area.
  • step S605 the uncovered area processing unit 631 determines the pixels of the pixels belonging to the uncovered background area supplied from the frame memory 621, based on the area information and the mixture ratio. Extract the foreground component from the value.
  • step S606 the covered area processing unit 632 calculates the pixel value of the pixel belonging to the covered background area supplied from the frame memory 621, based on the area information and the mixture ratio or. Extract background components.
  • step S607 the covered area processing unit 632 determines the pixel value of the pixel belonging to the covered background area supplied from the frame memory 621, based on the area information and the mixture ratio Of. Extract foreground components.
  • step S 608 the synthesizing section 633 3 extracts the foreground components of the pixels belonging to the uncovered background area extracted in the processing in step S 605 and the components in the processing in step S 607.
  • the pixels belonging to the covered background area are combined with the foreground components.
  • the synthesized foreground component is supplied to the synthesis unit 603. Further, the synthesizing unit 603 synthesizes the pixels belonging to the foreground area supplied via the switch 602 with the foreground components supplied from the separating unit 601 to generate a foreground component image. To achieve.
  • step S609 the synthesizing unit 634 extracts the background components of the pixels belonging to the uncovered background area extracted in the processing of step S604 and the background components of the pixels in the processing of step S606. And the background components of the pixels belonging to the covered background area.
  • the synthesized background component is supplied to the synthesis unit 605. Further, the synthesizing unit 605 synthesizes the pixels belonging to the background area supplied via the switch 604 and the background component supplied from the separating unit 601 to generate a background component image. To achieve.
  • step S610 the synthesizing unit 603 outputs a foreground component image.
  • step S611 the synthesizing unit 605 outputs the background component image, and the process ends.
  • the foreground / background separation unit 105 separates the foreground component and the background component from the input image based on the region information and the mixture ratio, and outputs the foreground component image including only the foreground component, and A background component image consisting of only background components can be output. Next, adjustment of the amount of motion blur from the foreground component image will be described.
  • FIG. 72 is a block diagram illustrating an example of the configuration of the motion-blur adjusting unit 106.
  • the motion vector and its position information supplied from the motion detection unit 102 and the region information supplied from the region identification unit 103 are supplied to the processing unit determination unit 801 and the modeling unit 802. Is done.
  • the foreground component image supplied from the foreground / background separating unit 105 is supplied to the adding unit 804.
  • the processing unit determination unit 8001 supplies the generated processing unit to the modeling unit 8002 together with the motion vector based on the motion vector, its position information, and the area information.
  • the processing unit determination unit 801 supplies the generated processing unit to the adding unit 804.
  • the processing unit generated by the processing unit determination unit 8001 starts with the pixel corresponding to the covered background area of the foreground component image and the pixel corresponding to the uncovered background area as shown by an example A in FIG. It indicates continuous pixels arranged in the motion direction up to the pixel corresponding to the uncovered background area or continuous pixels arranged in the motion direction up to the pixel corresponding to the covered background area.
  • the processing unit is composed of, for example, two data: an upper left point (a pixel specified by the processing unit and a position of a pixel located at the leftmost or uppermost position on the image) and a lower right point.
  • the modeling unit 802 performs modeling based on the motion vector and the input processing unit. More specifically, for example, the modeling unit 802 includes a plurality of models corresponding to the number of pixels included in a processing unit, the number of virtual divisions of pixel values in the time direction, and the number of foreground components for each pixel. Is stored in advance, and a model that specifies the correspondence between pixel values and foreground components, as shown in Fig. 74, is selected based on the processing unit and the number of virtual divisions of pixel values in the time direction. You may do it.
  • the number of pixels corresponding to the processing unit is 12 and the amount of motion within the shirt time V
  • the modeling unit 8002 sets the number of virtual divisions to 5, the leftmost pixel includes one foreground component, and the second pixel from the left includes two foreground components.
  • the third pixel from the left contains three foreground components
  • the fourth pixel from the left contains four foreground components
  • the fifth pixel from the left contains five foreground components
  • the sixth pixel from the left contains five foreground components
  • the seventh pixel from the left contains five foreground components
  • the eighth pixel from the left contains five foreground components
  • the ninth from the left is the ninth from the left.
  • the pixel contains four foreground components, the tenth pixel from the left contains three foreground components, the first pixel from the left contains two foreground components, and the first and second pixels from the left Select a model that contains one foreground component and has a total of eight foreground components.
  • modeling unit 8002 generates a model based on the motion vector and the processing unit when the motion vector and the processing unit are supplied instead of selecting from the model stored in advance. You may make it.
  • the modeling unit 802 supplies the selected model to the equation generation unit 803.
  • the equation generation unit 803 generates an equation based on the model supplied from the modeling unit 802. Referring to the foreground component image model shown in FIG. 74, the number of foreground components is 8, the number of pixels corresponding to the processing unit is 12, the motion amount V is 5, and the number of virtual divisions is The equation generated by the equation generator 803 when the value is 5 will be described.
  • the foreground component corresponding to the shirt time / V included in the foreground component image is FO l / v or
  • C05 F05 / v + F04 / v + F03 / v + F02 / v + F01 / v (82)
  • C06 F06 / v + F05 / v + F04 / v + F03 / v + F02 / v (83)
  • Equation generator 803 transforms the generated equation to generate an equation.
  • the equations generated by the equation generator 803 are shown in equations (90) to (101).
  • C02 l-FOl / v + 1F02 / v + 0F03 / v + 0F04 / v + 0F05 / v
  • CI 1 0-FOl / v + 0-F02 / v + 0-F03 / v + 0F04 / v + 0-F05 / v
  • Equations (90) to (101) can also be expressed as equation (102).
  • j indicates the position of the pixel.
  • j has a value of any one of 1 to 12.
  • I indicates the position of the foreground value.
  • i has a value of any one of 1 to 8.
  • aij has 0 or 1 corresponding to the values of i and j.
  • Expression (102) can be expressed as expression (103) when considering the error.
  • ej is an error included in the target pixel Cj.
  • Equation (103) can be rewritten as equation (104).
  • Equation (107) is derived.
  • Expression (1 08) is expanded into eight expressions obtained by substituting any one of integers 1 to 8 into k.
  • the obtained eight expressions can be represented by one expression using a matrix. This equation is called a normal equation.
  • a and V are known at the time of modeling, but C is known by inputting pixel values in the adding operation.
  • the error contained in the pixel C can be dispersed.
  • the equation generating section 803 supplies the normal equation generated in this way to the adding section 804.
  • the adding unit 804 converts the pixel value C included in the foreground component image into an equation of a matrix supplied from the equation generating unit 803 based on the processing unit supplied from the processing unit determining unit 801. Set.
  • the adding unit 804 supplies the matrix in which the pixel values C are set to the arithmetic unit 805.
  • the calculation unit 805 calculates the foreground component Fi / v from which the motion blur has been removed by processing based on a solution method such as the sweeping-out method (Gauss-Jordan elimination), and calculates the foreground pixel from which the motion blur has been removed. Calculate the Fi corresponding to any one of the integers from 0 to 8, i.e., the value of Fi, which is the pixel value from which the motion blur has been removed, as shown in FIG. 75.
  • the foreground component image is output to the motion blur adding unit 806 and the selecting unit 807.
  • each of F01 to F08 is set for each of C03 to C10 so that the position of the foreground component image with respect to the screen is not changed. It can correspond to any position.
  • the motion blur adding unit 806 generates a motion blur adjustment amount v ′ having a value different from the motion amount V, for example, a motion blur adjustment amount v ′ having a half value of the motion amount V, or a value irrelevant to the motion amount V.
  • the motion blur adjustment amount v ' By giving the motion blur adjustment amount v ', the amount of motion blur can be adjusted.
  • the motion-blur adding unit 806 divides the foreground pixel value Fi from which the motion blur has been removed by the motion-blur adjustment amount v ′ to obtain a foreground component Fi / v ′. Is calculated, and the sum of the foreground components Fi / v 'is calculated to generate a pixel value in which the amount of motion blur is adjusted.
  • the motion blur adjustment amount v ' is 3
  • the pixel value C02 is (F01) / v'
  • the pixel value C03 is (F01 + F02) / v '
  • the pixel value C04 is ( F01 + F02 + F03) / v '
  • the pixel C05 is (F02 + F03 + F04) / v'.
  • the motion blur adding unit 806 supplies the foreground component image in which the amount of motion blur has been adjusted to the selecting unit 807.
  • the selection unit 807 supplies, for example, a foreground component image from which motion blur has been removed supplied from the calculation unit 805 and a motion blur addition unit 806 based on a selection signal corresponding to the user's selection.
  • One of the selected foreground component images with the adjusted amount of motion blur is selected, and the selected foreground component image is output.
  • the motion blur adjustment unit 106 can adjust the amount of motion blur based on the selection signal and the motion blur adjustment amount v ′.
  • the motion-blur adjusting unit 106 calculates the equation (1 10) Generate an expression for matrix.
  • the motion-blur adjusting unit 106 sets an expression corresponding to the length of the processing unit in this way, and calculates Fi, which is a pixel value in which the amount of motion blur has been adjusted. Similarly, for example, when the number of pixels included in the processing unit is 100, an equation corresponding to 100 pixels is generated, and Fi is calculated.
  • FIG. 78 is a diagram showing another configuration of the motion-blur adjusting unit 106.
  • the same parts as those in the case shown in FIG. 72 are denoted by the same reference numerals, and description thereof will be omitted.
  • the selection unit 821 supplies the input motion vector and its position signal to the processing unit determination unit 801 and the modeling unit 802 as they are, or
  • the magnitude of the motion vector is replaced by the motion blur adjustment amount v ', and the motion vector whose size is replaced by the motion blur adjustment amount v' and the position signal are processed by the processing unit determination unit 8 0 1 and the modeling unit 802.
  • the processing unit determination unit 801 to the calculation unit 805 of the motion blur adjustment unit 106 in FIG. 78 correspond to the values of the motion amount V and the motion blur adjustment amount v ′.
  • the result of the motion blur adding unit 806 includes the motion amount V and the motion blur adjustment amount v ′. It should be noted that the meaning of the relationship is different.
  • the motion-blur adjusting unit 106 generates an equation corresponding to the motion amount V and the processing unit, sets the pixel value of the foreground component image in the generated equation, and reduces the amount of motion blur. An adjusted foreground component image is calculated.
  • step S801 the processing unit determination unit 801 of the motion blur adjustment unit 106 generates a processing unit based on the motion vector and the area information, and the generated processing unit is modeled by the modeling unit 8. 0 to 2
  • step S802 the modeling unit 802 of the motion-blur adjusting unit 106 selects or generates a model according to the motion amount V and the processing unit.
  • step S803 the equation generator 803 creates a normal equation based on the selected model.
  • step S804 the adding unit 804 sets the pixel value of the foreground component image in the created normal equation.
  • step S805 the adding unit 804 determines whether or not the pixel values of all pixels corresponding to the processing unit have been set. If it is determined that the pixel values of all the pixels corresponding to the logical unit have not been set, the process returns to step S804, and the process of setting the pixel values for the normal equation is repeated. If it is determined in step S805 that the pixel values of all the pixels in the processing unit have been set, the process proceeds to step S806, and the arithmetic unit 805 is supplied from the adding unit 804. Based on the normal equation in which the pixel value is set, the pixel value of the foreground with the amount of motion blur adjusted is calculated, and the process ends.
  • the motion blur adjusting unit 106 can adjust the amount of motion blur from the foreground image including motion blur based on the motion vector and the area information.
  • FIG. 80 is a block diagram illustrating another example of the configuration of the motion-blur adjusting unit 106.
  • the motion vector and its position information supplied from the motion detection unit 102 are supplied to the processing unit determination unit 901 and the correction unit 905, and the region information supplied from the region identification unit 103 is , And are supplied to the processing unit determination unit 901.
  • the foreground component image supplied from the foreground / background separator 105 is supplied to the calculator 904.
  • the processing unit determination unit 901 supplies the generated processing unit to the modeling unit 902 together with the motion vector based on the motion vector, its position information, and area information.
  • the modeling unit 902 performs modeling based on the motion vector and the input processing unit. More specifically, for example, the modeling unit 92 includes a plurality of models corresponding to the number of pixels included in the processing unit, the number of virtual divisions of pixel values in the time direction, and the number of foreground components for each pixel. Is stored in advance, and a model that specifies the correspondence between pixel values and foreground components is selected as shown in Fig. 81 based on the processing unit and the number of virtual divisions of pixel values in the time direction. You may do it.
  • the modeling unit 902 sets the number of virtual divisions to 5, the leftmost pixel includes one foreground component, the second pixel from the left includes two foreground components, and 3
  • the third pixel contains three foreground components
  • the fourth pixel from the left contains four foreground components
  • the fifth pixel from the left contains five foreground components
  • the sixth pixel from the left contains 5
  • the seventh pixel from the left contains five foreground components
  • the eighth pixel from the left contains five foreground components
  • the ninth pixel from the left contains four foreground components.
  • the 10th pixel from the left contains three foreground components, the 11th pixel from the left contains two foreground components, and the 12th pixel from the left represents one foreground component.
  • the modeling unit 902 uses the model based on the motion vector and the processing unit. May be generated.
  • the equation generation unit 903 generates an equation based on the model supplied from the modeling unit 902.
  • the number of foreground components is 8
  • the number of pixels corresponding to the processing unit is 12, and the motion amount V is 5.
  • an example of an equation generated by the equation generating unit 93 will be described.
  • the pixel value C12 includes only the foreground component F08 / v, as shown in Equation (1 1 1)
  • the pixel value C11 includes the foreground component F08 / v and the foreground component Consists of the sum of products of F07 / v. Therefore, the foreground component F07 / v can be obtained by equation (1 1 2).
  • the equation generation unit 903 generates an equation for calculating a foreground component based on a difference between pixel values, as shown in Expressions (111) to (118).
  • the equation generator 903 supplies the generated equation to the calculator 904.
  • the operation unit 904 sets the pixel value of the foreground component image to the equation supplied from the equation generation unit 903, and calculates the foreground component based on the equation in which the pixel value is set. For example, when the equations (1 1 1) to (1 18) are supplied from the equation generating section 9 03, the computing section 904 generates the equations (1 1 1) to (1 18) The pixel values C05 to C12 are set in.
  • the calculation unit 904 calculates a foreground component based on the equation in which the pixel value is set. For example, the calculating unit 904 calculates the foreground component FOl / v as shown in FIG. 82 by performing calculations based on equations (1 1 1) to (1 18) in which pixel values C05 to C12 are set. Or F08 / v is calculated. The calculation unit 904 supplies the foreground components FOl / v to F08 / v to the correction unit 905.
  • the correction unit 905 removes motion blur by multiplying the foreground component supplied from the calculation unit 904 by the motion amount V included in the motion vector supplied from the processing unit determination unit 901 Calculate the element value of the foreground. For example, when the foreground components FOl / v to F08 / v supplied from the arithmetic unit 904 are supplied, the correction unit 905 is 5 for each of the foreground components FOl / v to F08 / v. By multiplying by the motion amount V, as shown in FIG. 83, the pixel values F01 to F08 of the foreground from which the motion blur has been removed are calculated.
  • the correcting unit 905 supplies the foreground component image composed of the pixel values of the foreground, from which the motion blur has been removed, calculated as described above, to the motion blur adding unit 906 and the selecting unit 907.
  • the motion-blur adding unit 9 06 generates a motion-blur adjustment amount v ′ having a value different from the motion amount V, for example, a motion-blur adjustment amount v ′ having a half value of the motion amount V, and a motion-blur adjustment amount v ′ having a value independent of the motion amount V.
  • the amount of motion blur can be adjusted with the motion blur adjustment amount v '. For example, as shown in FIG. 76, the motion blur adding unit 906 divides the foreground pixel value Fi from which the motion blur has been removed by the motion blur adjustment amount v ′ to obtain a foreground component Fi / v ′. To calculate the foreground component
  • Fi / v ' is calculated to generate a pixel value in which the amount of motion blur is adjusted.
  • the motion blur adjustment amount v ' is 3
  • the pixel value C02 is (F01) / v'
  • the pixel value C03 is (F01 + F02) / v '
  • the pixel value C04 is (F01 + F02 + F03) / v '
  • the pixel value C05 is (F02 + F03 + F04) / v'.
  • the motion blur adding unit 906 supplies the foreground component image in which the amount of motion blur has been adjusted to the selecting unit 907.
  • the selection unit 907 supplies the foreground component image from which the motion blur has been removed supplied from the correction unit 905 and the motion blur addition unit 906 based on a selection signal corresponding to the user's selection, for example.
  • One of the selected foreground component images with the adjusted amount of motion blur is selected, and the selected foreground component image is output.
  • the motion blur adjustment unit 106 can adjust the amount of motion blur based on the selection signal and the motion blur adjustment amount v ′.
  • step S901 the processing unit determination unit 901 of the motion blur adjustment unit 106 generates a processing unit based on the motion vector and the area information, and converts the generated processing unit into a modeling unit. It is supplied to the 902 and the correction unit 905.
  • step S902 the modeling unit 902 of the motion-blur adjusting unit 106 selects or generates a model according to the motion amount V and the processing unit.
  • step S903 the equation generation unit 903 selects a previous model based on the selected or generated model.
  • An equation for calculating a foreground component based on a difference between pixel values of the scene component image is generated.
  • step S904 the arithmetic unit 904 sets the pixel value of the foreground component image in the created equation, and calculates the foreground component from the pixel value difference based on the equation in which the pixel value is set. Extract.
  • step S905 the arithmetic unit 904 determines whether all foreground components corresponding to the processing unit have been extracted, and has not extracted all foreground components corresponding to the processing unit. If the judgment is made, the process returns to step S904, and the process of extracting the foreground component is repeated.
  • step S905 If it is determined in step S905 that all the foreground components corresponding to the processing unit have been extracted, the process proceeds to step S906, where the correction unit 905 determines the operation unit based on the motion amount V. By correcting each of the foreground components FO l / v to F08 / v supplied from 904, the foreground pixel values F01 to F08 from which motion blur has been removed are calculated.
  • step S907 the motion blur adding unit 906 calculates the pixel value of the foreground with the amount of motion blur adjusted, and the selecting unit 907 selects the image or motion blur from which the motion blur has been removed. Then, one of the images whose amount has been adjusted is selected, the selected image is output, and the process ends.
  • the motion-blur adjusting unit 106 shown in FIG. 80 can adjust the motion blur from the foreground image including the motion blur with a simpler operation.
  • the motion-blur adjusting unit 106 shown in Fig. 80 also has a sufficient effect on the actual image that has been quantized and contains noise, enabling accurate motion blur removal. Becomes
  • FIG. 85 is a block diagram illustrating another configuration of the functions of the image processing apparatus.
  • the region specifying unit 103 supplies the region information to the mixture ratio calculating unit 104 and the combining unit 1001.
  • the mixture ratio calculation unit 104 supplies the mixture ratio H to the foreground / background separation unit 105 and the synthesis unit 1001.
  • the foreground / background separation unit 105 supplies the foreground component image to the synthesis unit 1001.
  • the synthesizing unit 1001 generates an arbitrary background image and a foreground / background separating unit 1 based on the mixing ratio supplied from the mixing ratio calculating unit 104 and the region information supplied from the region specifying unit 103.
  • the foreground component image supplied from 05 is synthesized, and a synthesized image in which an arbitrary background image and a foreground component image are synthesized is output.
  • FIG. 86 is a diagram illustrating a configuration of the combining unit 1001.
  • the background component generation unit 1021 generates a background component image based on the mixing ratio H and an arbitrary background image, and supplies the background component image to the mixed region image synthesis unit 102.
  • the mixed area image synthesizing unit 102 generates a mixed area synthesized image by synthesizing the background component image and the foreground component image supplied from the background component generation unit 1021, and generates the mixed area.
  • the combined image is supplied to the image combining unit 102.
  • the image combining unit 1023 combines the foreground component image, the mixed region combined image supplied from the mixed region image combining unit 1022, and an arbitrary background image based on the region information to form a combined image. Generate and output.
  • the synthesizing unit 1001 can synthesize the foreground component image with an arbitrary background image.
  • An image obtained by synthesizing a foreground component image with an arbitrary background image based on the mixture ratio h, which is a feature, is more natural than an image obtained by simply synthesizing pixels.
  • FIG. 87 is a block diagram illustrating still another configuration of the function of the image processing apparatus that adjusts the amount of motion blur. While the image processing apparatus shown in FIG. 2 sequentially performs the area specification and the calculation of the mixture ratio, the image processing apparatus shown in FIG. 87 performs the area specification and the calculation of the mixture ratio in parallel.
  • the input image consists of a mixture ratio calculation unit 1101, foreground / background separation unit 1102, and a region identification unit 1. 0 3 and the object extraction unit 101.
  • the mixing ratio calculation unit 1101 calculates the estimated mixing ratio when the pixel belongs to the covered background area and the estimated mixing ratio when the pixel belongs to the uncovered background area. Is calculated for each pixel included in the input image, and the estimated mixture ratio when the calculated pixel belongs to the covered background area, and when the pixel belongs to the uncovered background area Is supplied to the foreground / background separation unit 1102.
  • FIG. 88 is a block diagram illustrating an example of the configuration of the mixture ratio calculation unit 1101.
  • the estimated mixture ratio processing unit 401 shown in FIG. 88 is the same as the estimated mixture ratio processing unit 401 shown in FIG.
  • the estimated mixture ratio processing unit 402 shown in FIG. 88 is the same as the estimated mixture ratio processing unit 402 shown in FIG.
  • the estimated mixture ratio processing unit 401 calculates the estimated mixture ratio for each pixel by an operation corresponding to the model of the covered background area based on the input image, and outputs the calculated estimated mixture ratio.
  • the estimated mixture ratio processing unit 402 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered background area based on the input image, and outputs the calculated estimated mixture ratio.
  • the foreground / background separation unit 1102 calculates the estimated mixture ratio supplied from the mixture ratio calculation unit 1101, assuming that the pixel belongs to the force bird background area, and the pixel is uncovered background.
  • a foreground component image is generated from the input image based on the estimated mixture ratio when it is assumed to belong to the region and the region information supplied from the region identification unit 103, and the generated foreground component image is subjected to motion blur adjustment. This is supplied to the unit 106 and the selection unit 107.
  • FIG. 89 is a block diagram illustrating an example of the configuration of the foreground / background separation unit 1102. Portions similar to those of the foreground / background separation unit 105 shown in FIG. 64 are denoted by the same reference numerals, and description thereof will be omitted.
  • the selection unit 1 121 is based on the region information supplied from the region identification unit 103, and based on the region information supplied from the mixture ratio calculation unit 1101, it is assumed that the pixels belong to the covered background region. Either the estimated mixture ratio or the estimated mixture ratio when the pixel is assumed to belong to the uncovered background area is selected, and the selected estimated mixture ratio is supplied to the separation unit 601 as the mixture ratio. .
  • the separation unit 6001 extracts a foreground component and a background component from the pixel values of the pixels belonging to the mixed region based on the mixture ratio and the region information supplied from the selection unit 1 121, and extracts the extracted foreground. Is supplied to the synthesizing unit 603, and the background component is supplied to the synthesizing unit 605.
  • Separating section 600 can have the same configuration as the configuration shown in FIG.
  • the combining unit 603 combines the foreground component images and outputs the combined image.
  • the combining unit 605 combines and outputs the background component image.
  • the motion-blur adjusting unit 106 shown in FIG. 87 can have the same configuration as that shown in FIG. 2, and is based on the area information and the motion vector.
  • the amount of motion blur included in the supplied foreground component image is adjusted, and the foreground component image in which the amount of motion blur is adjusted is output.
  • the selection unit 107 shown in FIG. 87 is based on, for example, a selection signal corresponding to the user's selection.
  • the foreground component image supplied from the foreground / background separation unit 1102 and the motion blur adjustment unit 106 And selects one of the foreground component images supplied with the adjusted amount of motion blur, and outputs the selected foreground component image.
  • the image processing device having the configuration shown in FIG. 87 can adjust the amount of motion blur included in the input image and output the image corresponding to the foreground object included in the input image. it can.
  • the image processing apparatus having the configuration shown in FIG. 87 can calculate the mixture ratio H, which is embedded information, and output the calculated mixture ratio, as in the first embodiment.
  • FIG. 90 is a block diagram showing another configuration of the function of the image processing apparatus that combines the foreground component image with an arbitrary background image.
  • the image processing device shown in Figure 85 identifies the area and mix ratio
  • the image processing apparatus shown in FIG. 90 performs the calculation of the area and the calculation of the mixture ratio in parallel, whereas the calculation of the data is performed serially.
  • the mixture ratio calculation unit 1101 shown in FIG. 90 calculates the estimated mixture ratio when the pixels belong to the covered background area based on the input image, and the pixels belong to the uncovered background area. Is calculated for each pixel included in the input image, and the estimated mixture ratio when the calculated pixel is assumed to belong to the covered background area, and the pixel is calculated in the uncovered background area Are supplied to the foreground / background separation unit 1102 and the synthesis unit 1221, respectively.
  • the foreground / background separation unit 1102 shown in FIG. 90 calculates the estimated mixture ratio supplied from the mixture ratio calculation unit 1101, assuming that the pixel belongs to the covered background area, and the uncovered pixel.
  • a foreground component image is generated from the input image based on the estimated mixture ratio when it is assumed to belong to the background area and the area information supplied from the area specifying unit 103, and the generated foreground component image is synthesized by the combining unit. Supply to 201.
  • the synthesizing unit 1221 based on the estimated mixing ratio when the pixel belongs to the covered background area, and the pixel, which are supplied from the mixing ratio calculating unit 1101, are assumed to belong to the uncovered background area.
  • the arbitrary background image and the foreground component image supplied from the foreground / background separation unit 1102 are synthesized based on the estimated mixture ratio in the case and the region information supplied from the region identification unit 103, and And outputs a composite image in which the background image and the foreground component image are combined.
  • FIG. 91 is a diagram illustrating the configuration of the synthesizing unit 1221. Parts that are the same as the functions shown in the block diagram of FIG. 86 are given the same numbers, and descriptions thereof are omitted.
  • the selection unit 1221 based on the region information supplied from the region identification unit 103, the pixels supplied from the mixture ratio calculation unit 1101, and the pixels belong to the covered background region Either the estimated mixture ratio when the pixel is assumed to belong to the uncovered background region or the estimated mixture ratio when the pixel belongs to the uncovered background area, and the selected estimated mixture ratio is used as the mixture ratio to generate the background component.
  • the background component generation unit 1021 shown in FIG. 91 generates a background component image based on the mixing ratio and an arbitrary background image supplied from the selection unit 1221, and synthesizes a mixed region image. Supply to section 102.
  • the mixed area image synthesizing unit 102 shown in FIG. 91 generates a mixed area synthesized image by synthesizing the background component image supplied from the background component generation unit 1021 and the foreground component image. Then, the generated mixed area synthesized image is supplied to the image synthesizing unit 102.
  • the image combining unit 1023 combines the foreground component image, the mixed region combined image supplied from the mixed region image combining unit 1022, and an arbitrary background image based on the region information to form a combined image. Generate and output.
  • the synthesizing unit 1221 can synthesize the foreground component image with an arbitrary background image.
  • a component refers to an individual signal such as a luminance signal and a color difference signal or an RGB (Red-green-blue) signal in a component signal.
  • FIG. 92 is a diagram illustrating an embodiment of an image processing apparatus that generates region information based on an input image input as a component signal.
  • Component 1 which is one of the component signals of the input image, is input to the area specifying unit 103-3-1.
  • Component 2 which is another one of the component signals of the input image, is input to the area specifying unit 103_2.
  • Component 3 which is another one of the component signals of the input image, enters the region identification unit 103-3. Is forced.
  • the area specifying unit 1303-1 generates the area information 1 based on the component 1, and supplies the generated area information 1 to the OR processing unit 1301.
  • the area specifying unit 103-1 has the same configuration as that of the area specifying unit 103, and a description thereof will be omitted.
  • the area specifying unit 103-3-2 generates the area information 2 based on the component 2, and supplies the generated area information 2 to the logical sum processing unit 1301.
  • the area specifying unit 103-3-2 has the same configuration as the area specifying unit 103, and a description thereof will be omitted.
  • the area specifying unit 103-3-3 generates area information 3 based on the component 3, and supplies the generated area information 3 to the OR processing unit 1301.
  • the region specifying unit 103-3 has the same configuration as that of the region specifying unit 103, and a description thereof will be omitted.
  • the OR processing unit 13 01 includes the region information 1 supplied from the region specifying unit 10 3-1, the region information 2 supplied from the region specifying unit 10 3-2, and the region specifying unit 10 3- Based on the area information 3 supplied from 3, the logical sum of the foreground area indicated by the area information 1, the foreground area indicated by the area information 2, and the foreground area indicated by the area information 3 is calculated. Area information in which the calculated foreground area is set is generated.
  • the OR processing unit 1 3 0 1 includes the area information 1 supplied from the area specifying unit 103-1, the area information 2 supplied from the area specifying unit 103-2, and the area specifying unit 1 0 3 — Based on the area information 3 supplied from 3, the logical sum of the background area indicated by the area information 1, the background area indicated by the area information 2, and the background area indicated by the area information 3 is calculated. Generates area information with the background area set.
  • the OR processing unit 13 01 includes the region information 1 supplied from the region specifying unit 10 3-1, the region information 2 supplied from the region specifying unit 10 3-2, and the region specifying unit 10 3- Based on the area information 3 supplied from 3, the logical sum of the covered background area indicated by the area information 1, the covered background area indicated by the area information 2, and the covered background area indicated by the area information 3 is calculated. The area information which sets the covered background area calculated by the logical sum is generated. OR processing unit 1
  • 3 0 1 is the area information 1 supplied from the area specifying unit 10 3-1, and the area specifying unit 10 3 — Based on the area information 2 supplied from 2 and the area information 3 supplied from the area identification unit 103, the uncovered background area indicated by area information 1 and the fan indicated by area information 2 The logical sum of the covered background area and the anchored background area indicated by the area information 3 is calculated to generate area information in which the uncovered background area calculated by the logical sum is set.
  • the OR processing unit 1301 outputs area information in which a foreground area, a background area, a covered background area, and an uncovered background area are set.
  • FIG. 93 shows a component included in a component signal.
  • FIG. 2 is a diagram illustrating a relationship among 1, component 2, and component 3.
  • A indicates component 1
  • B indicates component 2
  • C indicates component 3.
  • the sensor has, for example, three CCD area sensors corresponding to component 1, component 2, and component 3.
  • the characteristics of the CCD sensor corresponding to component 1, the characteristics of the CCD sensor corresponding to component 2, and the characteristics of the CCD area sensor corresponding to component 3 are the same, and are the same for component 1, component 2, and component 3.
  • the resulting distortion is the same.
  • the sensor captures an object 111 corresponding to one foreground and an object 112 corresponding to one background, and outputs component 1, component 2, and component 3.
  • component 1 which is a color difference signal
  • component 2 which is a color difference signal
  • component 3 which is a color difference signal
  • the area signal and the mixing ratio are calculated based on the component 1. Even if it is calculated, a significant value cannot be obtained. If the region signal and the mixture ratio ⁇ are calculated based on the component 2 or the component 3, a significant value can be obtained.
  • the CCD area sensor corresponding to a specific component may cause an error.
  • the data increases, and the accuracy of the processing results is further improved.
  • the accuracy of the mixture ratio ⁇ calculated by applying the least squares method to multiple components is compared with the accuracy of the mixture ratio ⁇ calculated by processing using one component signal or one composite signal. And higher.
  • step S 1301 the area specifying unit 103-1 executes an area specifying process based on the component 1 to generate area information 1, and the generated area information 1 is subjected to a logical sum processing unit. Feed to 1301.
  • the process in step S1301 is the same as the process in step S111, and a detailed description thereof will be omitted.
  • step S1302 the area specifying unit 103-3-2 executes an area specifying process based on the component 2, generates the area information 2, and uses the generated area information 2 as a logical sum processing unit. Feed to 1301. Since the processing in step S1302 is the same as the processing in step S111, a detailed description thereof will be omitted.
  • step S1303 the area specifying unit 103_3 executes area specifying processing based on the component 3, generates area information 3, and uses the generated area information 3 as a logical sum processing unit. Feed to 1301.
  • the processing in step S 13 03 is the same as the processing in step S 11, and a detailed description thereof will be omitted.
  • step S 1304 the logical sum processing unit 1301 calculates the logical sum of the foreground area specified by the component 1, the foreground area specified by the component 2, and the foreground area specified by the component 3. Then, the foreground area calculated by the logical sum is set as the area information.
  • step S 1305 the logical sum processing unit 1301 calculates the logical sum of the background area specified by the component 1, the background area specified by the component 2, and the background area specified by the component 3 Then, the background area calculated by the logical sum is set as the area information.
  • step S1306 the OR processing unit 1301 executes the covered background area specified by the component 1, the covered background area specified by the component 2, and the covered background area specified by the component 3.
  • the logical sum of the background area is obtained, and the covered background area calculated by the logical sum is set as the area information.
  • step SI307 the OR processing unit 1301 determines the uncovered background area specified by component 1, the uncovered background area specified by component 2, and the uncovered background area specified by component 2.
  • the logical sum of the uncovered background area calculated is obtained, and the uncovered background area calculated by the logical sum is set as the area information.
  • the logical sum processing unit 1301 outputs region information in which the foreground region, the background region, the covered background region, and the covered background region are set, and the process ends.
  • the image processing apparatus having the configuration shown in FIG. 92 specifies an area for each component of the component signal, calculates the logical sum of the specified area, and generates final area information.
  • the image processing apparatus having the configuration shown in FIG. 92 can output the specified area information without omission of the foreground area, the background area, the power bird background area, and the uncovered background area.
  • FIG. 95 is a diagram illustrating another embodiment of an image processing device that generates region information based on an input image input as a component signal.
  • the logical product processing unit 1 3 2 1 includes the region information 1 supplied from the region specifying unit 103-3, the region information 2 supplied from the region specifying unit 103-3, and the region specifying unit 103-3. Based on the area information 3 supplied from 3, the logical AND of the foreground area indicated by the area information 1, the foreground area indicated by the area information 2, and the foreground area indicated by the area information 3 is calculated. Area information in which the calculated foreground area is set is generated.
  • the logical product processing unit 1 3 2 1 includes the area information 1 supplied from the area specifying unit 103-1, the area information 2 supplied from the area specifying unit 103-2, and the area specifying unit 103 — Based on the area information 3 supplied from 3, the logical AND of the background area indicated by the area information 1, the background area indicated by the area information 2, and the background area indicated by the area information 3 is calculated, and the logical AND is calculated. Generates area information with the background area set.
  • the logical product processing unit 1 3 2 1 includes the region information 1 supplied from the region specifying unit 103-3, the region information 2 supplied from the region specifying unit 103-3, and the region specifying unit 103-3.
  • the logical product processing section 1 3 2 1 includes the area information 1 supplied from the area specifying section 103-1, the area information 2 supplied from the area specifying section 103 and the area specifying section 103. Based on the area information 3 supplied from 3, the logical product of the uncovered background area indicated by the area information 1, the uncovered background area indicated by the area information 2, and the anchored background area indicated by the area information 3 To generate area information that sets the uncovered background area calculated by the logical product.
  • the logical product processing unit 1 3 2 1 outputs the area information in which the foreground area, the background area, the covered background area, and the uncovered background area are set.
  • step S1321 the area specifying unit 103-3-1 executes an area specifying process based on the component 1, generates area information 1, and uses the generated area information 1 as a logical product processing unit.
  • Supply to 1 3 2 1 Since the processing in step S1321 is the same as the processing in step S11, a detailed description thereof will be omitted.
  • step S1332 the area specifying unit 103-3-2 executes an area specifying process based on the component 2, generates area information 2, and outputs the generated area information 2 to a logical product processing unit.
  • Supply to 1 3 2 1 Since the processing in step S1322 is the same as the processing in step S11, a detailed description thereof will be omitted.
  • step S1332 the area specifying unit 103-3 executes the area specifying processing based on the component 3, generates the area information 3, and outputs the generated area information 3 to the logical product processing unit.
  • Supply to 1 3 2 1 Step S 1 3 2 3 is performed in step S 1 Since it is the same as the processing of 1, the detailed description is omitted.
  • step S1 3 2 4 the logical product processing unit 1 3 2 1 calculates the logical product of the foreground region specified by component 1, the foreground region specified by component 2, and the foreground region specified by component 3. Then, the foreground area calculated by the logical product is set as the area information.
  • step S1325 the logical product processing unit 1321 calculates the logical product of the background area specified by the component 1, the background area specified by the component 2, and the background area specified by the component 3. Then, the background area calculated by the logical product is set as the area information.
  • step S 1 3 2 6 the logical product processing unit 1 3 2 1 converts the covered background area specified by component 1, the covered background area specified by component 2, and the covered background area specified by component 3 The logical product of the background area is obtained, and the covered background area calculated by the logical product is set as the area information.
  • step S 1 3 2 7 the logical product processor 1 3 2 1 determines the uncovered background area specified by component 1, the uncovered background area specified by component 2, and the The logical product of the calculated uncovered background area is obtained, and the uncovered background area calculated by the logical product is set as the area information.
  • the logical product processing unit 1321 outputs area information in which the foreground area, the background area, the covered background area, and the covered background area are set, and the processing ends.
  • the image processing apparatus having the configuration shown in FIG. 95 specifies an area for each component, calculates a logical product of the specified areas, and generates final area information.
  • the image processing apparatus shown in FIG. 95 can output area information with few errors.
  • FIG. 14 is a diagram illustrating still another embodiment of the image processing apparatus that generates the image.
  • the region identification unit 1 3 3 1 adds the component 1, component 2, and component 3 included in the input component signal for each pixel, and adds the component 1, component 2, and component 3 added for each pixel. Based on this, it is determined for each pixel whether it is a moving area or a still area.
  • the area specifying unit 1331 generates area information based on the determination result of the moving area or the still area, and outputs the generated area information.
  • the processing of the area specifying unit 1331 will be described. Due to the statistical nature of the image, as shown in Fig. 98, the temporal correlation is stronger than the spatial correlation in the static region of the image. On the other hand, in the motion region of the image, the spatial correlation is stronger than the temporal correlation.
  • the area specifying unit 1331 When calculating the spatial correlation for judging a moving area or a still area, the area specifying unit 1331, for example, as shown in FIG. For the pixels in the pixel block, the difference between the pixel values of adjacent pixels is calculated, and the sum of the absolute values of the calculated differences is calculated. The area specifying unit 1331 calculates a correlation value corresponding to the spatial correlation by dividing the sum of absolute values of the calculated differences by the number of differences.
  • the area specifying unit 1331 calculates a correlation value corresponding to the spatial correlation by dividing the sum of absolute differences by the number of differences, that is, 40. Also, when calculating the time correlation for determining a moving area or a still area, the area specifying unit 1331 determines the pixel value of the pixel of interest and the pixel value of the pixel at the corresponding position in the previous frame. Is calculated, and the difference between the pixel value of the pixel of interest and the pixel value of the pixel at the corresponding position in the next frame is calculated.
  • the region identification unit 1 33 1 1 calculates the difference between the pixel value of the pixel at the corresponding position of the previous frame and the , And the difference between the pixel value of the pixel at the corresponding position of the previous frame and the pixel value of the previous frame is selected.
  • the area specifying unit 1 3 3 1 calculates the sum of the absolute values of the selected differences.
  • the area specifying unit 1331 calculates the correlation value corresponding to the time correlation by dividing the sum of the calculated absolute values of the differences by the number of the differences.
  • the region identification unit 1331 focuses on the pixel of interest x22, and 3 pixels ⁇ 3 pixels Is calculated for each pixel of the block.
  • the region specifying unit 1 3 3 1 calculates the difference between the pixel value xll of the pixel of frame #n and the pixel value xll of the pixel at the corresponding position of frame ⁇ -l, and the pixel value xll of the pixel of frame #n,
  • the c region identification unit 1 3 3 1 that calculates the difference between the pixel value xll of the pixel at the corresponding position in frame # n + l and the difference between the pixel value xll of the pixel at the corresponding position in frame #nl and the frame From among the differences from the pixel value xll of the pixel at the position corresponding to # n + l, the difference with the smaller value is selected.
  • the area specifying unit 1331 calculates the difference between each of the pixel values xl2 to x33 of the pixel of frame #n and each of the pixel values ⁇ 12 to ⁇ 33 of the pixel at the corresponding position of frame ⁇ ⁇ ⁇ ⁇ ⁇ -1. , And a difference between each of the pixel values # 12 to # 33 of the pixel of the frame and each of the pixel values # 12 to # 33 of the pixel at the corresponding position of the frame +1.
  • the region specifying unit 1 3 3 1 calculates the difference between each of the pixel values ⁇ 12 to ⁇ 33 of the pixel at the corresponding position of the frame ⁇ -l and the pixel value ⁇ 12 to ⁇ 33 of the pixel at the corresponding position of the frame # ⁇ + 1. Of the corresponding differences with each of Select a minute.
  • the area specifying unit 1 3 3 1 calculates the sum of the absolute values of the selected 9 differences.
  • the area specifying unit 1331 calculates the correlation value corresponding to the time correlation by dividing the sum of the calculated absolute values of the differences by the number of differences, that is, nine.
  • the region specifying unit 1331 may calculate the time correlation and the spatial correlation for each pixel. In addition, the region specifying unit 1331 may calculate not only the sum of absolute differences but also a value indicating another correlation such as a sum of squared differences as a value indicating the time correlation and the spatial correlation.
  • FIG. 101 is a diagram for explaining the time correlation and the spatial correlation in the stationary region.
  • the pixel value J of the pixel of interest is the same as the pixel value J of the corresponding pixel in the adjacent frame. Therefore, the time correlation is extremely strong in the stationary region.
  • the pixel adjacent to the pixel of interest has a pixel value I or a pixel value ⁇ that is different from the pixel value J.
  • FIG. 102 is a diagram for explaining the temporal correlation and the spatial correlation in the motion area.
  • image components 1/4, J / 4, K / 4, and L / 4 included in the pixel of interest in the motion area image components 1/4, J / 4, and K / 4 is included in the neighboring pixel, and the image components J / 4, K / 4, and L / 4 are included in other neighboring pixels. Therefore, in the motion domain, the spatial correlation is strong.
  • pixels in adjacent frames corresponding to the pixel of interest include different image components.
  • the temporal correlation is weaker than the spatial correlation.
  • the region specifying unit 1331 obtains the spatial correlation and the temporal correlation, and compares the spatial correlation with the temporal correlation to determine whether the pixel of interest is included in the moving region. Or, it can be known whether or not it is included in the stationary area.
  • the area specifying unit 1331 executes determination of a moving area or a still area for all pixels included in the frame.
  • the area specifying unit 1331 determines, for each pixel, whether the pixel belongs to any of the foreground area, the background area, the covered background area, and the uncovered background area. Judge and generate area information. For example, when the same region as the foreground region is determined as a motion region, the region specifying unit 1331 sets the foreground region, the background region, the covered background background region, and the uncovered back for each pixel as follows. Determine the ground area. When the pixel of interest in the frame ⁇ ! ⁇ is determined to be a motion, the region specifying unit 1331 determines that the pixel of interest in the frame belongs to the foreground region.
  • the region specifying unit 1331 determines that the pixel of interest in the frame is determined to be stationary, and the pixel of frame # ⁇ + 1 at the same position as the pixel of interest in the frame on the image is determined to be motion. When it is determined, it is determined that the pixel of interest in frame # ⁇ belongs to the covered background area.
  • the region specifying unit 1331 determines that the pixel of interest of the frame is stationary, and the pixel of frame fin-1 at the same position as the position of the pixel of interest in frame ftn on the image is determined to be motion. When it is determined, it is determined that the pixel of interest in frame ttn belongs to the anchored background area.
  • the area specifying unit 1331 which is determined to be stationary, determines that a pixel that does not belong to the covered background area or the uncovered background area belongs to the background area.
  • the region specifying unit 1331 refers to the still region of the adjacent frame, and for each pixel, the foreground region, the background region, and the force region. Judge the background and uncovered background areas.
  • FIG. 103 is a diagram illustrating an example of an input image corresponding to the component 1, the component 2, and the component 3 input to the area specifying unit 1331.
  • FIG. 104 is a diagram illustrating a result of determining a moving region or a still region for each pixel of the region specifying unit 1331, corresponding to the input image illustrated in FIG. 103.
  • white indicates a moving area
  • black indicates a stationary area. It is clear that the moving area or the still area is almost specified as a whole, although there are some parts that are misjudged.
  • FIG. 105 shows the result of judging a moving area or a still area in units of a block of 15 pixels ⁇ 15 pixels, corresponding to the input image shown in FIG. FIG.
  • white indicates a moving area
  • black indicates a stationary area. It can be seen that the moving area or the still area is almost accurately specified.
  • FIG. 106 shows the area specifying unit 1 3 3 based on the result of the determination of the moving area or the still area shown in FIG.
  • FIG. 6 is a diagram showing a result of determination of a foreground area, a background area, a covered background area, and an uncovered background area according to No. 1.
  • A indicates a background area
  • B indicates an uncovered background area
  • C indicates a foreground area
  • D indicates a covered background area.
  • the area is determined based on the almost accurate identification of the moving or stationary area, it can be seen that the foreground area, background area, covered background area, and uncovered background area can be almost accurately identified. .
  • step S1331 the region specifying unit 1331 calculates the sum of components for each pixel.
  • step S1332 the area specifying unit 1331, for example, obtains a spatial correlation in units of a block including a predetermined number of pixels.
  • step S1333 the area specifying unit 1331, for example, sets a block composed of a predetermined number of pixels as a unit. To find the time correlation.
  • step S1334 the area identifying unit 1331, for each pixel, compares the spatial correlation with the temporal correlation, determines whether the temporal correlation is stronger than the spatial correlation, and determines whether the spatial correlation is higher. If it is determined that the temporal correlation is stronger, the process proceeds to step S1335, the pixel of interest is set as a still region, and the process proceeds to step S13337.
  • step S1334 If it is determined in step S1334 that the temporal correlation is not stronger than the spatial correlation, the spatial correlation is stronger than the temporal correlation.Therefore, the process proceeds to step S1336.
  • the current pixel is set as a motion area, and the process proceeds to step S13337.
  • step S1334 to step S13336 is executed for each of all the pixels in the frame.
  • step S1337 the area specifying unit 1331 determines the foreground area, the background area, the covered background area, or the uncovered background area based on the still or motion setting, and the processing ends. I do.
  • step S1337 when it is determined that the pixel of interest in frame ttn is moving, the region specifying unit 1331, the pixel of interest in frame #n belongs to the foreground region Is determined.
  • the region The specifying unit 1331 determines that the pixel of interest in the frame ⁇ belongs to the covered background area.
  • Region identification when the pixel of interest in frame ftn is determined to be stationary and the pixel of frame ⁇ -l at the same position as the pixel of interest in frame ⁇ is determined to be moving The unit 1331 determines that the pixel of interest in the frame belongs to the anchored background area.
  • the area specifying unit 1 3 3 1 is determined to be stationary, and determines that pixels that do not belong to the covered background area or the uncovered background area belong to the background area. I do.
  • the area specifying unit 1331 can specify the foreground area, the background area, the covered background area, or the uncovered background area based on the component.
  • FIG. 108 is a diagram illustrating an embodiment of an image processing apparatus that calculates a mixture ratio ⁇ based on an input image and area information input as a component signal.
  • the mixing ratio calculation unit 1044-1 calculates the mixing ratio 1 based on the region information and the component 1, and supplies the calculated mixing ratio 1 to the averaging unit 1401. Since the mixture ratio calculation unit 104-1 has the same configuration as the mixture ratio calculation unit 104, description thereof will be omitted.
  • the mixture ratio calculation unit 1044-2 calculates the mixture ratio 2 based on the area information and the component 2, and supplies the calculated mixture ratio 2 to the average processing unit 1401. Since the mixture ratio calculation unit 104-2 has the same configuration as the mixture ratio calculation unit 104, the description thereof is omitted.
  • the mixture ratio calculation unit 104-3 calculates the mixture ratio 3 based on the area information and the component 3, and supplies the calculated mixture ratio 3 to the average processing unit 1401.
  • the mixture ratio calculation unit 104-3 has the same configuration as the mixture ratio calculation unit 104, and a description thereof will be omitted.
  • the averaging unit 1401 includes a mixing ratio 1 supplied from the mixing ratio calculation unit 104-1, a mixing ratio 2 supplied from the mixing ratio calculation unit 104-2, and a mixing ratio calculation unit 1 Calculates the average value of the mixing ratio 3 supplied from 0 4-3 and outputs the calculated average value as the mixing ratio ⁇ .
  • the mixing ratio corresponding to the luminance value Y, which is the component 1 the mixing ratio corresponding to the color difference U, which is the component 2, and the color difference V, which is the component 3, at a predetermined pixel.
  • the corresponding mixing ratios are the same.
  • the image processing device shown in Fig. 108 has a more accurate configuration by calculating the mixture ratio using component 1, component 2, and component 3. It is possible to calculate a proper mixing ratio.
  • step S1401 the mixture ratio calculator 1044-1 calculates the mixture ratio 1 based on the area information and the component 1.
  • the mixture ratio calculation unit 1044-1 supplies the calculated mixture ratio 1 to the averaging unit 1401. Since the processing of step S1401 is the same as the processing of step S12, the detailed description thereof will be omitted.
  • step S1402 the mixture ratio calculation unit 1044-2 calculates the mixture ratio 2 based on the region information and the component 2.
  • the mixing ratio calculation unit 104-2 supplies the calculated mixing ratio 2 to the averaging unit 14 ⁇ 1. Since the processing in step S1402 is the same as the processing in step S122, a detailed description thereof will be omitted.
  • step S1403 the mixture ratio calculation section 104-3 calculates the mixture ratio 3 based on the area information and the component 3.
  • the mixture ratio calculation unit 104-3 supplies the calculated mixture ratio 3 to the average processing unit 1401.
  • the processing in step S1403 is the same as the processing in step S122, and thus detailed description thereof will be omitted.
  • step S 1404 the averaging unit 140 1 generates a mixing ratio 1 based on component 1, a mixing ratio 2 based on component 2, and a mixing ratio 3 based on component 3. The average value is obtained, and the calculated average value is output as the mixture ratio H, and the process ends.
  • the image processing apparatus having the configuration shown in FIG. 108 calculates the mixture ratio for each component, calculates the average value of the calculated mixture ratios, and generates the final mixture ratio.
  • the image processing apparatus having the configuration shown in FIG. 108 can calculate the mixture ratio H in which the influence of an error generated in one component is reduced.
  • FIG. 11 is a diagram illustrating another embodiment of the image processing apparatus that calculates the mixture ratio ⁇ based on the input image and the area information input as the component signals.
  • the same parts as those shown in FIG. 108 are denoted by the same reference numerals, and description thereof will be omitted.
  • the majority processing unit 14 11 includes a mixing ratio 1 supplied from the mixing ratio calculating unit 104-1, a mixing ratio 2 supplied from the mixing ratio calculating unit 104-2, and a mixing ratio calculating unit 10.
  • the mixture ratio 3 supplied from 4 _ 3 is classified in a predetermined section, and the frequency corresponding to the representative value of the section is obtained.
  • the majority processing unit 1411 determines the mixture ratio a based on the frequency corresponding to the representative value, and outputs the determined mixture ratio.
  • the width of the section is 0.1 and the representative value is 0.0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.
  • the majority processing unit 1 4 1 1 has the mixing ratio 1 of 0.12, the mixing ratio 2 of 0.13, and the mixing ratio 3 of 0.41. If, the frequency of representative value 0.1 is 2 and the frequency of representative value 0.4 is 1.
  • the majority processing unit 1 4 1 1 sets the representative value 0.1 corresponding to the largest frequency 2 to the mixture ratio H.
  • step S144 the majority processing unit 1411 classifies the mixture ratio of each component in a predetermined section to obtain a frequency.
  • step S1415 the majority processing unit 1411 determines the mixture ratio ⁇ based on the frequency, and the process ends.
  • the image processing apparatus shown in FIG. 11 calculates the mixture ratio for each component, and generates the final mixture ratio based on the calculated frequency of the mixture ratio.
  • the image processing apparatus having the configuration shown in FIG. 11 can calculate a highly reliable mixture ratio H by removing the influence of a mixture ratio having a largely different value due to one component error.
  • FIG. 13 is a diagram showing still another embodiment of the image processing apparatus that calculates the mixing ratio based on the input image and the area information input as the component signal.
  • 1 is the input component 1 and component
  • the pixel values of the components 2 and 3 are added, and the mixture ratio is calculated based on the added pixel values of the components 1, 2 and 3 and the area information, and the calculated mixture ratio is calculated. Output.
  • FIG. 114 is a block diagram illustrating a configuration of the mixture ratio calculation unit 14421.
  • the adder 1 4 3 1 adds the input pixel values of component 1, component 2, and component 3 for each pixel, and outputs the added value to the estimated mixture ratio processor 401 and the estimated mixture ratio processor. Supply to part 402.
  • the estimated mixture ratio processing unit 401 performs, for each pixel, an operation corresponding to the model of the covered background area based on the value obtained by adding the pixel values of the component 1, the component 2, and the component 3 to the pixel. Then, the estimated mixture ratio is calculated, and the calculated estimated mixture ratio is supplied to the mixture ratio determination unit 403.
  • Equation (2 1) indicating the mixture ratio a of the pixels belonging to the covered background area can be expressed by Equations (1 2 0) to (1 2 2) for each component.
  • CY indicates the pixel value of frame #n in component 1 having the luminance value Y.
  • NY indicates the pixel value of frame ⁇ + 1 after frame ttn in component 1.
  • indicates the pixel position of frame # ⁇ -1 before frame # ⁇ in component 1.
  • CU indicates the pixel value of frame # ⁇ in component 2, which is the color difference U.
  • c NU indicates the pixel value of frame # n + 1 after frame ⁇ in component 2.
  • PU indicates the pixel value of frame # n-1 before frame ttn in component 2.
  • CV indicates the pixel value of frame #n in component 3, which is the color difference V.
  • c NV indicates the pixel value of frame ⁇ + 1 after frame #n in component 3.
  • PV is the image of frame # ⁇ -1 before frame ttn in component 3. Indicates the prime value.
  • Equations (1 2 4) can be derived from Equations (1 2 0) to (1 2 3).
  • the equation (125) for calculating the mixture ratio can be derived.
  • component 1 ((CY + CU + CV)-(NY + NU + NV)) / ((PY + PU + PV)-(NY + NU + NV)) (1 2 5)
  • component 1 component 2
  • component 2 component 2
  • component 3 value obtained by adding the pixel values of component 3 can be used to calculate the mixture ratio ⁇ .
  • the estimated mixture ratio processing unit 402 performs, for each pixel, an arithmetic operation corresponding to the model of the uncovered background region based on the value obtained by adding the pixel values of the component 1, the component 2, and the component 3 to each pixel.
  • the estimated mixture ratio is calculated, and the calculated estimated mixture ratio is supplied to the mixture ratio determination unit 403.
  • the mixture ratio determination unit 403 sets 0 to the mixture ratio a, and if the target pixel belongs to the background area, sets 1 to the mixture ratio H, and sets If the target pixel belongs to the covered background area, the estimated mixing ratio supplied from the estimated mixing ratio processing unit 401 is set to the mixing ratio ⁇ , and if the target pixel belongs to the covered background area, the estimation is performed.
  • the estimated mixture ratio supplied from the mixture ratio processing section 402 is set to the mixture ratio.
  • the mixture ratio determination unit 403 outputs a mixture ratio set based on the region information.
  • the mixing ratio calculation unit 1442 1 uses the component 1, the component 2, and the component 3 to obtain a more accurate mixing ratio than the mixing ratio calculated based on one signal.
  • the ratio can be calculated.
  • step S1442 the addition unit 14431 sums the input pixel values of component 1, component 2, and component 3 for each pixel.
  • the adding unit 1441 supplies the summed pixel values to the estimated mixture ratio processing unit 401 and the estimated mixture ratio processing unit 402.
  • step S1422 the estimated mixture ratio processing unit 401 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the covered background area based on the totaled pixel values.
  • the estimated mixture ratio processing unit 401 supplies the calculated estimated mixture ratio to the mixture ratio determination unit 403.
  • Step S 1 4 2 2 processing details is similar to steps S 4 0 2, and a description thereof will be omitted.
  • step S1442 the estimated mixture ratio processing unit 402 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered background area based on the totaled pixel values. .
  • the estimated mixture ratio processing unit 402 supplies the calculated estimated mixture ratio to the mixture ratio determination unit 403.
  • the details of the processing in step S1442 are the same as those in step S403, and a description thereof is omitted.
  • step S144 the mixture ratio calculation unit 104 determines whether or not the mixture ratio has been estimated for the entire frame. If it is determined that the mixture ratio has not been estimated for the entire frame, Returning to step S1422, the process of estimating the mixture ratio for the next pixel is repeated.
  • step S144 the mixture ratio determination unit 4003 determines that the pixel is in the foreground area and the background.
  • the mixing ratio is set based on the region information indicating whether the region belongs to the region, the covered background region, or the uncovered background region. If the target pixel belongs to the foreground region, the mixture ratio determination unit 400 sets 0 to the mixture ratio d, and if the target pixel belongs to the background region, sets 1 to the mixture ratio.
  • the estimated mixture ratio supplied from the estimated mixture ratio processing unit 401 is set to the mixture ratio, and when the target pixel belongs to the uncovered background area.
  • Estimated mixture ratio processing section 4 0 2 The estimated mixture ratio supplied from is set to the mixture ratio H, and the process ends.
  • the image processing apparatus shown in FIG. 13 is more accurate based on the area information and the components 1, 2, and 3, and is capable of mixing the feature amounts corresponding to the respective pixels with higher accuracy.
  • the ratio can be calculated.
  • the mixture ratio has been described as the ratio of the background component included in the pixel value, the mixture ratio may be the ratio of the foreground component included in the pixel value.
  • an example is given in which an image of the real space having the three-dimensional space and the time axis information is projected onto the two-dimensional space and the time and space having the time axis information using the video camera. Is not limited to this example, and corrects the distortion caused by the projection when more first information in the first dimension is projected on the second information in the smaller second dimension. It can be used to extract significant information, or to synthesize images more naturally.
  • the sensor is not limited to a CCD, but may be a solid-state image sensor, for example, a CMOS.
  • a sensor such as BBD (Bucket Brigade Device), CID (Charge Injection Device), or CPD (Charge Priming Device) may be used. Also, the sensor is not limited to a sensor in which the detecting elements are arranged in a matrix, but may be a sensor in which the detecting elements are arranged in a line.
  • the recording medium on which the program for performing the signal processing of the present invention is recorded is a magnetic disk 51 on which the program is recorded, which is distributed in order to provide the program to the user separately from the computer.
  • a magnetic disk 51 on which the program is recorded which is distributed in order to provide the program to the user separately from the computer.
  • optical disk 52 CD-ROM (Compact Disc-Read Only Memory)
  • DVD including Digital Versatile Disc
  • magneto-optical disk 53 including MD (Mini-Disc) (trademark)
  • semiconductor memory 54 instead of being pre-installed in the computer It is provided with a ROM 22 provided to the user, in which programs are recorded, and a hard disk included in the storage unit 28.
  • steps for describing a program to be recorded on a recording medium are not only performed in chronological order according to the order described, but are not necessarily performed in chronological order. Alternatively, it also includes processes that are individually executed.
  • the first aspect of the present invention it is possible to know the state of mixing in an image.
  • the second aspect of the present invention it is possible to know the state of mixing in an image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)

Description

明細書
画像処理装置および方法、 並びに撮像装置 技術分野
本発明は、 画像処理装置および方法、 並びに撮像装置に関し、 特に、 センサに より検出した信号と現実世界との違いを考慮した画像処理装置および方法、 並び に撮像装置に関する。 背景技術
現実世界における事象をセンサで検出し、 画像センサが出力するサンプリング データを処理する技術が広く利用されている。
例えば、 静止している所定の背景の前で移動する物体をビデオカメラで撮像し て得られる画像には、 物体の移動速度が比較的速い場合、 動きボケが生じること になる。
しかしながら、 静止している背景の前で物体が移動するとき、 移動する物体の 画像自身の混ざり合いによる動きボケのみならず、 背景の画像と移動する物体の 画像との混ざり合いが生じる。 従来は、 背景の画像と移動する物体の画像との混 ざり合いの状態に対応する処理は、 考えられていなかった。 発明の開示
本発明はこのような状況に鑑みてなされたものであり、 画像のおける混ざり合 いの状態を知ることができるようにすることを目的とする。
本発明の第 1の画像処理装置は、 画像データに対応して、 前景オブジェク トを 構成する前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェ ク ト成分が混合されてなる混合領域を特定する領域特定手段と、 画像データに対 応して、 前景オブジェク ト成分と背景オブジェク ト成分とが混合されてなる混合 領域における、 前景オブジェク ト成分と背景オブジェク ト成分との混合の割合を 示す混合比を検出する混合比検出手段とを含み、 少なくとも領域特定手段および 混合比検出手段のいずれか一方は、 複数種類のコンポーネントに基づいて画像処 理することを特徴とする。
領域特定手段に、 複数種類のコンポーネント毎に混合領域を検出し、 個々のコ ンポーネントに対応する検出結果をコンポーネント混合領域情報として出力する コンポーネント混合領域検出手段と、 コンポーネント混合領域検出手段で検出さ れた複数種類のコンポーネントに対応する混合領域の検出結果に基づいて、 画像 データに対応する混合領域を特定する混合領域特定手段とを設けることができる, 領域特定手段に、 画像データの注目フレームの注目画素に対応する注目画素デ ータと、 注目画素の空間方向の近傍に位置する空間近傍画素の画素データとの相 関を示す空間相閧値を、 注目画素に対応する複数種類のコンポーネントに基づい て算出する空間相関値算出手段と、 注目画素データと、 注目画素の時間方向の近 傍に位置する時間近傍画素の画素データとの相関を示す時間相関値を、 注目画素 に対応する複数種類のコンポーネントに基づいて算出する時間相関値算出手段と 注目画素に対応する空間相関値および時間相関値を基に、 前景オブジェク ト成分 のみからなる前景領域を特定する前景領域特定手段とを設けることができる。
領域特定手段に、 注目フレームの前景領域、 および注目フレームの近傍の近傍 フレームの前景領域を基に、 混合領域を特定する混合領域特定手段を設けること ができる。
混合比検出手段に、 複数種類のコンポーネント毎に混合比を検出するコンポ一 ネント混合比検出手段と、 コンポーネント混合比検出手段で検出された複数種類 のコンポーネントに対応する混合比の検出結果を統合することにより、 画像デー タに対応する混合比を検出するコンポーネント統合混合比検出手段とを設けるこ とができる。
混合比検出手段に、 複数種類のコンポーネントの画素値を画素毎に統合し、 統 合データとして出力する統合手段と、 統合データに基づいて、 画像データに対応 する混合比を検出する統合データ混合比検出手段とを設けることができる。 統合手段は、 複数種類のコンポーネントの画素値を画素毎に加算し、 加算した 結果を統合データとして出力するようにすることができる。
本発明の画像処理方法は、 画像データに対応して、 前景オブジェク トを構成す る前景ォブジェク ト成分および背景オブジェク トを構成する背景オブジェク ト成 分が混合されてなる混合領域を特定する領域特定ステップと、 画像データに対応 して、 前景オブジェク ト成分と背景オブジェク ト成分とが混合されてなる混合領 域における、 前景オブジェク ト成分と背景オブジェク ト成分との混合の割合を示 す混合比を検出する混合比検出ステップと、 検出された混合比の出力を制御する 出力制御ステップとを含み、 少なくとも領域特定ステップおよび混合比検出ステ ップのいずれか一方は、 複数種類のコンポーネントに基づいて画像処理すること を特徴とする。
領域特定ステップに、 複数種類のコンポーネント毎に混合領域を検出し、 個々 のコンポーネントに対応する検出結果をコンポーネント混合領域情報として出力 するコンポーネント混合領域検出ステツプと、 コンポーネント混合領域検出ステ ップの処理で検出された複数種類のコンポーネントに対応する混合領域の検出結 果に基づいて、 画像データに対応する混合領域を特定する混合領域特定ステップ とを設けることができる。
領域特定ステップに、 画像データの注目フレームの注目画素に対応する注目画 素データと、 注目画素の空間方向の近傍に位置する空間近傍画素の画素データと の相関を示す空間相関値を、 注目画素に対応する複数種類のコンポーネントに基 づいて算出する空間相関値算出ステップと、 注目画素データと、 注目画素の時間 方向の近傍に位置する時間近傍画素の画素データとの相関を示す時間相関値を、 注目画素に対応する複数種類のコンポーネントに基づいて算出する時間相関値算 出ステップと、 注目画素に対応する空間相関値および時間相関値を基に、 前景ォ ブジェク ト成分のみからなる前景領域を特定する前景領域特定ステップとを設け ることができる。
領域特定ステップに、 注目フレームの前景領域、 および注目フレームの近傍の 近傍フレームの前景領域を基に、 混合領域を特定する混合領域特定ステップを設 けることができる。
混合比検出ステップに、 複数種類のコンポーネント毎に混合比を検出するコン ポーネント混合比検出ステップと、 コンポーネント混合比検出ステップの処理で 検出された複数種類のコンポーネントに対応する混合比の検出結果を統合するこ とにより、 画像データに対応する混合比を検出するコンポーネント統合混合比検 出ステップとを設けることができる。
混合比検出ステップに、 複数種類のコンポーネントの画素値を画素毎に統合し. 統合データとして出力する統合ステップと、 統合データに基づいて、 画像データ に対応する混合比を検出する統合データ混合比検出ステップとを設けることがで さる。
統合ステップは、 複数種類のコンポーネントの画素値を画素毎に加算し、 加算 した結果を統合データとして出力するようにすることができる。
本発明の第 1の記録媒体のプログラムは、 画像データに対応して、 前景ォブジ ェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成する背景 オブジェク ト成分が混合されてなる混合領域を特定する領域特定ステップと、 画 像データに対応して、 前景オブジェク ト成分と背景オブジェク ト成分とが混合さ れてなる混合領域における、 前景オブジェク ト成分と背景オブジェク ト成分との 混合の割合を示す混合比を検出する混合比検出ステップと、 検出された混合比の 出力を制御する出力制御ステップとを含み、 少なくとも領域特定ステップおよび 混合比検出ステップのいずれか一方は、 複数種類のコンポーネントに基づいて画 像処理させることを特徴とする。
領域特定ステップに、 複数種類のコンポーネント毎に混合領域を検出し、 個々 のコンポーネントに対応する検出結果をコンポーネント混合領域情報として出力 するコンポーネント混合領域検出ステップと、 コンポーネント混合領域検出ステ ップの処理で検出された複数種類のコンポーネントに対応する混合領域の検出結 果に基づいて、 画像データに対応する混合領域を特定する混合領域特定ステップ とを設けることができる。
領域特定ステップに、 画像データの注目フレームの注目画素に対応する注目画 素データと、 注目画素の空間方向の近傍に位置する空間近傍画素の画素データと の相関を示す空間相関値を、 注目画素に対応する複数種類のコンポーネントに基 づいて算出する空間相関値算出ステップと、 注目画素データと、 注目画素の時間 方向の近傍に位置する時間近傍画素の画素データとの相関を示す時間相関値を、 注目画素に対応する複数種類のコンポーネントに基づいて算出する時間相関値算 出ステップと、 注目画素に対応する空間相関値および時間相関値を基に、 前景ォ ブジェク ト成分のみからなる前景領域を特定する前景領域特定ステップとを設け ることができる。
領域特定ステップに、 注目フレームの前景領域、 および注目フレームの近傍の 近傍フレームの前景領域を基に、 混合領域を特定する混合領域特定ステップを設 けることができる。
混合比検出ステップに、 複数種類のコンポーネント毎に混合比を検出するコン ポーネント混合比検出ステップと、 コンポーネント混合比検出ステップの処理で 検出された複数種類のコンポーネントに対応する混合比の検出結果を統合するこ とにより、 画像データに対応する混合比を検出するコンポーネント統合混合比検 出ステップとを設けることができる。
混合比検出ステップに、 複数種類のコンポーネントの画素値を画素毎に統合し. 統合データとして出力する統合ステップと、 統合データに基づいて、 画像データ に対応する混合比を検出する統合データ混合比検出ステップとを設けることがで さる。
統合ステップは、 複数種類のコンポーネントの画素値を画素毎に加算し、 加算 した結果を統合データとして出力するようにすることができる。
本発明の第 1のプログラムは、 コンピュータに、 画像データに対応して、 前景 オブジェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成す る背景ォブジェク ト成分が混合されてなる混合領域を特定する領域特定ステップ と、 画像データに対応して、 前景オブジェク ト成分と背景オブジェク ト成分とが 混合されてなる混合領域における、 前景オブジェク ト成分と背景オブジェク ト成 分との混合の割合を示す混合比を検出する混合比検出ステツプと、 検出された混 合比の出力を制御する出力制御ステップとを実行させ、 少なくとも領域特定ステ ップおよび混合比検出ステップのいずれか一方は、 複数種類のコンポーネントに 基づいて画像処理させることを特徴とする。
領域特定ステップに、 複数種類のコンポーネント毎に混合領域を検出し、 個々 のコンポーネントに対応する検出結果をコンポーネント混合領域情報として出力 するコンポーネント混合領域検出ステップと、 コンポーネント混合領域検出ステ ップの処理で検出された複数種類のコンポーネントに対応する混合領域の検出結 果に基づいて、 画像データに対応する混合領域を特定する混合領域特定ステップ とを設けることができる。
領域特定ステップに、 画像データの注目フレームの注目画素に対応する注目画 素データと、 注目画素の空間方向の近傍に位置する空間近傍画素の画素データと の相関を示す空間相関値を、 注目画素に対応する複数種類のコンポーネントに基 づいて算出する空間相関値算出ステップと、 注目画素データと、 注目画素の時間 方向の近傍に位置する時間近傍画素の画素データとの相関を示す時間相関値を、 注目画素に対応する複数種類のコンポーネントに基づいて算出する時間相関値算 出ステップと、 注目画素に対応する空間相関値および時間相関値を基に、 前景ォ ブジェク ト成分のみからなる前景領域を特定する前景領域特定ステップとを設け ることができる。
領域特定ステップに、 注目フレームの前景領域、 および注目フレームの近傍の 近傍フレームの前景領域を基に、 混合領域を特定する混合領域特定ステップを設 けることができる。
混合比検出ステップに、 複数種類のコンポーネント毎に混合比を検出するコン ポーネント混合比検出ステップと、 コンポーネント混合比検出ステップの処理で 検出された複数種類のコンポーネントに対応する混合比の検出結果を統合するこ とにより、 画像データに対応する混合比を検出するコンポーネント統合混合比検 出ステップとを設けることができる。
混合比検出ステップに、 複数種類のコンポーネントの画素値を画素毎に統合し、 統合データとして出力する統合ステップと、 統合データに基づいて、 画像データ に対応する混合比を検出する統合データ混合比検出ステップとを設けることがで きる。
統合ステップは、 複数種類のコンポーネントの画素値を画素毎に加算し、 加算 した結果を統合データとして出力するようにすることができる。
本発明の第 1の撮像装置は、 時間積分効果を有する所定数の画素を有する撮像 素子によって撮像された被写体画像を、 同一画素位置に対して複数種類のコンポ 一ネントを有する所定数の画素データからなる画像データとして出力する撮像手 段と、 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域特定手段と、 画像データに対応して、 前景オブジェク ト成 分と背景オブジェク ト成分とが混合されてなる混合領域における、 前景オブジェ ク ト成分と背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比 検出手段とを含み、 少なく とも領域特定手段および混合比検出手段のいずれか一 方は、 複数種類のコンポーネントに基づいて画像処理することを特徴とする。
領域特定手段に、 複数種類のコンポーネント毎に混合領域を検出し、 個々のコ ンポ一ネントに対応する検出結果をコンポーネント混合領域情報として出力する コンポーネント混合領域検出手段と、 コンポーネント混合領域検出手段で検出さ れた複数種類のコンポーネントに対応する混合領域の検出結果に基づいて、 画像 データに対応する混合領域を特定する混合領域特定手段とを設けることができる, 領域特定手段に、 画像データの注目フレームの注目画素に対応する注目画素デ ータと、 注目画素の空間方向の近傍に位置する空間近傍画素の画素データとの相 関を示す空間相関値を、 注目画素に対応する複数種類のコンポーネントに基づい て算出する空間相関値算出手段と、 注目画素データと、 注目画素の時間方向の近 傍に位置する時間近傍画素の画素データとの相関を示す時間相関値を、 注目画素 に対応する複数種類のコンポーネントに基づいて算出する時間相関値算出手段と 注目画素に対応する空間相関値および時間相関値を基に、 前景ォブジェク ト成分 のみからなる前景領域を特定する前景領域特定手段とを設けることができる。 領域特定手段に、 注目フレームの前景領域、 および注目フレームの近傍の近傍 フレームの前景領域を基に、 混合領域を特定する混合領域特定手段を設けること ができる。
混合比検出手段に、 複数種類のコンポーネント毎に混合比を検出するコンポ一 ネント混合比検出手段と、 コンポーネント混合比検出手段で検出された複数種類 のコンポーネントに対応する混合比の検出結果を統合することにより、 画像デー タに対応する混合比を検出するコンポーネント統合混合比検出手段とを設けるこ とができる。
混合比検出手段に、 複数種類のコンポーネントの画素値を画素毎に統合し、 統 合データとして出力する統合手段と、 統合データに基づいて、 画像データに対応 する混合比を検出する統合データ混合比検出手段とを設けることができる。
統合手段は、 複数種類のコンポーネントの画素値を画素毎に加算し、 加算した 結果を統合データとして出力するようにすることができる。
本発明の第 2の画像処理装置は、 画像データを取得する画像データ取得手段と 取得された画像データの複数種類のコンポーネン卜に基づいて、 画像データに対 応して、 前景オブジェク トを構成する前景オブジェク ト成分および背景オブジェ ク トを構成する背景オブジェク ト成分が混合されてなる混合領域を特定する領域 特定処理、 および画像データに対応して、 前景オブジェク ト成分と背景オブジェ ク ト成分とが混合されてなる混合領域における、 前景オブジェク ト成分と背景ォ ブジェク ト成分との混合の割合を示す混合比を検出する混合比検出処理のいずれ か一方の処理を実行する処理実行手段とを含むことを特徴とする。
処理実行手段は、 取得された画像データの複数種類のコンポーネントに基づい て、 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分 および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混合 領域を特定する領域特定処理を実行するようにすることができる。
処理実行手段は、 取得された画像データの複数種類のコンポーネント ίこ基づい て、 画像データに対応して、 前景オブジェク ト成分と背景オブジェク ト成分とが 混合されてなる混合領域における、 前景オブジェク ト成分と背景ォブジェク ト成 分との混合の割合を示す混合比を検出する混合比検出処理を実行するようにする ことができる。
本発明の第 2の画像処理方法は、 画像データを取得する画像データ取得ステツ プと、 取得された画像データの複数種類のコンポーネントに基づいて、 画像デー タに対応して、 前景オブジェク トを構成する前景オブジェク ト成分および背景ォ ブジェク トを構成する背景オブジェク ト成分が混合されてなる混合領域を特定す る領域特定処理、 および画像データに対応して、 前景オブジェク ト成分と背景ォ ブジェク ト成分とが混合されてなる混合領域における、 前景オブジェク ト成分と 背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比検出処理の いずれか一方の処理を実行する処理実行ステップとを含むことを特徴とする。 処理実行ステップは、 取得された画像データの複数種類のコンポーネントに基 づいて、 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト 成分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる 混合領域を特定する領域特定処理を実行するようにすることができる。
処理実行ステップは、 取得された画像データの複数種類のコンポーネントに基 づいて、 画像データに対応して、 前景オブジェク ト成分と背景オブジェク ト成分 とが混合されてなる混合領域における、 前景オブジェク ト成分と背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比検出処理を実行するように することができる。
本発明の第 2の記録媒体のプログラムは、 画像データを取得する画像データ取 得ステップと、 取得された画像データの複数種類のコンポーネントに基づいて、 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分およ び背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混合領域 を特定する領域特定処理、 および画像データに対応して、 前景オブジェク ト成分 と背景オブジェク ト成分とが混合されてなる混合領域における、 前景オブジェク ト成分と背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比検 出処理のいずれか一方の処理を実行する処理実行ステップとを含むことを特徴と する。
処理実行ステップは、 取得された画像データの複数種類のコンポーネントに基 づいて、 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト 成分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる 混合領域を特定する領域特定処理を実行するようにすることができる。
処理実行ステップは、 取得された画像データの複数種類のコンポーネン卜に基 づいて、 画像データに対応して、 前景オブジェク ト成分と背景オブジェク ト成分 とが混合されてなる混合領域における、 前景オブジェク ト成分と背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比検出処理を実行するように することができる。
本発明の第 2のプログラムは、 コンピュータに、 画像データを取得する画像デ —タ取得ステップと、 取得された画像データの複数種類のコンポーネントに基づ いて、 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域特定処理、 および画像データに対応して、 前景オブジェク ト成分と背景オブジェク ト成分とが混合されてなる混合領域における、 前景ォブ ジェク ト成分と背景オブジェク ト成分との混合の割合を示す混合比を検出する混 合比検出処理のいずれか一方の処理を実行する処理実行ステップとを実行させる ことを特徴とする。
処理実行ステップは、 取得された画像データの複数種類のコンポーネントに基 づいて、 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト 成分および背景オブジェク トを構成する背景ォブジェク ト成分が混合されてなる 混合領域を特定する領域特定処理を実行するようにすることができる。
処理実行ステップは、 取得された画像データの複数種類のコンポーネントに基 づいて、 画像データに対応して、 前景オブジェク ト成分と背景オブジェク ト成分 とが混合されてなる混合領域における、 前景オブジェク ト成分と背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比検出処理を実行するように することができる。
本発明の第 2の撮像装置は、 時間積分効果を有する所定数の画素を有する撮像 素子によって撮像された被写体画像を、 同一画素位置に対して複数種類のコンポ 一ネントを有する所定数の画素データからなる画像データとして出力する撮像手 段と、 画像データの複数種類のコンポーネントに基づいて、 画像データに対応し て、 前景オブジェク トを構成する前景オブジェク ト成分および背景オブジェク ト を構成する背景ォブジェク ト成分が混合されてなる混合領域を特定する領域特定 処理、 および画像データに対応して、 前景ォブジェク ト成分と背景オブジェク ト 成分とが混合されてなる混合領域における、 前景オブジェク ト成分と背景ォブジ ェク ト成分との混合の割合を示す混合比を検出する混合比検出処理のいずれか一 方の処理を実行する処理実行手段とを含むことを特徴とする。
処理実行手段は、 画像データの複数種類のコンポーネントに基づいて、 画像デ ータに対応して、 前景オブジェク トを構成する前景オブジェク ト成分および背景 オブジェク トを構成する背景オブジェク ト成分が混合されてなる混合領域を特定 する領域特定処理を実行するようにすることができる。
処理実行手段は、 画像データの複数種類のコンポーネントに基づいて、 画像デ ータに対応して、 前景オブジェク ト成分と背景オブジェク ト成分とが混合されて なる混合領域における、 前景ォブジェク ト成分と背景オブジェク ト成分との混合 の割合を示す混合比を検出する混合比検出処理を実行するようにすることができ る。
画像データに対応して、 前景ォブジェク トを構成する前景オブジェク ト成分お よび背景ォブジェク トを構成する背景オブジェク ト成分が混合されてなる混合領 域が特定され、 画像データに対応して、 前景オブジェク ト成分と背景オブジェク ト成分とが混合されてなる混合領域における、 前景オブジェク ト成分と背景ォブ ジェク ト成分との混合の割合を示す混合比が検出され、 少なくとも領域の特定お よび混合比の検出のいずれか一方は、 複数種類のコンポーネントに基づいて画像 処理される。
画像データが取得され、 取得された画像データの複数種類のコンポーネントに 基づいて、 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてな る混合領域を特定する領域特定処理、 および画像データに対応して、 前景ォブジ エタ ト成分と背景オブジェク ト成分とが混合されてなる混合領域における、 前景 オブジェク ト成分と背景オブジェク ト成分との混合の割合を示す混合比を検出す る混合比検出処理のいずれか一方の処理が実行される。
これにより、 画像のおける混ざり合いの状態を知ることができる。 図面の簡単な説明
図 1は、 本発明に係る画像処理装置の一実施の形態を示す図である。
図 2は、 画像処理装置を示すブロック図である。
図 3は、 センサによる撮像を説明する図である。
図 4は、 画素の配置を説明する図である。
図 5は、 検出素子の動作を説明する図である。
図 6 Aは、 動いている前景に対応するオブジェク トと、 静止している背景に対 応するオブジェク トとを撮像して得られる画像を説明する図である。
図 6 Bは、 動いている前景に対応するオブジェク トと、 静止している背景に対 応するオブジェク トとを撮像して得られる画像に対応するモデルを説明する図で ある。
図 7は、 背景領域、 前景領域、 混合領域、 カバードバックグラウンド領域、 お よびアンカバードバックグラウンド領域を説明する図である。 図 8は、 静止している前景に対応するオブジェク トおよび静止している背景に 対応するオブジェク トを撮像した画像における、 隣接して 1列に並んでいる画素 の画素値を時間方向に展開したモデル図である。
図 9は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割した モデル図である。
図 1 0は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 1は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 2は、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示す図 である。
図 1 3は、 画素と画素値を時間方向に展開したモデルとの対応を示す図である, 図 1 4は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割し たモデル図である。
図 1 5は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 6は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 7は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 8は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 9は、 動きボケの量の調整の処理を説明するフローチャートである。
図 2 0は、 領域特定部 1 0 3の構成の一例を示すブロック図である。
図 2 1は、 前景に対応するオブジェク トが移動しているときの画像を説明する 図である。
図 2 2は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 2 3は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 2 4は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 2 5は、 領域判定の条件を説明する図である。
図 2 6 Aは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。
図 2 6 Bは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。
図 2 6 Cは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。
図 2 6 Dは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。
図 2 7は、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。
図 2 8は、 領域特定の処理を説明するフローチヤ一トである。
図 2 9は、 領域特定部 1 0 3の構成の他の一例を示すブロック図である。
図 3 0は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 3 1は、 背景画像の例を示す図である。
図 3 2は、 2値ォブジェク ト画像抽出部 3 0 2の構成を示すプロック図である, 図 3 3 Aは、 相関値の算出を説明する図である。
図 3 3 Bは、 相関値の算出を説明する図である。
図 3 4 Aは、 相関値の算出を説明する図である。
図 3 4 Bは、 相関値の算出を説明する図である。
図 3 5は、 2値ォブジェク ト画像の例を示す図である。
図 3 6は、 時間変化検出部 3 0 3の構成を示すプロック図である。
図 3 7は、 領域判定部 3 4 2の判定を説明する図である。
図 3 8は、 時間変化検出部 3 0 3の判定の例を示す図である。
図 3 9は、 領域判定部 1 0 3の領域特定の処理を説明するフローチヤ一トであ る。 図 4 0は、 領域判定の処理の詳細を説明するフローチャートである。
図 4 1は、 領域特定部 1 0 3のさらに他の構成を示すプロック図である。 図 4 2は、 口バスト化部 3 6 1の構成を説明するブロック図である。
図 4 3は、 動き補償部 3 8 1の動き補償を説明する図である。
図 4 4は、 動き補償部 3 8 1の動き補償を説明する図である。
図 4 5は、 領域特定の処理を説明するフローチヤ一トである。
図 4 6は、 口バスト化の処理の詳細を説明するフローチヤ一トである。
図 4 7は、 混合比算出部 1 0 4の構成の一例を示すブロック図である。
図 4 8は、 理想的な混合比ひ の例を示す図である。
図 4 9は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 5 0は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割し たモデル図である。
図 5 1は、 前景の成分の相関を利用した近似を説明する図である。
図 5 2は、 C, N、 および Pの関係を説明する図である。
図 5 3は、 推定混合比処理部 4 0 1の構成を示すブロック図である。
図 5 4は、 推定混合比の例を示す図である。
図 5 5は、 混合比算出部 1 0 4の他の構成を示すプロック図である。
図 5 6は、 混合比の算出の処理を説明するフローチャートである。
図 5 7は、 推定混合比の演算の処理を説明するフローチャートである。
図 5 8は、 混合比ひ を近似する直線を説明する図である。
図 5 9は、 混合比 ひ を近似する平面を説明する図である。
図 6 0は、 混合比 ひ を算出するときの複数のフレームの画素の対応を説明す る図である。
図 6 1は、 混合比推定処理部 4 0 1の他の構成を示すブロック図である。 図 6 2は、 推定混合比の例を示す図である。
図 6 3は、 カバードバックグラウンド領域に対応するモデルによる混合比推定 の処理を説明するフローチヤ一トである。
図 6 4は、 前景背景分離部 1 0 5の構成の一例を示すプロック図である。 図 6 5 Aは、 入力画像、 前景成分画像、 および背景成分画像を示す図である。 図 6 5 Bは、 入力画像、 前景成分画像、 および背景成分画像のモデルを示す図 である。
図 6 6は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 6 7は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 6 8は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 6 9は、 分離部 6 0 1の構成の一例を示すブロック図である。
図 7 O Aは、 分離された前景成分画像の例を示す図である。
図 7 O Bは、 分離された背景成分画像の例を示す図である。
図 7 1は、 前景と背景との分離の処理を説明するフローチャートである。 図 7 2は、 動きボケ調整部 1 0 6の構成の一例を示すプロック図である。 図 7 3は、 処理単位を説明する図である。
図 7 4は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。
図 7 5は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。
図 7 6は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。
図 7 7は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。
図 7 8は、 動きボケ調整部 1 0 6の他の構成を示す図である。
図 7 9は、 動きボケ調整部 1 0 6による前景成分画像に含まれる動きボケの量 の調整の処理を説明するフローチヤ一トである。
図 8 0は、 動きボケ調整部 1 0 6の構成の他の一例を示すブロック図である。 図 8 1は、 画素値と前景の成分のとの対応を指定するモデルの例を示す図であ る。
図 8 2は、 前景の成分の算出を説明する図である。
図 8 3は、 前景の成分の算出を説明する図である。
図 8 4は、 前景の動きボケの除去の処理を説明するフローチャートである。 図 8 5は、 画像処理装置の機能の他の構成を示すブロック図である。
図 8 6は、 合成部 1 0 0 1の構成を示す図である。
図 8 7は、 画像処理装置の機能のさらに他の構成を示すブロック図である。 図 8 8は、 混合比算出部 1 1 0 1の構成を示すブロック図である。
図 8 9は、 前景背景分離部 1 1 0 2の構成を示すブロック図である。
図 9 0は、 画像処理装置の機能のさらに他の構成を示すプロック図である。 図 9 1は、 合成部 1 2 0 1の構成を示す図である。
図 9 2は、 コンポーネント信号として入力される入力画像を基に、 領域情報を 生成する画像処理装置の一実施の形態を示す図である。
図 9 3は、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3の 関係を説明する図である。
図 9 4は、 コンポーネント信号を利用した領域判定の処理を説明するフローチ ヤートである。
図 9 5は、 コンポーネント信号として入力される入力画像を基に、 領域情報を 生成する画像処理装置の他の実施の形態を示す図である。
図 9 6は、 コンポーネント信号を利用した領域判定の他の処理を説明するフ口 一チヤ一トである。
図 9 7は、 コンポーネント信号として入力される入力画像を基に、 領域情報を 生成する画像処理装置のさらに他の実施の形態を示す図である。
図 9 8は、 静止領域および動き領域における、 空間相関および時間相関の関係 を示す図である。
図 9 9は、 空間相関の算出の例を説明する図である。
図 1 0 0は、 時間相関の算出の例を説明する図である。
図 1 0 1は、 静止領域における時問相関および空間相関を説明する図である。 図 1 0 2は、 動き領域における時間相関および空間相関を説明する図である。 図 1 0 3は、 入力画像の例を示す図である。
図 1 0 4は、 1画素毎に、 動き領域または静止領域を判定した結果を示す図で ある。
図 1 0 5は、 1 5画素 X 1 5画素のプロックを単位として、 動き領域または静 止領域を判定した結果を示す図である。
図 1 0 6は、 前景領域、 背景領域、 カバードバックグラウンド領域、 およびァ ンカバードバックグラウンド領域の判定の結果を示す図である。
図 1 0 7は、 コンポーネント信号を利用した領域判定の処理を説明するフロー チヤ一トである。
図 1 0 8は、 コンポーネント信号として入力される入力画像および領域情報を 基に、 混合比を算出する画像処理装置の一実施の形態を示す図である。
図 1 0 9は、 各コンポーネントにおける混合比の関係を示す図である。
図 1 1 0は、 コンポーネント信号を利用した混合比の算出の処理を説明するフ ローチャートである。 図 1 1 1は、 コンポーネント信号として入力される入力画像および領域情報を 基に、 混合比を算出する画像処理装置の他の実施の形態を示す図である。
図 1 1 2は、 コンポーネント信号を利用した混合比の算出の他の処理を説明す るフローチヤ一トである。
図 1 1 3は、 コンポーネント信号として入力される入力画像および領域情報を 基に、 混合比を算出する画像処理装置のさらに他の実施の形態を示す図である。 図 1 1 4は、 混合比算出部 1 4 2 1の構成を示すプロック図である。
図 1 1 5は、 コンポーネント信号として入力される入力画像および領域情報を 基に、 混合比を算出するさらに他の処理を説明する。 発明を実施するための最良の形態
図 1は、 本発明に係る画像処理装置の一実施の形態を示す図である。 CPU (Central Process ing Un i t) 2 1は、 ROM (Read Only Memory) 2 2、 または 記憶部 2 8に記憶されているプログラムに従って各種の処理を実行する。 RAM
(Random Access Memory) 2 3には、 CPU 2 1が実行するプログラムやデータ などが適宜記憶される。 これらの CPU 2 1、 ROM 2 2 , および RAM 2 3は、 バス 2 4により相互に接続されている。
CPU 2 1にはまた、 バス 2 4を介して入出力ィンタフエ一ス 2 5が接続されて いる。 入出力インタフェース 2 5には、 キーボード、 マウス、 マイクロホンなど よりなる入力部 2 6、 ディスプレイ、 スピーカなどよりなる出力部 2 7が接続さ れている。 CPU 2 1は、 入力部 2 6から入力される指令に対応して各種の処理を 実行する。 そして、 CPU 2 1は、 処理の結果得られた画像や音声等を出力部 2 7 に出力する。
入出力インタフェース 2 5に接続されている記憶部 2 8は、 例えばハードディ スクなどで構成され、 CPU 2 1が実行するプログラムや各種のデータを記憶する c 通信部 2 9は、 インターネッ ト、 その他のネッ トワークを介して外部の装置と通 信する。 この例の場合、 通信部 2 9はセンサの出力を取り込む取得部として働く c また、 通信部 2 9を介してプログラムを取得し、 記憶部 2 8に記憶してもよい c 入出力インタフェース 2 5に接続されているドライブ 3 0は、 磁気ディスク 5 1、 光ディスク 5 2、 光磁気ディスク 5 3、 或いは半導体メモリ 5 4などが装着 されたとき、 それらを駆動し、 そこに記録されているプログラムやデータなどを 取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 2 8に転送さ れ、 記憶される。
図 2は、 画像処理装置を示すブロック図である。
なお、 画像処理装置の各機能をハードウェアで実現するか、 ソフトウェアで実 現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェアのブロ ック図と考えても、 ソフトウエアによる機能プロック図と考えても良い。
この明細書では、 撮像の対象となる、 現実世界におけるオブジェク トに対応す る画像を、 画像オブジェク トと称する。
画像処理装置に供給された入力画像は、 オブジェク ト抽出部 1 0 1、 領域特定 部 1 0 3、 混合比算出部 1 0 4、 および前景背景分離部 1 0 5に供給される。 オブジェク ト抽出部 1 0 1は、 入力画像に含まれる前景のオブジェク トに対応 する画像オブジェク トを粗く抽出して、 抽出した画像オブジェク トを動き検出部 1 0 2に供給する。 オブジェク ト抽出部 1 ◦ 1は、 例えば、 入力画像に含まれる 前景のオブジェク 卜に対応する画像オブジェク トの輪郭を検出することで、 前景 のォブジェク 卜に対応する画像オブジェク トを粗く抽出する。
ォブジェク ト抽出部 1 0 1は、 入力画像に含まれる背景のオブジェク トに対応 する画像オブジェク トを粗く抽出して、 抽出した画像ォブジェク トを動き検出部
1 0 2に供給する。 オブジェク ト抽出部 1 0 1は、 例えば、 入力画像と、 抽出さ れた前景のオブジェク トに対応する画像オブジェク トとの差から、 背景のォブジ ヱク トに対応する画像オブジェク トを粗く抽出する。
また、 例えば、 オブジェク ト抽出部 1 0 1は、 内部に設けられている背景メモ リに記憶されている背景の画像と、 入力画像との差から、 前景のオブジェク トに 対応する画像オブジェク ト、 および背景のオブジェク トに対応する画像オブジェ ク トを粗く抽出するようにしてもよい。
動き検出部 1 0 2は、 例えば、 ブロックマッチング法、 勾配法、 位相相関法、 およびペルリカーシブ法などの手法により、 粗く抽出された前景のオブジェク ト に対応する画像オブジェク トの動きべク トルを算出して、 算出した動きべク トル および動きべク トルの位置情報 (動きべク トルに対応する画素の位置を特定する 情報) を領域特定部 1 0 3および動きボケ調整部 1 0 6に供給する。
動き検出部 1 0 2が出力する動きべク トルには、 動き量 Vに対応する情報が 含まれている。 また、 例えば、 動き検出部 1 0 2は、 画像オブジェク トに画素を特定する画素 位置情報と共に、 画像オブジェク ト毎の動きべク トルを動きボケ調整部 1 0 6に 出力するようにしてもよい。
動き量 Vは、 動いているオブジェク トに対応する画像の位置の変化を画素間 隔を単位として表す値である。 例えば、 前景に対応するオブジェク トの画像が、 あるフレームを基準として次のフレームにおいて 4画素分離れた位置に表示され るように移動しているとき、 前景に対応するォブジェク トの画像の動き量 V は, 4とされる。
なお、 オブジェク ト抽出部 1 0 1および動き検出部 1 0 2は、 動いているォブ ジュク トに対応した動きボケ量の調整を行う場合に必要となる。
領域特定部 1 0 3は、 入力された画像の画素のそれぞれを、 前景領域、 背景領 域、 または混合領域のいずれかに特定し、 画素毎に前景領域、 背景領域、 または 混合領域のいずれかに属するかを示す情報 (以下、 領域情報と称する) を混合比 算出部 1 0 4、 前景背景分離部 1 0 5、 および動きボケ調整部 1 0 6に供給する c 混合比算出部 1 0 4は、 入力画像、 および領域特定部 1 0 3から供給された領 域情報を基に、 混合領域 6 3に含まれる画素に対応する混合比 (以下、 混合比 a と称する) を算出して、 算出した混合比を前景背景分離部 1 0 5に供給する c 混合比ひ は、 後述する式 (3 ) に示されるように、 画素値における、 背景の オブジェク トに対応する画像の成分 (以下、 背景の成分とも称する) の割合を示 す値である。
前景背景分離部 1 0 5は、 領域特定部 1 0 3から供給された領域情報、 および 混合比算出部 1 0 4から供給された混合比 Ot を基に、 前景のオブジェク トに対 応する画像の成分 (以下、 前景の成分とも称する) のみから成る前景成分画像と. 背景の成分のみから成る背景成分画像とに入力画像を分離して、 前景成分画像を 動きボケ調整部 1 0 6および選択部 1 0 7に供給する。 なお、 分離された前景成 分画像を最終的な出力とすることも考えられる。 従来の混合領域を考慮しないで 前景と背景だけを特定し、 分離していた方式に比べ正確な前景と背景を得ること が出来る。
動きボケ調整部 1 0 6は、 動きべク トルからわかる動き量 Vおよび領域情報 を基に、 前景成分画像に含まれる 1以上の画素を示す処理単位を決定する。 処理 単位は、 動きボケの量の調整の処理の対象となる 1群の画素を指定するデータで ある。
動きボケ調整部 1 0 6は、 画像処理装置に入力された動きボケ調整量、 前景背 景分離部 1 0 5から供給された前景成分画像、 動き検出部 1 0 2から供給された 動きべク トルおよびその位置情報、 並びに処理単位を基に、 前景成分画像に含ま れる動きボケを除去する、 動きボケの量を減少させる、 または動きボケの量を增 加させるなど前景成分画像に含まれる動きボケの量を調整して、 動きボケの量を 調整した前景成分画像を選択部 1 0 7に出力する。 動きべク トルとその位置情報 は使わないこともある。
ここで、 動きボケとは、 撮像の対象となる、 現実世界におけるオブジェク トの 動きと、 センサの撮像の特性とにより生じる、 動いているオブジェク トに対応す る画像に含まれている歪みをいう。
選択部 1 0 7は、 例えば使用者の選択に対応した選択信号を基に、 前景背景分 離部 1 0 5から供給された前景成分画像、 および動きボケ調整部 1 0 6から供給 された動きボケの量が調整された前景成分画像のいずれか一方を選択して、 選択 した前景成分画像を出力する。
次に、 図 3乃至図 1 8を参照して、 画像処理装置に供給される入力画像につい て説明する。
図 3は、 センサによる撮像を説明する図である。 センサは、 例えば、 固体撮像 素子である CCD (Charge-Coupled Device) エリアセンサを備えた CCDビデオ力 メラなどで構成される。 現実世界における、 前景に対応するォブジェク ト 1 1 1 は、 現実世界における、 背景に対応するオブジェク ト 1 1 2と、 センサとの間を. 例えば、 図中の左側から右側に水平に移動する。
センサは、 前景に対応するオブジェク ト 1 1 1を、 背景に対応するォブジェク ト 1 1 2と共に撮像する。 センサは、 撮像した画像を 1フレーム単位で出力する c 例えば、 センサは、 1秒間に 3 0フレームから成る画像を出力する。 センサの露 光時間は、 1 Z 3 0秒とすることができる。 露光時間は、 センサが入力された光 の電荷への変換を開始してから、 入力された光の電荷への変換を終了するまでの 期間である。 以下、 露光時間をシャツタ時間とも称する。
図 4は、 画素の配置を説明する図である。 図 4中において、 A乃至 Iは、 個々 の画素を示す。 画素は、 画像に対応する平面上に配置されている。 1つの画素に 対応する 1つの検出素子は、 センサ上に配置されている。 センサが画像を撮像す るとき、 1つの検出素子は、 画像を構成する 1つの画素に対応する画素値を出力 する。 例えば、 検出素子の X方向の位置は、 画像上の横方向の位置に対応し、 検 出素子の Y方向の位置は、 画像上の縦方向の位置に対応する。
図 5に示すように、 例えば、 CCDである検出素子は、 シャツタ時間に対応する 期間、 入力された光を電荷に変換して、 変換された電荷を蓄積する。 電荷の量は- 入力された光の強さと、 光が入力されている時間にほぼ比例する。 検出素子は、 シャツタ時間に対応する期間において、 入力された光から変換された電荷を、 既 に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に対 応する期間、 入力される光を積分して、 積分された光に対応する量の電荷を蓄積 する。 検出素子は、 時間に対して、 積分効果があるとも言える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電圧 値は更にデジタルデータなどの画素値に変換されて出力される。 従って、 センサ から出力される個々の画素値は、 前景または背景に対応するオブジェク トの空間 的に広がりを有するある部分を、 シャツタ時間について積分した結果である、 1 次元の空間に射影された値を有する。
画像処理装置は、 このようなセンサの蓄積の動作により、 出力信号に埋もれて しまった有意な情報、 例えば、 混合比 を抽出する。 画像処理装置は、 前景の 画像オブジェク ト自身が混ざり合うことによる生ずる歪みの量、 例えば、 動きボ ケの量などを調整する。 また、 画像処理装置は、 前景の画像オブジェク トと背景 の画像ォブジェク トとが混ざり合うことにより生ずる歪みの量を調整する。
図 6 Aは、 動いている前景に対応するオブジェク トと、 静止している背景に対 応するオブジェク トとを撮像して得られる画像を説明する図である。 図 6 Bは、 動いている前景に対応するオブジェク トと、 静止している背景に対応するォブジ ェク トとを撮像して得られる画像に対応するモデルを説明する図である。
図 6 Aは、 動きを伴う前景に対応するオブジェク トと、 静止している背景に対 応するォブジヱク トとを撮像して得られる画像を示している。 図 6 Aに示す例に おいて、 前景に対応するォブジェク トは、 画面に対して水平に左から右に動いて いる。
図 6 Bは、 図 6 Aに示す画像の 1つのラインに対応する画素値を時間方向に展 開したモデル図である。 図 6 Bの横方向は、 図 6 Aの空間方向 Xに対応している, 背景領域の画素は、 背景の成分、 すなわち、 背景のオブジェク トに対応する画 像の成分のみから、 その画素値が構成されている。 前景領域の画素は、 前景の成 分、 すなわち、 前景のオブジェク トに対応する画像の成分のみから、 その画素値 が構成されている。
混合領域の画素は、 背景の成分、 および前景の成分から、 その画素値が構成さ れている。 混合領域は、 背景の成分、 および前景の成分から、 その画素値が構成 されているので、 歪み領域ともいえる。 混合領域は、 更に、 カバードバックダラ ゥンド領域およびアンカバードバックグラウンド領域に分類される。
カバードバックグラウンド領域は、 前景領域に対して、 前景のオブジェク トの 進行方向の前端部に対応する位置の混合領域であり、 時間の経過に対応して背景 成分が前景に覆い隠される領域をいう。
これに対して、 アンカバードバックグラウンド領域は、 前景領域に対して、 前 景のォブジェク トの進行方向の後端部に対応する位置の混合領域であり、 時間の 経過に対応して背景成分が現れる領域をいう。
このように、 前景領域、 背景領域、 またはカバードバックグラウンド領域若し くはアンカバードバックグラウンド領域を含む画像が、 領域特定部 1 0 3、 混合 比算出部 1 0 4、 および前景背景分離部 1 0 5に入力画像として入力される。 図 7は、 以上のような、 背景領域、 前景領域、 混合領域、 カバードバックダラ ゥンド領域、'およびアンカバードバックグラウンド領域を説明する図である。 図
6 Aに示す画像に対応する場合、 背景領域は、 静止部分であり、 前景領域は、 動 き部分であり、 混合領域のカバードバックグラウンド領域は、 背景から前景に変 化する部分であり、 混合領域のアンカバードバックグラウンド領域は、 前景から 背景に変化する部分である。
図 8は、 静止している前景に対応するォブジェク トおよび静止している背景に 対応するォブジェク トを撮像した画像における、 隣接して 1列に並んでいる画素 の画素値を時間方向に展開したモデル図である。 例えば、 隣接して 1列に並んで いる画素として、 画面の 1つのライン上に並んでいる画素を選択することができ る。
図 8に示す F01乃至 F04の画素値は、 静止している前景のオブジェク トに対 応する画素の画素値である。 図 8に示す B01乃至 B04の画素値は、 静止してい る背景のォブジェク トに対応する画素の画素値である。
図 8における縦方向は、 図中の上から下に向かって時間が経過する。 図 8中の 矩形の上辺の位置は、 センサが入力された光の電荷への変換を開始する時刻に対 応し、 図 8中の矩形の下辺の位置は、 センサが入力された光の電荷への変換を終 了する時刻に対応する。 すなわち、 図 8中の矩形の上辺から下辺までの距離は、 シャツタ時間に対応する。
以下において、 シャツタ時間とフレーム間隔とが同一である場合を例に説明す る。
図 8における横方向は、 図 6 Aで説明した空間方向 Xに対応する。 より具体 的には、 図 8に示す例において、 図 8中の" F01 " と記載された矩形の左辺か ら'' B04" と記載された矩形の右辺までの距離は、 画素のピッチの 8倍、 すなわ ち、 連続している 8つの画素の間隔に対応する。
前景のオブジェク トおよび背景のオブジェク トが静止している場合、 シャツタ 時間に対応する期間において、 センサに入力される光は変化しない。
ここで、 シャッタ時間に対応する期間を 2つ以上の同じ長さの期間に分割する。 例えば、 仮想分割数を 4とすると、 図 8に示すモデル図は、 図 9に示すモデルと して表すことができる。 仮想分割数は、 前景に対応するオブジェクトのシャツタ 時間内での動き量 Vなどに対応して設定される。 例えば、 4である動き量 Vに 対応して、 仮想分割数は、 4とされ、 シャツタ時間に対応する期間は 4つに分割 される。
図中の最も上の行は、 シャツタが開いて最初の、 分割された期間に対応する。 図中の上から 2番目の行は、 シャツタが開いて 2番目の、 分割された期間に対応 する。 図中の上から 3番目の行は、 シャツタが開いて 3番目の、 分割された期間 に対応する。 図中の上から 4番目の行は、 シャツタが開いて 4番目の、 分割され た期間に対応する。
以下、 動き量 Vに対応して分割されたシャツタ時間をシャツタ時間 /vとも称 する。
前景に対応するオブジェク トが静止しているとき、 センサに入力される光は変 化しないので、 前景の成分 FO l/vは、 画素値 F01を仮想分割数で除した値に等 しい。 同様に、 前景に対応するオブジェク トが静止しているとき、 前景の成分 F02/v は、 画素値 F02 を仮想分割数で除した値に等しく、 前景の成分 F03/v は、 画素値 F03を仮想分割数で除した値に等しく、 前景の成分 F04/vは、 画素値 F04を仮想分割数で除した値に等しい。
背景に対応するオブジェクトが静止しているとき、 センサに入力される光は変 ィ匕しないので、 背景の成分 BOl/vは、 画素値 B01を仮想分割数で除した値に等 しい。 同様に、 背景に対応するオブジェク トが静止しているとき、 背景の成分
B02/Vは、 画素値 B02を仮想分割数で除した値に等しく、 B03/vは、 画素値 B03 を仮想分割数で除した値に等しく、 B04/Vは、 画素値 B04を仮想分割数で除した 値に等しい。
すなわち、 前景に対応するオブジェク トが静止している場合、 シャツタ時間に 対応する期間において、 センサに入力される前景のオブジェク トに対応する光が 変化しないので、 シャツタが開いて最初の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vと、 シャツタが開いて 2番目の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vと、 シャツタが開いて 3番目の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vと、 シャツタが開いて 4番目の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vとは、 同じィ直となる。 F02/v乃至 F04/vも、 FO l/vと同様の関係を有 する。
背景に対応するォブジェク トが静止している場合、 シャツタ時間に対応する期 間において、 センサに入力される背景のオブジェク トに対応する光は変化しない ので、 シャツタが開いて最初の、 シャツタ時間/ Vに対応する背景の成分 BO l/v と、 シャツタが開いて 2番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/v と、 シャツタが開いて 3番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/v と、 シャツタが開いて 4番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/v とは、 同じ値となる。 B02/v乃至 B04/vも、 同様の関係を有する。
次に、 前景に対応するォブジェク トが移動し、 背景に対応するォブジェク トが 静止している場合について説明する。
図 1 0は、 前景に対応するォブジ ク トが図中の右側に向かって移動する場合 の、 カバードバックグラウンド領域を含む、 1つのライン上の画素の画素値を時 間方向に展開したモデル図である。 図 1 0において、 前景の動き量 Vは、 4で ある。 1フレームは短い時間なので、 前景に対応するオブジェク トが剛体であり 等速で移動していると仮定することができる。 図 1 0において、 前景に対応する オブジェク トの画像は、 あるフレームを基準として次のフレームにおいて 4画素 分右側に表示されるように移動する。
図 1 0において、 最も左側の画素乃至左から 4番目の画素は、 前景領域に属す る。 図 1 0において、 左から 5番目乃至左から 7番目の画素は、 カバードバック グラウンド領域である混合領域に属する。 図 1 0において、 最も右側の画素は、 背景領域に属する。 前景に対応するォブジェク トが時間の経過と共に背景に対応するォブジェク ト を覆い隠すように移動しているので、 カバードバックグラウンド領域に属する画 素の画素値に含まれる成分は、 シャツタ時間に対応する期間のある時点で、 背景 の成分から、 前景の成分に替わる。
例えば、 図 1 0中に太線枠を付した画素値 Mは、 式 (1 ) で表される。
M=B02/v+B02/v+F07/v+F06/v ( 1 )
例えば、 左から 5番目の画素は、 1つのシャツタ時間/ Vに対応する背景の成 分を含み、 3つのシャツタ時間/ Vに対応する前景の成分を含むので、 左から 5 番目の画素の混合比 は、 1 /4である。 左から 6番目の画素は、 2つのシャツ タ時間 /vに対応する背景の成分を含み、 2つのシャツタ時間/ Vに対応する前景 の成分を含むので、 左から 6番目の画素の混合比 ひ は、 1/2である。 左から 7 番目の画素は、 3つのシャツタ時間/ Vに対応する背景の成分を含み、 1つのシ ャッタ時間/ Vに対応する前景の成分を含むので、 左から 7番目の画素の混合比 a は、 3/4である。
前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 4番目の画素の、 シャツタが開いて最初の、 シャツタ時間/ V の前景の成分 F07/vは、 図 1 0中の左から 5番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vに対応する前景の成分に等しい。 同様に、 前景の成分 F07/vは、 図 1 0中の左から 6番目の画素の、 シャツタが開いて 3番目のシャツ タ時間 /vに対応する前景の成分と、 図 1 0中の左から 7番目の画素の、 シャツ タが開いて 4番目のシャッタ時間 /vに対応する前景の成分とに、 それぞれ等し い。
前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 3番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの 前景の成分 F06/vは、 図 1 0中の左から 4番目の画素の、 シャツタが開いて 2 番目のシャツタ時間 /vに対応する前景の成分に等しい。 同様に、 前景の成分 F06/vは、 図 1 0中の左から 5番目の画素の、 シャツタが開いて 3番目のシャツ タ時間 /vに対応する前景の成分と、 図 1 0中の左から 6番目の画素の、 シャツ タが開いて 4番目のシャツタ時間/ Vに対応する前景の成分とに、 それぞれ等し い。
前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 2番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの 前景の成分 F05/Vは、 図 1 0中の左から 3番目の画素の、 シャツタが開いて 2 番目のシャツタ時間/ Vのに対応する前景の成分に等しい。 同様に、 前景の成分 F05/vは、 図 1 0中の左から 4番目の画素の、 シャツタが開いて 3番目のシャツ タ時間 /vに対応する前景の成分と、 図 1 0中の左から 5番目の画素の、 シャツ タが開いて 4番目のシャツタ時間 /vに対応する前景の成分とに、 それぞれ等し レ、。
前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の最も左側の画素の、 シャツタが開いて最初のシャツタ時間/ Vの前景 の成分 F04/vは、 図 1 0中の左から 2番目の画素の、 シャツタが開いて 2番目 のシャツタ時間/ Vに対応する前景の成分に等しい。 同様に、 前景の成分 F04/v は、 図 1 0中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ時間 /vに対応する前景の成分と、 図 1 0中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャッタ時間 /vに対応する前景の成分とに、 それぞれ等しい。 動いているォブジェク トに対応する前景の領域は、 このように動きボケを含む ので、 歪み領域とも言える。
図 1 1は、 前景が図中の右側に向かって移動する場合の、 アンカバードバック グラウンド領域を含む、 1つのライン上の画素の画素値を時間方向に展開したモ デル図である。 図 1 1において、 前景の動き量 Vは、 4である。 1フレームは 短い時間なので、 前景に対応するオブジェク トが剛体であり、 等速で移動してい ると仮定することができる。 図 1 1において、 前景に対応するオブジェク トの画 像は、 あるフレームを基準として次のフレームにおいて 4画素分右側に移動する, 図 1 1において、 最も左側の画素乃至左から 4番目の画素は、 背景領域に属す る。 図 1 1において、 左から 5番目乃至左から 7番目の画素は、 アンカバードバ ックグラウンドである混合領域に属する。 図 1 1において、 最も右側の画素は、 前景領域に属する。
背景に対応するォブジェク トを覆っていた前景に対応するォブジェク トが時間 の経過と共に背景に対応するォブジェク トの前から取り除かれるように移動して いるので、 アンカバードバックグラウンド領域に属する画素の画素値に含まれる 成分は、 シャツタ時間に対応する期間のある時点で、 前景の成分から、 背景の成 分に替わる。
例えば、 図 1 1中に太線枠を付した画素値 M'は、 式 (2 ) で表される。
M' =F02/v+F01/v+B26/v+B26/v ( 2 )
例えば、 左から 5番目の画素は、 3つのシャツタ時間/ Vに対応する背景の成 分を含み、 1つのシャツタ時間/ Vに対応する前景の成分を含むので、 左から 5 番目の画素の混合比 ひ は、 3/4である。 左から 6番目の画素は、 2つのシャツ タ時間/ Vに対応する背景の成分を含み、 2つのシャッタ時間 /vに対応する前景 の成分を含むので、 左から 6番目の画素の混合比ひ は、 1/2である。 左から 7 番目の画素は、 1つのシャツタ時間/ Vに対応する背景の成分を含み、 3つのシ ャッタ時間/ Vに対応する前景の成分を含むので、 左から 7番目の画素の混合比 は、 1/4である。
式 (1 ) および式 (2 ) をより一般化すると、 画素値 Mは、 式 (3 ) で表さ れる。
M= -B +∑Fi/v (3)
ここで、 ひ は、 混合比である。 Bは、 背景の画素値であり、 Fi/vは、 前景の成 分である。 前景に対応するォブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 動 き量 Vが 4であるので、 例えば、 図 1 1中の左から 5番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 FO l /vは、 図 1 1中の左から 6 番目の画素の、 シャッタが開いて 2番目のシャッタ時間/ Vに対応する前景の成 分に等しい。 同様に、 FO l /vは、 図 1 1中の左から 7番目の画素の、 シャツタが 開いて 3番目のシャツタ時間/ Vに対応する前景の成分と、 図 1 1中の左から 8 番目の画素の、 シャッタが開いて 4番目のシャッタ時間/ Vに対応する前景の成 分とに、 それぞれ等しい。
前景に対応するォブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 仮 想分割数が 4であるので、 例えば、 図 1 1中の左から 6番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 F02/vは、 図 1 1中の左から 7 番目の画素の、 シャッタが開いて 2番目のシャッタ時間/ Vに対応する前景の成 分に等しい。 同様に、 前景の成分 F02/v は、 図 1 1中の左から 8番目の画素の, シャツタが開いて 3番目のシャツタ時間/ Vに対応する前景の成分に等しい。
前景に対応するオブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 動 き量 Vが 4であるので、 例えば、 図 1 1中の左から 7番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 F03/vは、 図 1 1中の左から 8 番目の画素の、 シャッタが開いて 2番目のシャッタ時間/ Vに対応する前景の成 分に等しい。
図 9乃至図 1 1の説明において、 仮想分割数は、 4であるとして説明したが、 仮想分割数は、 動き量 Vに対応する。 動き量 Vは、 一般に、 前景に対応するォ ブジエタ トの移動速度に対応する。 例えば、 前景に対応するオブジェク トが、 あ るフレームを基準として次のフレームにおいて 4画素分右側に表示されるように 移動しているとき、 動き量 Vは、 4とされる。 動き量 Vに対応し、 仮想分割数 は、 4とされる。 同様に、 例えば、 前景に対応するオブジェク トが、 あるフレー ムを基準として次のフレームにおいて 6画素分左側に表示されるように移動して いるとき、 動き量 Vは、 6とされ、 仮想分割数は、 6とされる。 図 1 2および図 1 3に、 以上で説明した、 前景領域、 背景領域、 カバードバッ クグラウンド領域若しくはアンカバードバックグラウンド領域から成る混合領域 と、 分割されたシャッタ時間に対応する前景の成分および背景の成分との関係を 示す。
図 1 2は、 静止している背景の前を移動しているオブジェク トに対応する前景 を含む画像から、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示 す。 図 1 2に示す例において、 Aで示す、 前景に対応するォブジェク トは、 画面 に対して水平に移動している。
フレーム #n+lは、 フレーム ttnの次のフレームであり、 フレーム #n+2は、 フレ ーム #n+lの次のフレームである。
フレーム ίίη 乃至フレーム ttn+2 のいずれかから抽出した、 前景領域、 背景領域、 および混合領域の画素を抽出して、 動き量 Vを 4として、 抽出された画素の画 素値を時間方向に展開したモデルを図 1 3に示す。
前景領域の画素値は、 前景に対応するオブジェク トが移動するので、 シャツタ 時間/ Vの期間に対応する、 4つの異なる前景の成分から構成される。 例えば、 図 1 3に示す前景領域の画素のうち最も左側に位置する画素は、
?01 ,?02 ,?03/ 、ぉょぴ1^04/^から構成される。 すなわち、 前景領域の画素 は、 動きボケを含んでいる。
背景に対応するォブジェク トが静止しているので、 シャツタ時間に対応する期 間において、 センサに入力される背景に対応する光は変化しない。 この場合、 背 景領域の画素値は、 動きボケを含まない。
カバードバックグラウンド領域若しくはアンカバードバックダラゥンド領域か ら成る混合領域に属する画素の画素値は、 前景の成分と、 背景の成分とから構成 される。
次に、 オブジェク トに対応する画像が動いているとき、 複数のフレームにおけ る、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画素の 画素値を時間方向に展開したモデルについて説明する。 例えば、 オブジェク トに 対応する画像が画面に対して水平に動いているとき、 隣接して 1列に並んでいる 画素として、 画面の 1つのライン上に並んでいる画素を選択することができる。 図 1 4は、 静止している背景に対応するォブジェク トを撮像した画像の 3つの フレームの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置 の画素の画素値を時間方向に展開したモデル図である。 フレーム は、 フレー ム ttn- 1の次のフレームであり、 フレーム #n+ lは、 フレーム ftnの次のフレームで ある。 他のフレームも同様に称する。
図 1 4に示す B01乃至 B 12の画素値は、 静止している背景のオブジェク トに 対応する画素の画素値である。 背景に対応するォブジェク トが静止しているので、 フレーム ttn- 1乃至フレーム n+ 1において、 対応する画素の画素値は、 変化しな レ、。 例えば、 フレーム #n- lにおける B05の画素値を有する画素の位置に対応す る、 フレーム ftn における画素、 およびフレーム における画素は、 それぞれ, B05の画素値を有する。
図 1 5は、 静止している背景に対応するォブジェク トと共に図中の右側に移動 する前景に対応するオブジェク トを撮像した画像の 3つのフレームの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画素の画素値を時間 方向に展開したモデル図である。 図 1 5に示すモデルは、 カバードバックグラウ ンド領域を含む。
図 1 5において、 前景に対応するォブジェク トが、 剛体であり、 等速で移動す ると仮定でき、 前景の画像が次のフレームにおいて 4画素右側に表示されるよう に移動するので、 前景の動き量 Vは、 4であり、 仮想分割数は、 4である。
例えば、 図 1 5中のフレーム ίίη- 1の最も左側の画素の、 シャツタが開いて最 初のシャツタ時間/ Vの前景の成分は、 F 12/vとなり、 図 1 5中の左から 2番目 の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 12/v となる。 図 1 5中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ 時間/ Vの前景の成分、 および図 1 5中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F12/vとなる。 図 1 5中のフレーム #n-lの最も左側の画素の、 シャッタが開いて 2番目のシ ャッタ時間/ Vの前景の成分は、 Fl l/vとなり、 図 1 5中の左から 2番目の画素 の、 シャツタが開いて 3番目のシャツタ時間/ V の前景の成分も、 Fl l/v となる, 図 1 5中の左から 3番目の画素の、 シャッタが開いて 4番目のシャッタ時間/ V の前景の成分は、 Fl l/vとなる。
図 1 5中のフレーム #n-lの最も左側の画素の、 シャツタが開いて 3番目のシ ャッタ時間/ Vの前景の成分は、 FlO/vとなり、 図 1 5中の左から 2番目の画素 の、 シャツタが開いて 4番目のシャツタ時間/ V の前景の成分も、 FlO/v となる, 図 1 5中のフレーム #n- 1の最も左側の画素の、 シャッタが開いて 4番目のシャ ッタ時間/ Vの前景の成分は、 F09/v となる。
背景に対応するォブジェク トが静止しているので、 図 1 5中のフレーム - 1 の左から 2番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの背景の成 分は、 BOl/vとなる。 図 1 5中のフレーム #n-lの左から 3番目の画素の、 シャ ッタが開いて最初および 2番目のシャツタ時間/ Vの背景の成分は、 B02/vとな る。 図 1 5中のフレーム #n-lの左から 4番目の画素の、 シャツタが開いて最初 乃至 3番目のシャツタ時間/ Vの背景の成分は、 B03/vとなる。
図 1 5中のフレーム #n- 1において、 最も左側の画素は、 前景領域に属し、 左 側から 2番目乃至 4番目の画素は、 カバードバックグラウンド領域である混合領 域に属する。
図 1 5中のフレーム ίίη-1の左から 5番目の画素乃至 1 2番目の画素は、 背景 領域に属し、 その画素値は、 それぞれ、 Β04乃至 B11 となる。
図 1 5中のフレーム ίίηの左から 1番目の画素乃至 5番目の画素は、 前景領域 に属する。 フレーム ίίηの前景領域における、 シャツタ時間/ Vの前景の成分は、 F05/ 乃至 F12/vのいずれかである。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 5中のフレーム tinの左から 5番目の画素の、 シャッタが開いて最初のシャ ッタ時間/ v の前景の成分は、 F 12/v となり、 図 1 5中の左から 6番目の画素の- シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F12/vとなる。 図 1 5中の左から 7番目の画素の、 シャッタが開いて 3番目のシャツタ時間/ Vの 前景の成分、 および図 1 5中の左から 8番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F12/vとなる。
図 1 5中のフレーム #nの左から 5番目の画素の、 シャッタが開いて 2番目の シャツタ時間/ Vの前景の成分は、 Fl l/v となり、 図 1 5中の左から 6番目の画 素の、 シャツタが開いて 3番目のシャツタ時間/ Vの前景の成分も、 Fl l/vとな る。 図 1 5中の左から 7番目の画素の、 シャツタが開いて 4番目のシャツタ時間 /vの前景の成分は、 Fl l/vとなる。
図 1 5中のフレーム #nの左から 5番目の画素の、 シャツタが開いて 3番目の シャツタ時間/ Vの前景の成分は、 FlO/v となり、 図 1 5中の左から 6番目の画 素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分も、 F lO/vとな る。 図 1 5中のフレーム tinの左から 5番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F09/vとなる。
背景に対応するォブジェク トが静止しているので、 図 1 5中のフレーム ίίηの 左から 6番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの背景の成分 は、 Β05/νとなる。 図 1 5中のフレーム #ηの左から 7番目の画素の、 シャツタ が開いて最初および 2番目のシャツタ時間 /νの背景の成分は、 Β06/νとなる。 図 1 5中のフレーム ίίηの左から 8番目の画素の、 シャツタが開いて最初乃至 3 番目の、 シャツタ時間/ Vの背景の成分は、 B07/Vとなる。
図 1 5中のフレーム #ηにおいて、 左側から 6番目乃至 8番目の画素は、 カバ 一ドバックグラウンド領域である混合領域に属する。
図 1 5中のフレーム の左から 9番目の画素乃至 1 2番目の画素は、 背景領 域に属し、 画素値は、 それぞれ、 Β08乃至 B11 となる。
図 1 5中のフレーム ίίη+lの左から 1番目の画素乃至 9番目の画素は、 前景領 域に属する。 フレーム + 1の前景領域における、 シャツタ時間/ Vの前景の成分 は、 FOl/v乃至 F12/vのいずれかである。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 5中のフレーム #n+lの左から 9番目の画素の、 シャッタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F12/vとなり、 図 1 5中の左から 1◦番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F12/vとな る。 図 1 5中の左から 1 1番目の画素の、 シャツタが開いて 3番目のシャツタ時 間/ Vの前景の成分、 および図 1 5中の左から 1 2番目の画素の、 シャツタが開 いて 4番目のシャッタ時間/ Vの前景の成分は、 F12/vとなる。
図 1 5中のフレーム ίίη+lの左から 9番目の画素の、 シャツタが開いて 2番目 のシャツタ時間/ Vの期間の前景の成分は、 Fll/vとなり、 図 1 5中の左から 1 0番目の画素の、 シャッタが開いて 3番目のシャッタ時間/ Vの前景の成分も、 Fll/v となる。 図 1 5中の左から 1 1番目の画素の、 シャツタが開いて 4番目の、 シャツタ時間/ Vの前景の成分は、 Fll/vとなる。
図 1 5中のフレーム #n+lの左から 9番目の画素の、 シャツタが開いて 3番目 の、 シャツタ時間/ Vの前景の成分は、 FlO/vとなり、 図 1 5中の左から 1 0番 目の画素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分も、 FlO/v となる。 図 1 5中のフレーム ίίη+lの左から 9番目の画素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分は、 F09/v となる。
背景に対応するオブジェク トが静止しているので、 図 1 5中のフレーム #η+1 の左から 1 0番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの背景の 成分は、 B09/Vとなる。 図 1 5中のフレーム #η+1の左から 1 1番目の画素の、 シャッタが開いて最初および 2番目のシャッタ時間/ Vの背景の成分は、 ΒΙΟ/ν となる。 図 1 5中のフレーム ίίη+1の左から 1 2番目の画素の、 シャツタが開い て最初乃至 3番目の、 シャツタ時間/ Vの背景の成分は、 Bll/vとなる。
図 1 5中のフレーム #n+l において、 左側から 1 0番目乃至 1 2番目の画素は, カバードバックグラウンド領域である混合領域に対応する。 図 1 6は、 図 1 5に示す画素値から前景の成分を抽出した画像のモデル図であ る。
図 1 7は、 静止している背景と共に図中の右側に移動するォブジェク トに対応 する前景を撮像した画像の 3つのフレームの、 隣接して 1列に並んでいる画素で あって、 フレーム上で同一の位置の画素の画素値を時間方向に展開したモデル図 である。 図 1 7において、 アンカバードバックグラウンド領域が含まれている。 図 1 7において、 前景に対応するォブジェク トは、 剛体であり、 かつ等速で移 動していると仮定できる。 前景に対応するオブジェク トが、 次のフレームにおい て 4画素分右側に表示されるように移動しているので、 動き量 V は、 4である, 例えば、 図 1 7中のフレーム #n-lの最も左側の画素の、 シャツタが開いて最 初の、 シャツタ時間/ Vの前景の成分は、 F13/Vとなり、 図 1 7中の左から 2番 目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F13/v となる。 図 1 7中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ 時間/ Vの前景の成分、 および図 1 7中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F13/vとなる。
図 1 7中のフレーム #n- 1の左から 2番目の画素の、 シャッタが開いて最初の シャツタ時間/ Vの前景の成分は、 F14/vとなり、 図 1 7中の左から 3番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F14/vとな る。 図 1 7中の左から 3番目の画素の、 シャツタが開いて最初の、 シャツタ時間 /vの前景の成分は、 F15/vとなる。
背景に対応するォブジェク 卜が静止しているので、 図 1 7中のフレーム #n- 1 の最も左側の画素の、 シャツタが開いて 2番目乃至 4番目の、 シャツタ時間/ V の背景の成分は、 B25/vとなる。 図 1 7中のフレーム ίίη-lの左から 2番目の画 素の、 シャツタが開いて 3番目および 4番目の、 シャツタ時間/ Vの背景の成分 は、 Β26/νとなる。 図 1 7中のフレーム ίίη-lの左から 3番目の画素の、 シャツ タが開いて 4番目のシャツタ時間 /νの背景の成分は、 Β27/νとなる。
図 1 7中のフレーム #η-1において、 最も左側の画素乃至 3番目の画素は、 ァ ンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム #n- 1の左から 4番目の画素乃至 1 2番目の画素は、 前景 領域に属する。 フレームの前景の成分は、 F 13/v乃至 F2Vvのいずれかである。 図 1 7中のフレーム の最も左側の画素乃至左から 4番目の画素は、 背景領 域に属し、 画素値は、 それぞれ、 Β25乃至 Β28となる。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 7中のフレーム #ηの左から 5番目の画素の、 シャッタが開いて最初のシャ ッタ時間/ V の前景の成分は、 F 13/v となり、 図 1 7中の左から 6番目の画素の. シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F13/vとなる。 図 1 7中の左から 7番目の画素の、 シャツタが開いて 3番目のシャツタ時間/ Vの 前景の成分、 および図 1 7中の左から 8番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F13/vとなる。
図 1 7中のフレーム #ηの左から 6番目の画素の、 シャツタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F /vとなり、 図 1 7中の左から 7番目の画素 の、 シャツタが開いて 2番目のシャツタ時間/ V の前景の成分も、 F 14/v となる, 図 1 7中の左から 8番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの 前景の成分は、 F 15/vとなる。
背景に対応するォブジェク トが静止しているので、 図 1 7中のフレーム #nの 左から 5番目の画素の、 シャツタが開いて 2番目乃至 4番目のシャツタ時間/ V の背景の成分は、 B29/vとなる。 図 1 7中のフレーム の左から 6番目の画素 の、 シャッタが開いて 3番目および 4番目のシャッタ時間/ Vの背景の成分は、 B30/vとなる。 図 1 7中のフレーム の左から 7番目の画素の、 シャツタが開 いて 4番目のシャッタ時間/ Vの背景の成分は、 B31 /Vとなる。
図 1 7中のフレーム #ηにおいて、 左から 5番目の画素乃至 7番目の画素は、 アンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム ίίηの左から 8番目の画素乃至 1 2番目の画素は、 前景領 域に属する。 フレーム #nの前景領域における、 シャツタ時間/ Vの期間に対応す る値は、 F13/v乃至 F20/vのいずれかである。
図 1 7中のフレーム #n+lの最も左側の画素乃至左から 8番目の画素は、 背景 領域に属し、 画素値は、 それぞれ、 B25乃至 B32となる。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 7中のフレーム #n+lの左から 9番目の画素の、 シャッタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F13/vとなり、 図 1 7中の左から 1 0番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F13/vとな る。 図 1 7中の左から 1 1番目の画素の、 シャツタが開いて 3番目のシャツタ時 間/ Vの前景の成分、 および図 1 7中の左から 1 2番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F13/vとなる。
図 1 7中のフレーム #n+ lの左から 1 0番目の画素の、 シャッタが開いて最初 のシャツタ時間/ Vの前景の成分は、 F14/v となり、 図 1 7中の左から 1 1番目 の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F14/V となる。 図 1 7中の左から 1 2番目の画素の、 シャツタが開いて最初のシャツタ 時間/ Vの前景の成分は、 F15/vとなる。
背景に対応するォブジェク トが静止しているので、 図 1 7中のフレーム #n+ l の左から 9番目の画素の、 シャツタが開いて 2番目乃至 4番目の、 シャツタ時間 /vの背景の成分は、 B33/vとなる。 図 1 7中のフレーム ίίη+ lの左から 1 0番目 の画素の、 シャッタが開いて 3番目および 4番目のシャッタ時間/ Vの背景の成 分は、 Β34/νとなる。 図 1 7中のフレーム #η+ 1の左から 1 1番目の画素の、 シ ャッタが開いて 4番目のシャッタ時間 /νの背景の成分は、 Β35/νとなる。
図 1 7中のフレーム #η+ 1において、 左から 9番目の画素乃至 1 1番目の画素 は、 アンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム ίίη+lの左から 1 2番目の画素は、 前景領域に属する。 フ レーム #η+1の前景領域における、 シャツタ時間/ Vの前景の成分は、 F13/v乃至 F16/vのいずれかである。
図 1 8は、 図 1 7に示す画素値から前景の成分を抽出した画像のモデル図であ る。
図 2に戻り、 領域特定部 1 0 3は、 複数のフレームの画素値を用いて、 前景領 域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバックダラ ゥンド領域に属することを示すフラグを画素毎に対応付けて、 領域情報として、 混合比算出部 1 ◦ 4および動きボケ調整部 1 0 6に供給する。
混合比算出部 1 0 4は、 複数のフレームの画素値、 および領域情報を基に、 混 合領域に含まれる画素について画素毎に混合比 a を算出し、 算出した混合比 ひ を前景背景分離部 1 0 5に供給する。
前景背景分離部 1 0 5は、 複数のフレームの画素値、 領域情報、 および混合比 を基に、 前景の成分のみからなる前景成分画像を抽出して、 動きボケ調整部 1 0 6に供給する。
動きボケ調整部 1 0 6は、 前景背景分離部 1 0 5から供給された前景成分画像、 動き検出部 1 0 2から供給された動きベク トル、 および領域特定部 1 0 3から供 給された領域情報を基に、 前景成分画像に含まれる動きボケの量を調整して、 動 きボケの量を調整した前景成分画像を出力する。
図 1 9のフローチヤ一トを参照して、 画像処理装置による動きボケの量の調整 の処理を説明する。 ステップ S 1 1において、 領域特定部 1 0 3は、 入力画像を 基に、 入力画像の画素毎に前景領域、 背景領域、 カバードバックグラウンド領域、 またはァンカバードバックグラウンド領域のいずれかに属するかを示す領域情報 を生成する領域特定の処理を実行する。 領域特定の処理の詳細は、 後述する。 領 域特定部 1 0 3は、 生成した領域情報を混合比算出部 1 0 4に供給する。
なお、 ステップ S 1 1において、 領域特定部 1 0 3は、 入力画像を基に、 入力 画像の画素毎に前景領域、 背景領域、 または混合領域 (カバードバックグラウン ド領域、 またはアンカバードバックグラウンド領域の区別をしない) のいずれか に属するかを示す領域情報を生成するようにしてもよい。 この場合において、 前 景背景分離部 1 0 5および動きボケ調整部 1 0 6は、 動きべク トルの方向を基に、 混合領域がカバードバックグラウンド領域であるか、 またはアンカバードバック グラウンド領域であるかを判定する。 例えば、 動きベク トルの方向に対応して、 前景領域、 混合領域、 および背景領域と順に並んでいるとき、 その混合領域は、 カバードバックグラウンド領域と判定され、 動きベク トルの方向に対応して、 背 景領域、 混合領域、 および前景領域と順に並んでいるとき、 その混合領域は、 ァ ンカバードバックグラウンド領域と判定される。
ステップ S 1 2において、 混合比算出部 1 0 4は、 入力画像および領域情報を 基に、 混合領域に含まれる画素毎に、 混合比ひ を算出する。 混合比算出の処理 の詳細は、 後述する。 混合比算出部 1 0 4は、 算出した混合比 ひ を前景背景分 離部 1 0 5に供給する。
ステップ S 1 3において、 前景背景分離部 1 0 5は、 領域情報、 および混合比 ひ を基に、 入力画像から前景の成分を抽出して、 前景成分画像として動きボケ 調整部 1 0 6に供給する。
ステップ S 1 4において、 動きボケ調整部 1 0 6は、 動きべク トルおよび領域 情報を基に、 動き方向に並ぶ連続した画素であって、 アンカバードバックグラウ ンド領域、 前景領域、 およびカバードバックグラウンド領域のいずれかに属する ものの画像上の位置を示す処理単位を生成し、 処理単位に対応する前景成分に含 まれる動きボケの量を調整する。 動きボケの量の調整の処理の詳細については、 後述する。
ステップ S 1 5において、 画像処理装置は、 画面全体について処理を終了した か否かを判定し、 画面全体について処理を終了していないと判定された場合、 ス テツプ S 1 4に進み、 処理単位に対応する前景の成分を対象とした動きボケの量 の調整の処理を繰り返す。
ステップ S 1 5において、 画面全体について処理を終了したと判定された場合、 処理は終了する。
このように、 画像処理装置は、 前景と背景を分離して、 前景に含まれる動きボ ケの量を調整することができる。 すなわち、 画像処理装置は、 前景の画素の画素 値であるサンプルデータに含まれる動きボケの量を調整することができる。
以下、 領域特定部 1 0 3、 混合比算出部 1 0 4、 前景背景分離部 1 0 5、 およ び動きボケ調整部 1 0 6のそれぞれの構成について説明する。
図 2 0は、 領域特定部 1 0 3の構成の一例を示すブロック図である。 図 2 0に 構成を示す領域特定部 1 0 3は、 動きベク トルを利用しない。 フレームメモリ 2 0 1は、 入力された画像をフレーム単位で記憶する。 フレームメモリ 2 0 1は、 処理の対象がフレーム ίίηであるとき、 フレーム #ηの 2つ前のフレームであるフ レーム #η-2、 フレーム #η の 1つ前のフレームであるフレーム #η- 1、 フレームの フレーム #ηの 1つ後のフレームであるフレーム #η+ 1、 およびフレーム #ηの 2つ 後のフレームであるフレーム #η+2を記憶する。
静動判定部 2 0 2 _ 1は、 フレーム の領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム itn+2の画素の画素値、 およびフレーム #nの 領域特定の対象である画素の画像上の位置と同一の位置にあるフレーム #n+lの 画素の画素値をフレームメモリ 2 0 1から読み出して、 読み出した画素値の差の 絶対値を算出する。 静動判定部 2 0 2— 1は、 フレーム +2の画素値とフレー ム ίίη+1の画素値との差の絶対値が、 予め設定している閾値 Thより大きいか否か を判定し、 差の絶対値が閾値 Thより大きいと判定された場合、 動きを示す静動 判定を領域判定部 2 0 3— 1に供給する。 フレーム #n+2の画素の画素値とフレ ーム #n+ lの画素の画素値との差の絶対値が閾値 Th以下であると判定された場合- 静動判定部 2 0 2— 1は、 静止を示す静動判定を領域判定部 2 0 3— 1に供給す る。
静動判定部 2 0 2— 2は、 フレーム の領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム ίίη+ lの画素の画素値、 およびフレーム t の 対象となる画素の画素値をフレームメモリ 2 0 1から読み出して、 画素値の差の 絶対値を算出する。 静動判定部 2 0 2— 2は、 フレーム ίίη+ lの画素値とフレー ム #ηの画素値との差の絶対値が、 予め設定している閾値 Thより大きいか否かを 判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場合、 動きを 示す静動判定を領域判定部 2 0 3 - 1および領域判定部 2 0 3— 2に供給する。 フレーム ttn+1の画素の画素値とフレーム #nの画素の画素値との差の絶対値が、 閾値 Th以下であると判定された場合、 静動判定部 2 0 2— 2は、 静止を示す静 動判定を領域判定部 2 0 3— 1および領域判定部 2 0 3— 2に供給する。
静動判定部 2 0 2— 3は、 フレーム tin の領域特定の対象である画素の画素値、 およびフレーム #nの領域特定の対象である画素の画像上の位置と同一の位置に あるフレーム ίίη- 1の画素の画素値をフレームメモリ 2 0 1から読み出して、 画 素値の差の絶対値を算出する。 静動判定部 2 0 2— 3は、 フレーム #ηの画素値 とフレーム #η - 1の画素値との差の絶対値が、 予め設定している閾値 Thより大き いか否かを判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場 合、 動きを示す静動判定を領域判定部 2 0 3— 2および領域判定部 2 0 3— 3に 供給する。 フレーム の画素の画素値とフレーム ίίη - 1の画素の画素値との差の 絶対値が、 閾値 Th以下であると判定された場合、 静動判定部 2 0 2— 3は、 静 止を示す静動判定を領域判定部 2 0 3一 2および領域判定部 2 0 3 - 3に供給す る。
静動判定部 2 0 2— 4は、 フレーム ttnの領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム ίίη-lの画素の画素値、 およびフレーム の 領域特定の対象である画素の画像上の位置と同一の位置にあるフレーム #η-2の 画素の画素値をフレームメモリ 2 0 1から読み出して、 画素値の差の絶対値を算 出する。 静動判定部 2 0 2— 4は、 フレーム ttn- 1の画素値とフレーム #η- 2の画 素値との差の絶対値が、 予め設定している閾値 Thより大きいか否かを判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場合、 動きを示す静動 判定を領域判定部 2 0 3 - 3に供給する。 フレーム #n-lの画素の画素値とフレ 一ム^- 2の画素の画素値との差の絶対値が、 閾値 Th以下であると判定された場 合、 静動判定部 2 0 2— 4は、 静止を示す静動判定を領域判定部 2 0 3— 3に供 給する。 領域判定部 2 0 3— 1は、 静動判定部 2 0 2— 1から供給された静動判定が静 止を示し、 かつ、 静動判定部 2 ΰ 2 _ 2から供給された静動判定が動きを示して いるとき、 フレーム における領域特定の対象である画素がアンカバードバッ クグラウンド領域に属すると判定し、 領域の判定される画素に対応するアンカバ ードバックグラウンド領域判定フラグに、 アンカバードバックグラウンド領域に 属することを示す" 1 " を設定する。
領域判定部 2 0 3— 1は、 静動判定部 2 0 2 - 1から供給された静動判定が動 きを示すか、 または、 静動判定部 2 0 2— 2から供給された静動判定が静止を示 しているとき、 フレーム #ηにおける領域特定の対象である画素がアンカバード バックグラウンド領域に属しないと判定し、 領域の判定される画素に対応するァ ンカバードバックグラウンド領域判定フラグに、 アンカバードバックグラウンド 領域に属しないことを示す" 0 " を設定する。
領域判定部 2 0 3— 1は、 このように" 1 " または" 0 " が設定されたアンカ バードバックグラウンド領域判定フラグを判定フラグ格納フレームメモリ 2 0 4 に供給する。
領域判定部 2 0 3— 2は、 静動判定部 2 0 2 _ 2から供給された静動判定が静 止を示し、 かつ、 静動判定部 2 0 2— 3から供給された静動判定が静止を示して いるとき、 フレーム ίίηにおける領域特定の対象である画素が静止領域に属する と判定し、 領域の判定される画素に対応する静止領域判定フラグに、 静止領域に 属することを示す" 1 " を設定する。
領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が動 きを示すか、 または、 静動判定部 2 0 2— 3から供給された静動判定が動きを示 しているとき、 フレーム における領域特定の対象である画素が静止領域に属 しないと判定し、 領域の判定される画素に対応する静止領域判定フラグに、 静止 領域に属しないことを示す" 0 " を設定する。
領域判定部 2 0 3— 2は、 このように" 1 " または" 0 " が設定された静止領 域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供給する。 領域判定部 2 0 3— 2は、 静動判定部 2 0 2一 2から供給された静動判定が動 きを示し、 かつ、 静動判定部 2 0 2— 3から供給された静動判定が動きを示して いるとき、 フレーム #nにおける領域特定の対象である画素が動き領域に属する と判定し、 領域の判定される画素に対応する動き領域判定フラグに、 動き領域に 属することを示す" 1 " を設定する。
領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が静 止を示すか、 または、 静動判定部 2 0 2— 3から供給された静動判定が静止を示 しているとき、 フレーム ttnにおける領域特定の対象である画素が動き領域に属 しないと判定し、 領域の判定される画素に対応する動き領域判定フラグに、 動き 領域に属しないことを示す'' 0 " を設定する。
領域判定部 2 0 3— 2は、 このように" 1 " または" 0 " が設定された動き領 域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供給する。
領域判定部 2 0 3— 3は、 静動判定部 2 0 2— 3から供給された静動判定が動 きを示し、 かつ、 静動判定部 2 0 2— 4から供給された静動判定が静止を示して いるとき、 フレーム ttnにおける領域特定の対象である画素がカバードバックグ ラウンド領域に属すると判定し、 領域の判定される画素に対応するカバードバッ クグラウンド領域判定フラグに、 カバードバックグラウンド領域に属することを 示す" 1 " を設定する。
領域判定部 2 0 3— 3は、 静動判定部 2 0 2— 3から供給された静動判定が静 止を示すか、 または、 静動判定部 2 0 2— 4から供給された静動判定が動きを示 しているとき、 フレーム #nにおける領域特定の対象である画素がカバードバッ クグラウンド領域に属しないと判定し、 領域の判定される画素に対応するカバー ドバックグラウンド領域判定フラグに、 カバードバックグラウンド領域に属しな いことを示す" 0 " を設定する。
領域判定部 2 0 3— 3は、 このように" 1 " または" 0 " が設定されたカバー ドバックグラウンド領域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供 給する。 判定フラグ格納フレームメモリ 2 0 4は、 領域判定部 2 0 3 - 1から供給され たアンカバードバックグラウンド領域判定フラグ、 領域判定部 2 0 3— 2から供 給された静止領域判定フラグ、 領域判定部 2 0 3— 2から供給された動き領域判 定フラグ、 および領域判定部 2 0 3一 3から供給されたカバードバックグラウン ド領域判定フラグをそれぞれ記憶する。
判定フラグ格納フレームメモリ 2 0 4は、 記憶しているアンカバードバックグ ラウンド領域判定フラグ、 静止領域判定フラグ、 動き領域判定フラグ、 および力 バードバックグラウンド領域判定フラグを合成部 2 0 5に供給する。 合成部 2 0 5は、 判定フラグ格納フレームメモリ 2 0 4から供給された、 アンカバードバッ クグラウンド領域判定フラグ、 静止領域判定フラグ、 動き領域判定フラグ、 およ びカバードバックグラウンド領域判定フラグを基に、 各画素が、 アンカバードバ ックグラウンド領域、 静止領域、 動き領域、 およびカバードバックグラウンド領 域のいずれかに属することを示す領域情報を生成し、 判定フラグ格納フレームメ モリ 2 0 6に供給する。
判定フラグ格納フレームメモリ 2 0 6は、 合成部 2 0 5から供給された領域情 報を記憶すると共に、 記憶している領域情報を出力する。
次に、 領域特定部 1 0 3の処理の例を図 2 1乃至図 2 5を参照して説明する。 前景に対応するォブジェク トが移動しているとき、 オブジェク トに対応する画 像の画面上の位置は、 フレーム毎に変化する。 図 2 1に示すように、 フレーム #nにおいて、 Yn (x,y)で示される位置に位置するオブジェク トに対応する画像は, 次のフレームであるフレーム ίίη+ lにおいて、 Υη+ 1 (X, y)に位置する。
前景のォブジ ク トに対応する画像の動き方向に隣接して 1列に並ぶ画素の画 素値を時間方向に展開したモデル図を図 2 2に示す。 例えば、 前景のオブジェク トに対応する画像の動き方向が画面に対して水平であるとき、 図 2 2におけるモ デル図は、 1つのライン上の隣接する画素の画素値を時間方向に展開したモデル を示す。
図 2 2において、 フレーム #nにおけるラインは、 フレーム ttn+ 1におけるライ ンと同一である。
フレーム ίίηにおいて、 左から 2番目の画素乃至 1 3番目の画素に含まれてい るオブジェク トに対応する前景の成分は、 フレーム #η+1において、 左から 6番 目乃至 1 7番目の画素に含まれる。
フレーム ttnにおいて、 カバードバックグラウンド領域に属する画素は、 左か ら 1 1番目乃至 1 3番目の画素であり、 アンカバードバックグラウンド領域に属 する画素は、 左から 2番目乃至 4番目の画素である。 フレーム ίίη+ 1において、 カバ—ドバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番目の 画素であり、 アンカバードバックグラウンド領域に属する画素は、 左から 6番目 乃至 8番目の画素である。
図 2 2に示す例において、 フレーム ί!ηに含まれる前景の成分が、 フレーム #η+ 1 において 4画素移動しているので、 動き量 V は、 4である。 仮想分割数は、 動き量 Vに対応し、 4である。
次に、 注目しているフレームの前後における混合領域に属する画素の画素値の 変化について説明する。
図 2 3に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム におい て、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番 目の画素である。 動き量 Vが 4であるので、 1つ前のフレーム #η- 1において、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分のみを含み、 背景領域に属す る。 また、 更に 1つ前のフレーム ttn-2において、 左から 1 5番目乃至 1 7番目 の画素は、 背景の成分のみを含み、 背景領域に属する。
ここで、 背景に対応するオブジェク トが静止しているので、 フレーム ίίη_ 1の 左から 1 5番目の画素の画素値は、 フレーム #η - 2の左から 1 5番目の画素の画 素値から変化しない。 同様に、 フレーム ίίη- lの左から 1 6番目の画素の画素値 は、 フレーム - 2の左から 1 6番目の画素の画素値から変化せず、 フレーム - 1の左から 1 7番目の画素の画素値は、 フレーム ttn-2の左から 1 7番目の画素 の画素値から変化しない。 すなわち、 フレーム #nにおけるカバードバックグラウンド領域に属する画素 に対応する、 フレーム - 1およびフレーム #n- 2の画素は、 背景の成分のみから 成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従って、 フレーム #nにおける混合領域に属する画素に対応する、 フレーム #n- lおよびフ レーム #n- 2の画素に対する静動判定は、 静動判定部 2 0 2— 4により、 静止と 判定される。
フレーム におけるカバードバックグラウンド領域に属する画素は、 前景の 成分を含むので、 フレーム ίίη- lにおける背景の成分のみから成る場合と、 画素 値が異なる。 従って、 フレーム #ηにおける混合領域に属する画素、 および対応 するフレーム #η-1 の画素に対する静動判定は、 静動判定部 2 0 2— 3により、 動きと判定される。
このように、 領域判定部 2 0 3— 3は、 静動判定部 2 0 2一 3から動きを示す 静動判定の結果が供給され、 静動判定部 2 0 2— 4から静止を示す静動判定の結 果が供給されたとき、 対応する画素がカバードバックグラウンド領域に属すると 判定する。
図 2 4に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム ttnにおい て、 アンカバードバックグラウンド領域に含まれる画素は、 左から 2番目乃至 4 番目の画素である。 動き量 V が 4であるので、 1つ後のフレーム #n+ l において. 左から 2番目乃至 4番目の画素は、 背景の成分のみを含み、 背景領域に属する。 また、 更に 1つ後のフレーム ttn+2 において、 左から 2番目乃至 4番目の画素は. 背景の成分のみを含み、 背景領域に属する。
ここで、 背景に対応するオブジェク トが静止しているので、 フレーム +2の 左から 2番目の画素の画素値は、 フレーム #n+lの左から 2番目の画素の画素値 から変化しない。 同様に、 フレーム ίίη+2の左から 3番目の画素の画素値は、 フ レーム ίίη+lの左から 3番目の画素の画素値から変化せず、 フレーム ttn+2の左力 ら 4番目の画素の画素値は、 フレーム #n+lの左から 4番目の画素の画素値から 変化しない。 すなわち、 フレーム ίίηにおけるアンカバードバックグラウンド領域に属する 画素に対応する、 フレーム #η+1およびフレーム +2の画素は、 背景の成分のみ から成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従 つて、 フレーム #ηにおける混合領域に属する画素に対応する、 フレーム #η+1お よびフレーム ttn+2の画素に対する静動判定は、 静動判定部 2 0 2— 1により、 静止と判定される。
フレーム におけるアンカバードバックグラウンド領域に属する画素は、 前 景の成分を含むので、 フレーム #n+lにおける背景の成分のみから成る場合と、 画素値が異なる。 従って、 フレーム #nにおける混合領域に属する画素、 および 対応するフレーム #n+lの画素に対する静動判定は、 静動判定部 2 0 2— 2によ り、 動きと判定される。
このように、 領域判定部 2 0 3— 1は、 静動判定部 2 0 2— 2から動きを示す 静動判定の結果が供給され、 静動判定部 2 0 2— 1から静止を示す静動判定の結 果が供給されたとき、 対応する画素がアンカバードバックグラウンド領域に属す ると判定する。
図 2 5は、 フレーム tin における領域特定部 1 0 3の判定条件を示す図である, フレーム ίίηの判定の対象となる画素の画像上の位置と同一の位置にあるフレー ム - 2の画素と、 フレーム の判定の対象となる画素の画像上の位置と同一の 位置にあるフレーム - 1の画素とが静止と判定され、 フレーム ίίηの判定の対象 となる画素の画像上の位置と同一の位置にあるフレーム #η - 1の画素と、 フレー ム ttnの画素とが動きと判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判 定の対象となる画素がカバードバックグラウンド領域に属すると判定する。
フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフレ 一ム*^- 1の画素と、 フレーム #nの画素とが静止と判定され、 フレーム #nの画素 と、 フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム #n+lの画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判定の対象となる画素が静止領域に属すると判定する。 フレーム の判定の対象となる画素の画像上の位置と同一の位置にあるフレ ーム ίίη- lの画素と、 フレーム の画素とが動きと判定され、 フレーム #ηの画素 と、 フレーム #ηの判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム #η+1の画素とが動きと判定されたとき、 領域特定部 1 0 3は、 フレーム Unの判定の対象となる画素が動き領域に属すると判定する。
フレーム の画素と、 フレーム の判定の対象となる画素の画像上の位置と 同一の位置にあるフレーム ttn+1の画素とが動きと判定され、 フレーム の判定 の対象となる画素の画像上の位置と同一の位置にあるフレーム #n+lの画素と、 フレーム の判定の対象となる画素の画像上の位置と同一の位置にあるフレー ム #n+2の画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フレーム の 判定の対象となる画素がアンカバ一ドバックグラウンド領域に属すると判定する, 図 2 6 A乃至図 2 6 Dは、 領域特定部 1 0 3の領域の特定の結果の例を示す図 である。 図 2 6 Aにおいて、 カバードバックグラウンド領域に属すると判定され た画素は、 白で表示されている。 図 2 6 Bにおいて、 アンカバードバックグラウ ンド領域に属すると判定された画素は、 白で表示されている。
図 2 6 Cにおいて、 動き領域に属すると判定された画素は、 白で表示されてい る。 図 2 6 Dにおいて、 静止領域に属すると判定された画素は、 白で表示されて いる。
図 2 7は、 判定フラグ格納フレームメモリ 2 0 6が出力する領域情報の内、 混 合領域を示す領域情報を画像として示す図である。 図 2 7において、 カバードバ ックグラウンド領域またはアンカバードバックグラウンド領域に属すると判定さ れた画素、 すなわち混合領域に属すると判定された画素は、 白で表示されている, 判定フラグ格納フレームメモリ 2 0 6が出力する混合領域を示す領域情報は、 混 合領域、 および前景領域内のテクスチャの無い部分に囲まれたテクスチャの有る 部分を示す。
次に、 図 2 8のフローチャートを参照して、 領域特定部 1 0 3の領域特定の処 理を説明する。 ステップ S 2 0 1において、 フレームメモリ 2 0 1は、 判定の対 象となるフレーム ttnを含むフレーム #n- 2乃至フレーム #n+2の画像を取得する。 ステップ S 2 0 2において、 静動判定部 2 0 2— 3は、 フレーム #n- 1の画素 とフレーム #nの同一位置の画素とで、 静止か否かを判定し、 静止と判定された 場合、 ステップ S 2 0 3に進み、 静動判定部 2 0 2— 2は、 フレーム の画素 とフレーム #n+lの同一位置の画素とで、 静止か否かを判定する。
ステップ S 2 0 3において、 フレーム の画素とフレーム #n+ lの同一位置の 画素とで、 静止と判定された場合、 ステップ S 2 0 4に進み、 領域判定部 2 0 3 一 2は、 領域の判定される画素に対応する静止領域判定フラグに、 静止領域に属 することを示す" 1 " を設定する。 領域判定部 2 0 3— 2は、 静止領域判定フラ グを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 0 5に進む。
ステップ S 2 0 2において、 フレーム #n- lの画素とフレーム #nの同一位置の 画素とで、 動きと判定された場合、 または、 ステップ S 2 0 3において、 フレー ム の画素とフレーム #n+lの同一位置の画素とで、 動きと判定された場合、 フ レーム の画素が静止領域には属さないので、 ステップ S 2 0 4の処理はスキ ップされ、 手続きは、 ステップ S 2 0 5に進む。
ステップ S 2 0 5において、 静動判定部 2 0 2— 3は、 フレーム ίίη- 1の画素 とフレーム #ηの同一位置の画素とで、 動きか否かを判定し、 動きと判定された 場合、 ステップ S 2 0 6に進み、 静動判定部 2 0 2— 2は、 フレーム #ηの画素 とフレーム #η+1の同一位置の画素とで、 動きか否かを判定する。
ステップ S 2 0 6において、 フレーム tinの画素とフレーム #n+lの同一位置の 画素とで、 動きと判定された場合、 ステップ S 2 0 7に進み、 領域判定部 2 0 3 一 2は、 領域の判定される画素に対応する動き領域判定フラグに、 動き領域に属 することを示す" 1 " を設定する。 領域判定部 2 0 3— 2は、 動き領域判定フラ グを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 0 8に進む。
ステップ S 2 0 5において、 フレーム ttn- 1の画素とフレーム #nの同一位置の 画素とで、 静止と判定された場合、 または、 ステップ S 2 0 6において、 フレー ム #nの画素とフレーム #n+ lの同一位置の画素とで、 静止と判定された場合、 フ レーム #nの画素が動き領域には属さないので、 ステップ S 2 0 7の処理はスキ ップされ、 手続きは、 ステップ S 2 0 8に進む。
ステップ S 2 0 8において、 静動判定部 2 0 2— 4は、 フレーム #n-2の画素 とフレーム - 1の同一位置の画素とで、 静止か否かを判定し、 静止と判定され た場合、 ステップ S 2 0 9に進み、 静動判定部 2 0 2— 3は、 フレーム #n- 1の 画素とフレーム ίίηの同一位置の画素とで、 動きか否かを判定する。
ステップ S 2 0 9において、 フレーム ίίη- 1の画素とフレーム の同一位置の 画素とで、 動きと判定された場合、 ステップ S 2 1 0に進み、 領域判定部 2 0 3 一 3は、 領域の判定される画素に対応するカバードバックグラウンド領域判定フ ラグに、 カバードバックグラウンド領域に属することを示す" 1 " を設定する。 領域判定部 2 0 3— 3は、 カバードバックグラウンド領域判定フラグを判定フラ グ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 1 1に進む。 ステップ S 2 0 8において、 フレーム #η-2の画素とフレーム - 1の同一位置 の画素とで、 動きと判定された場合、 または、 ステップ S 2 0 9において、 フレ ーム #η- 1の画素とフレーム #ηの同一位置の画素とで、 静止と判定された場合、 フレーム #ηの画素がカバードバックグラウンド領域には属さないので、 ステツ プ S 2 1 0の処理はスキップされ、 手続きは、 ステップ S 2 1 1に進む。
ステップ S 2 1 1において、 静動判定部 2 0 2— 2は、 フレーム #ηの画素と フレーム ttn+1の同一位置の画素とで、 動きか否かを判定し、 動きと判定された 場合、 ステップ S 2 1 2に進み、 静動判定部 2 0 2 _ 1は、 フレーム #n+ lの画 素とフレーム #n+2の同一位置の画素とで、 静止か否かを判定する。
ステップ S 2 1 2において、 フレーム #n+lの画素とフレーム #n+2の同一位置 の画素とで、 静止と判定された場合、 ステップ S 2 1 3に進み、 領域判定部 2 0 3— 1は、 領域の判定される画素に対応するアンカバードバックグラウンド領域 判定フラグに、 アンカバードバックグラウンド領域に属することを示す" 1 " を 設定する。 領域判定部 2 0 3— 1は、 アンカバードバックグラウンド領域判定フ ラグを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 1 4に進む。
ステップ S 2 1 1において、 フレーム #nの画素とフレーム #n+ lの同一位置の 画素とで、 静止と判定された場合、 または、 ステップ S 2 1 2において、 フレー ム ίΐη+ lの画素とフレーム +2の同一位置の画素とで、 動きと判定された場合、 フレーム #ηの画素がアンカバードバックグラウンド領域には属さないので、 ス テップ S 2 1 3の処理はスキップされ、 手続きは、 ステップ S 2 1 4に進む。
ステップ S 2 1 4において、 領域特定部 1 0 3は、 フレーム tinの全ての画素 について領域を特定したか否かを判定し、 フレーム tinの全ての画素について領 域を特定していないと判定された場合、 手続きは、 ステップ S 2 0 2に戻り、 他 の画素について、 領域特定の処理を繰り返す。
ステップ S 2 1 4において、 フレーム t の全ての画素について領域を特定し たと判定された場合、 ステップ S 2 1 5に進み、 合成部 2 0 5は、 判定フラグ格 納フレームメモリ 2 0 4に記憶されているアンカバードバックグラウンド領域判 定フラグ、 およびカバードバックグラウンド領域判定フラグを基に、 混合領域を 示す領域情報を生成し、 更に、 各画素が、 アンカバードバックグラウンド領域、 静止領域、 動き領域、 およびカバードバックグラウンド領域のいずれかに属する ことを示す領域情報を生成し、 生成した領域情報を判定フラグ格納フレームメモ リ 2 0 6に設定し、 処理は終了する。
このように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれぞれに ついて、 動き領域、 静止領域、 アンカバードバックグラウンド領域、 またはカバ 一ドバックグラウンド領域に属することを示す領域情報を生成することができる < なお、 領域特定部 1 0 3は、 アンカバードバックグラウンド領域およびカバー ドバックグラウンド領域に対応する領域情報に論理和を適用することにより、 混 合領域に対応する領域情報を生成して、 フレームに含まれている画素のそれぞれ について、 動き領域、 静止領域、 または混合領域に属することを示すフラグから 成る領域情報を生成するようにしてもよレ、。
前景に対応するオブジェク トがテクスチャを有す場合、 領域特定部 1 0 3は、 より正確に動き領域を特定することができる。
領域特定部 1 0 3は、 動き領域を示す領域情報を前景領域を示す領域情報とし て、 また、 静止領域を示す領域情報を背景領域を示す領域情報として出力するこ とができる。
なお、 背景に対応するオブジェク トが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した領域を特定する処理を適用する ことができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 領域 特定部 1 0 3は、 この動きに対応して画像全体をシフトさせ、 背景に対応するォ ブジュタ トが静止している場合と同様に処理する。 また、 背景領域に対応する画 像が局所毎に異なる動きを含んでいるとき、 領域特定部 1 0 3は、 動きに対応し た画素を選択して、 上述の処理を実行する。
図 2 9は、 領域特定部 1 0 3の構成の他の一例を示すブロック図である。 図 2 9に示す領域特定部 1 0 3は、 動きべク トルを使用しない。 背景画像生成部 3 0 1は、 入力画像に対応する背景画像を生成し、 生成した背景画像を 2値オブジェ ク ト画像抽出部 3 0 2に供給する。 背景画像生成部 3 0 1は、 例えば、 入力画像 に含まれる背景のォブジェク 卜に対応する画像ォブジェク トを抽出して、 背景画 像を生成する。
前景のオブジェク トに対応する画像の動き方向に隣接して 1列に並ぶ画素の画 素値を時間方向に展開したモデル図の例を図 3 0に示す。 例えば、 前景のォプジ ェク トに対応する画像の動き方向が画面に対して水平であるとき、 図 3 0におけ るモデル図は、 1つのライン上の隣接する画素の画素値を時間方向に展開したモ デノレを示す。
図 3 0において、 フレーム #ηにおけるラインは、 フ I /一ム ίίη-lおよびフレー ム ίίη+ 1におけるラインと同一である。
フレーム #ηにおいて、 左から 6番目の画素乃至 1 7番目の画素に含まれてい るオブジェク トに対応する前景の成分は、 フレーム #n- lにおいて、 左から 2番 目乃至 1 3番目の画素に含まれ、 フレーム #n+ lにおいて、 左から 1 0番目乃至 2 1番目の画素に含まれる。
フレーム #n- lにおいて、 カバードバックグラウンド領域に属する画素は、 左 から 1 1番目乃至 1 3番目の画素であり、 アンカバードバックグラウンド領域に 属する画素は、 左から 2番目乃至 4番目の画素である。 フレーム #nにおいて、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番目の 画素であり、 アンカバードバックグラウンド領域に属する画素は、 左から 6番目 乃至 8番目の画素である。 フレーム Hn+ 1において、 カバードバックグラウンド 領域に属する画素は、 左から 1 9番目乃至 2 1番目の画素であり、 アンカバード バックグラウンド領域に属する画素は、 左から 1 0番目乃至 1 2番目の画素であ る。
フレーム ίίη-lにおいて、 背景領域に属する画素は、 左から 1番目の画素、 お よび左から 1 4番目乃至 2 1番目の画素である。 フレーム #ηにおいて、 背景領 域に属する画素は、 左から 1番目乃至 5番目の画素、 および左から 1 8番目乃至 2 1番目の画素である。 フレーム + 1において、 背景領域に属する画素は、 左 から 1番目乃至 9番目の画素である。
背景画像生成部 3 0 1が生成する、 図 3 0の例に対応する背景画像の例を図 3 1に示す。 背景画像は、 背景のオブジェク トに対応する画素から構成され、 前景 のオブジェク トに対応する画像の成分を含まない。
2値オブジェク ト画像抽出部 3 0 2は、 背景画像および入力画像の相関を基に 2値オブジェク ト画像を生成し、 生成した 2値ォブジェク ト画像を時間変化検出 部 3 0 3に供給する。
図 3 2は、 2値ォブジェク ト画像抽出部 3 0 2の構成を示すプロック図である, 相関値演算部 3 2 1は、 背景画像生成部 3 0 1から供給された背景画像および入 力画像の相関を演算し、 相関値を生成して、 生成した相関値をしきい値処理部 3 2 2に供給する。 相関値演算部 3 2 1は、 例えば、 図 3 3 Aに示すように、 X 4を中心とした 3 X 3の背景画像の中のブロックと、 図 3 3 Bに示すように、 背景画像の中のブロ ックに対応する Y4を中心とした 3 X 3の入力画像の中のブロックに、 式 (4 ) を適用して、 Υ4に対応する相関値を算出する。 相関値 = (4)
Figure imgf000058_0001
∑Xi
i=0
x = (5)
9
8
∑Yi
i= 0
Y = (6)
9
相関値演算部 3 2 1は、 このように各画素に対応して算出された相関値をしき い値処理部 3 2 2に供給する。
また、 相関値演算部 3 2 1は、 例えば、 図 3 4 Aに示すように、 X4を中心と した 3 X 3の背景画像の中のブロックと、 図 3 4 Bに示すように、 背景画像の中 のブロックに対応する Y4を中心とした 3 X 3の入力画像の中のブロックに、 式 ( 7 ) を適用して、 Υ4に対応する差分絶対値を算出するようにしてもよい。 差分絶対値和 = έι( - (?) 相関値演算部 3 2 1は、 このように算出された差分絶対値を相関値として、 し きい値処理部 3 2 2に供給する。
しきい値処理部 3 2 2は、 相関画像の画素値としきい値 thOとを比較して、 相関値がしきい値 thO以下である場合、 2値オブジェク ト画像の画素値に 1を 設定し、 相関値がしきい値 thOより大きい場合、 2値オブジェクト画像の画素 値に 0を設定して、 0または 1が画素値に設定された 2値オブジェク ト画像を出 力する。 しきい値処理部 3 2 2は、 しきい値 thOを予め記憶するようにしても よく、 または、 外部から入力されたしきい値 thO を使用するようにしてもよい 図 3 5は、 図 3 0に示す入力画像のモデルに対応する 2値オブジェク ト画像の 例を示す図である。 2値オブジェク ト画像において、 背景画像と相関の強い画素 には、 画素値に 0が設定される。
図 3 6は、 時間変化検出部 3 0 3の構成を示すブロック図である。 フレームメ モリ 3 4 1は、 フレーム #nの画素について領域を判定するとき、 2値オブジェ タ ト画像抽出部 3 0 2から供給された、 フレーム - 1、 フレーム #n、 およびフ レーム #n+ lの 2値ォブジ-ク ト画像を記憶する。
領域判定部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム ΐ η - 1 , フレーム ttn、 およびフレーム #n+lの 2値オブジェク ト画像を基に、 フレーム ίίη の各画素について領域を判定して、 領域情報を生成し、 生成した領域情報を出力 する。
図 3 7は、 領域判定部 3 4 2の判定を説明する図である。 フレーム ttnの 2値 オブジェク ト画像の注目している画素が 0であるとき、 領域判定部 3 4 2は、 フレーム #nの注目している画素が背景領域に属すると判定する。
フレーム #nの 2値オブジェク ト画像の注目している画素が 1であり、 フレー ム #n-lの 2値ォブジェク ト画像の対応する画素が 1であり、 フレーム ttn+ 1の 2 値オブジェク ト画像の対応する画素が 1であるとき、 領域判定部 3 4 2は、 フ レーム の注目している画素が前景領域に属すると判定する。
フレーム の 2値オブジェク ト画像の注目している画素が 1であり、 フレー ム #n- lの 2値オブジェク ト画像の対応する画素が 0であるとき、 領域判定部 3 4 2は、 フレーム #nの注目している画素がカバードバックグラウンド領域に属 すると判定する。
フレーム の 2値ォブジェク ト画像の注目している画素が 1であり、 フレー ム + 1の 2値オブジェク ト画像の対応する画素が 0であるとき、 領域判定部 3 4 2は、 フレーム #nの注目している画素がアンカバードバックグラウンド領域 に属すると判定する。
図 3 8は、 図 3 0に示す入力画像のモデルに対応する 2値オブジェク ト画像に ついて、 時間変化検出部 3 0 3の判定した例を示す図である。 時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム ttnの対応する画素が 0なので、 フレ ーム t の左から 1番目乃至 5番目の画素を背景領域に属すると判定する。
時間変化検出部 3 0 3は、 2値ォブジェク ト画像のフレーム tinの画素が 1で あり、 フレーム #n+ lの対応する画素が 0なので、 左から 6番目乃至 9番目の画 素をアンカバードバックグラウンド領域に属すると判定する。
時間変化検出部 3 0 3は、 2値ォブジェク ト画像のフレーム #nの画素が 1で あり、 フレーム ttn- 1 の対応する画素が 1であり、 フレーム #n+ l の対応する画素 が 1なので、 左から 1 0番目乃至 1 3番目の画素を前景領域に属すると判定す る。
時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム ttnの画素が 1で あり、 フレーム ttn- 1の対応する画素が 0なので、 左から 1 4番目乃至 1 7番目 の画素をカバードバックグラウンド領域に属すると判定する。
時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム ttnの対応する画 素が 0なので、 左から 1 8番目乃至 2 1番目の画素を背景領域に属すると判定 する。
次に、 図 3 9のフローチャートを参照して、 領域判定部 1 0 3の領域特定の処 理を説明する。 ステップ S 3 0 1において、 領域判定部 1 0 3の背景画像生成部 3 0 1は、 入力画像を基に、 例えば、 入力画像に含まれる背景のオブジェク トに 対応する画像オブジェク トを抽出して背景画像を生成し、 生成した背景画像を 2 値オブジェク ト画像抽出部 3 0 2に供給する。
ステップ S 3 0 2において、 2値ォブジェク ト画像抽出部 3 0 2は、 例えば、 図 3 3 Aおよび図 3 3 Bを参照して説明した演算により、 入力画像と背景画像生 成部 3 0 1から供給された背景画像との相関値を演算する。 ステップ S 3 0 3に おいて、 2値オブジェク ト画像抽出部 3 0 2は、 例えば、 相関値としきい値 thO とを比較することにより、 相関値およびしきい値 thOから 2値ォブジェク ト画 像を演算する。 ステップ S 3 0 4において、 時間変化検出部 3 0 3は、 領域判定の処理を実行 して、 処理は終了する。
図 4 0のフローチヤ一トを参照して、 ステップ S 3 0 4に対応する領域判定の 処理の詳細を説明する。 ステップ S 3 2 1において、 時間変化検出部 3 0 3の領 域判定部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム におい て、 注目する画素が 0であるか否かを判定し、 フレーム #nにおいて、 注目する 画素が 0であると判定された場合、 ステップ S 3 2 2に進み、 フレーム #nの注 目する画素が背景領域に属すると設定して、 処理は終了する。
ステップ S 3 2 1において、 フレーム itnにおいて、 注目する画素が 1である と判定された場合、 ステップ S 3 2 3に進み、 時間変化検出部 3 0 3の領域判定 部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム #nにおいて、 注 目する画素が 1であり、 かつ、 フレーム #n- lにおいて、 対応する画素が 0であ るか否かを判定し、 フレーム #nにおいて、 注目する画素が 1であり、 かつ、 フ レーム #η- 1において、 対応する画素が 0であると判定された場合、 ステップ S 3 2 4に進み、 フレーム #nの注目する画素がカバードバックグラウンド領域に 属すると設定して、 処理は終了する。
ステップ S 3 2 3において、 フレーム #nにおいて、 注目する画素が 0である か、 または、 フレーム ίίη- lにおいて、 対応する画素が 1であると判定された場 合、 ステップ S 3 2 5に進み、 時間変化検出部 3 0 3の領域判定部 3 4 2は、 フ レームメモリ 3 4 1に記憶されているフレーム #ηにおいて、 注目する画素が 1 であり、 かつ、 フレーム #η+1において、 対応する画素が 0であるか否かを判定 し、 フレーム #ηにおいて、 注目する画素が 1であり、 かつ、 フレーム #η+ 1にお いて、 対応する画素が 0であると判定された場合、 ステップ S 3 2 6に進み、 フレーム #ηの注目する画素がアンカバードバックグラウンド領域に属すると設 定して、 処理は終了する。
ステップ S 3 2 5において、 フレーム #nにおいて、 注目する画素が 0である か、 または、 フレーム #n+lにおいて、 対応する画素が 1であると判定された場 合、 ステップ S 3 2 7に進み、 時間変化検出部 3 0 3の領域判定部 3 4 2は、 フ レーム thの注目する画素を前景領域と設定して、 処理は終了する。
このように、 領域特定部 1 0 3は、 入力された画像と対応する背景画像との相 関値を基に、 入力画像の画素が前景領域、 背景領域、 カバードバックグラウンド 領域、 およびアンカバードバックグラウンド領域のいずれかに属するかを特定し て、 特定した結果に対応する領域情報を生成することができる。
図 4 1は、 領域特定部 1 0 3の他の構成を示すブロック図である。 図 4 1に示 す領域特定部 1 0 3は、 動き検出部 1 0 2から供給される動きべク トルとその位 置情報を使用する。 図 2 9に示す場合と同様の部分には、 同一の番号を付してあ り、 その説明は省略する。
口バスト化部 3 6 1は、 2値オブジェク ト画像抽出部 3 0 2から供給された、 N個のフレームの 2値ォブジェク ト画像を基に、 ロバス ト化された 2値オブジェ ク ト画像を生成して、 時間変化検出部 3 0 3に出力する。
図 4 2は、 ロバス ト化部 3 6 1の構成を説明するブロック図である。 動き補償 部 3 8 1は、 動き検出部 1 0 2から供給された動きベク トルとその位置情報を基 に、 N個のフレームの 2値オブジェク ト画像の動きを補償して、 動きが補償され た 2値ォブジェク ト画像をスィツチ 3 8 2に出力する。
図 4 3および図 4 4の例を参照して、 動き補償部 3 8 1の動き補償について説 明する。 例えば、 フレーム の領域を判定するとき、 図 4 3に例を示すフレー ム ttn- 1、 フレーム #n、 およびフレーム ίίη+lの 2値オブジェク ト画像が入力され た場合、 動き補償部 3 8 1は、 動き検出部 1 0 2から供給された動きべク トルを 基に、 図 4 4に例を示すように、 フレーム fln- 1の 2値オブジェク ト画像、 およ びフレーム ίίη+ lの 2値オブジェク ト画像を動き補償して、 動き補償された 2値 オブジェク ト画像をスィツチ 3 8 2に供給する。
スィッチ 3 8 2は、 1番目のフレームの動き補償された 2値オブジェク ト画像 をフレームメモリ 3 8 3— 1に出力し、 2番目のフレームの動き補償された 2値 オブジェク ト画像をフレームメモリ 3 8 3— 2に出力する。 同様に、 スィッチ 3 8 2は、 3番目乃至 N _ 1番目のフレームの動き補償された 2値オブジェク ト画 像のそれぞれをフレームメモリ 3 8 3 - 3乃至フレームメモリ 3 8 3— ( N— 1 ) のいずれかに出力し、 N番目のフレームの動き補償された 2値オブジェク ト 画像をフレームメモリ 3 8 3— Nに出力する。
フレームメモリ 3 8 3— 1は、 1番目のフレームの動き補償された 2値ォブジ ェク ト画像を記憶し、 記憶されている 2値オブジェク ト画像を重み付け部 3 8 4 _ 1に出力する。 フレームメモリ 3 8 3— 2は、 2番目のフレームの動き補償さ れた 2値オブジェク ト画像を記憶し、 記憶されている 2値オブジェク ト画像を重 み付け部 3 8 4 _ 2に出力する。
同様に、 フレームメモリ 3 8 3— 3乃至フレームメモリ 3 8 3— (N— 1 ) の それぞれは、 3番目のフレーム乃至 N— 1番目のフレームの動き補償された 2値 オブジェク ト画像のいずれかを記憶し、 記憶されている 2値ォブジェク ト画像を 重み付け部 3 8 4— 3乃至重み付け部 3 8 4— (N— 1 ) のいずれかに出力する, フレームメモリ 3 8 3— Nは、 N番目のフレームの動き補償された 2値オブジェ ク ト画像を記憶し、 記憶されている 2値オブジェク ト画像を重み付け部 3 8 4 - Nに出力する。
重み付け部 3 8 4— 1は、 フレームメモリ 3 8 3— 1から供給された 1番目の フレームの動き補償された 2値ォブジェク ト画像の画素値に予め定めた重み wl を乗じて、 積算部 3 8 5に供給する。 重み付け部 3 8 4— 2は、 フレームメモリ 3 8 3— 2から供給された 2番目のフレームの動き補償された 2値ォブジェク ト 画像の画素値に予め定めた重み w2を乗じて、 積算部 3 8 5に供給する。
同様に、 重み付け部 3 8 4— 3乃至重み付け部 3 8 4— ( N - 1 ) のそれぞれ は、 フレームメモリ 3 8 3— 3乃至フレームメモリ 3 8 3— ( N - 1 ) のいずれ かから供給された 3番目乃至 N— 1番目のいずれかのフレームの動き補償された 2値ォブジェク ト画像の画素値に予め定めた重み w3乃至重み w (N- l )のいずれか を乗じて、 積算部 3 8 5に供給する。 重み付け部 3 8 4—Nは、 フレームメモリ 3 8 3—Nから供給された N番目のフレームの動き補償された 2値ォブジェク ト 画像の画素値に予め定めた重み wNを乗じて、 積算部 3 8 5に供給する。
積算部 3 8 5は、 1乃至 N番目のフレームの動き補償され、 それぞれ重み wl 乃至 wNのいずれかが乗じられた、 2値ォブジェク ト画像の対応する画素値を積 算して、 積算された画素値を予め定めたしきい値 thOと比較することにより 2 値オブジェク ト画像を生成する。
このように、 ロバスト化部 3 6 1は、 N個の 2値オブジェク ト画像から口バス ト化された 2値オブジェト画像を生成して、 時間変化検出部 3 0 3に供給するの で、 図 4 1に構成を示す領域特定部 1 0 3は、 入力画像にノイズが含まれていて も、 図 2 9に示す場合に比較して、 より正確に領域を特定することができる。 次に、 図 4 1に構成を示す領域特定部 1 0 3の領域特定の処理について、 図 4 5のフローチヤ一トを参照して説明する。 ステップ S 3 4 1乃至ステップ S 3 4 3の処理は、 図 3 9のフローチヤ一トで説明したステップ S 3 0 1乃至ステップ S 3 0 3とそれぞれ同様なのでその説明は省略する。
ステップ S 3 4 4において、 ロバスト化部 3 6 1は、 ロバスト化の処理を実行 する。
ステップ S 3 4 5において、 時間変化検出部 3 0 3は、 領域判定の処理を実行 して、 処理は終了する。 ステップ S 3 4 5の処理の詳細は、 図 4 0のフローチヤ 一トを参照して説明した処理と同様なのでその説明は省略する。
次に、 図 4 6のフローチャートを参照して、 図 4 5のステップ S 3 4 4の処理 に対応する、 ロバスト化の処理の詳細について説明する。 ステップ S 3 6 1にお いて、 動き補償部 3 8 1は、 動き検出部 1 0 2から供給される動きべク トルとそ の位置情報を基に、 入力された 2値ォブジェク ト画像の動き補償の処理を実行す る。 ステップ S 3 6 2において、 フレームメモリ 3 8 3— 1乃至 3 8 3—Nのい ずれかは、 スィッチ 3 8 2を介して供給された動き補償された 2値ォブジェク ト 画像を記憶する。
ステップ S 3 6 3において、 ロバスト化部 3 6 1は、 N個の 2値オブジェク ト 画像が記憶されたか否かを判定し、 N個の 2値オブジェク ト画像が記憶されてい ないと判定された場合、 ステップ S 3 6 1に戻り、 2値オブジェク ト画像の動き 補償の処理および 2値オブジェク ト画像の記憶の処理を繰り返す。
ステップ S 3 6 3において、 N個の 2値ォブジェク ト画像が記憶されたと判定 された場合、 ステップ S 3 6 4に進み、 重み付け部 3 8 4— 1乃至 3 8 4— Nの それぞれは、 N個の 2値オブジェク ト画像のそれぞれに wl乃至 wNのいずれか の重みを乗じて、 重み付けする。
ステップ S 3 6 5において、 積算部 3 8 5は、 重み付けされた N個の 2値ォブ ジェク ト画像を積算する。
ステップ S 3 6 6において、 積算部 3 8 5は、 例えば、 予め定められたしきい 値 th l との比較などにより、 積算された画像から 2値ォブジェク ト画像を生成 して、 処理は終了する。
このように、 図 4 1に構成を示す領域特定部 1 0 3は、 ロバスト化された 2値 ォブジェク ト画像を基に、 領域情報を生成することができる。
以上のように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれぞれ について、 動き領域、 静止領域、 アンカバードバックグラウンド領域、 または力 バードバックグラウンド領域に属することを示す領域情報を生成することができ る。
図 4 7は、 混合比算出部 1 0 4の構成の一例を示すブロック図である。 推定混 合比処理部 4 0 1は、 入力画像を基に、 カバードバックグラウンド領域のモデル に対応する演算により、 画素毎に推定混合比を算出して、 算出した推定混合比を 混合比決定部 4 0 3に供給する。
推定混合比処理部 4 0 2は、 入力画像を基に、 アンカバードバックグラウンド 領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した 推定混合比を混合比決定部 4 0 3に供給する。
前景に対応するオブジェク トがシャツタ時間内に等速で動いていると仮定でき るので、 混合領域に属する画素の混合比 ひ は、 以下の性質を有する。 すなわち. 混合比 ひ は、 画素の位置の変化に対応して、 直線的に変化する。 画素の位置の 変化を 1次元とすれば、 混合比ひ の変化は、 直線で表現することができ、 画素 の位置の変化を 2次元とすれば、 混合比 0? の変化は、 平面で表現することがで きる。
なお、 1フレームの期間は短いので、 前景に対応するオブジェク トが剛体であ り、 等速で移動していると仮定が成り立つ。
この場合、 混合比 ひ の傾きは、 前景のシャツタ時間内での動き量 Vの逆比と なる。
理想的な混合比ひ の例を図 4 8に示す。 理想的な混合比 (X の混合領域におけ る傾き 1は、 動き量 Vの逆数として表すことができる。
図 4 8に示すように、 理想的な混合比ひ は、 背景領域において、 1の値を有 し、 前景領域において、 0の値を有し、 混合領域において、 0を越え 1未満の値 を有する。
図 4 9の例において、 フレーム #nの左から 7番目の画素の画素値 C06は、 フ レーム - 1の左から 7番目の画素の画素値 P06を用いて、 式 (8 ) で表すこと ができる。
C06 = B06/V + B06/v + FOllv + F02lv
= P06/V + P06/V + FOllv + F02lv
= 2/v -P06 +∑F v (8) 式 (8 ) において、 画素値 C06を混合領域の画素の画素値 Mと、 画素値 P06 を背景領域の画素の画素値 Bと表現する。 すなわち、 混合領域の画素の画素値 M および背景領域の画素の画素値 Bは、 それぞれ、 式 (9 ) および式 (1 0 ) の ように表現することができる。
M=C06 ( 9 )
B=P06 ( 1 0 )
式 (8 ) 中の 2/vは、 混合比 に対応する。 動き量 Vが 4なので、 フレーム t の左から 7番目の画素の混合比 ひ は、 0. 5となる。
以上のように、 注目しているフレーム ttnの画素値 Cを混合領域の画素値と見 なし、 フレーム の前のフレーム #n-lの画素値 Pを背景領域の画素値と見なす ことで、 混合比 ひ を示す式 (3) は、 式 ( 1 1 ) のように書き換えられる。
O · P+f ( 1 1 )
式 (1 1) の f は、 注目している画素に含まれる前景の成分の和 ∑iFi/vである, 式 (1 1) に含まれる変数は、 混合比 a および前景の成分の和 f の 2つである, 同様に、 アンカバードバックグラウンド領域における、 動き量 V が 4であり 時間方向の仮想分割数が 4である、 画素値を時間方向に展開したモデルを図 5 0 に示す。
アンカバ一ドバックグラウンド領域において、 上述したカバードバックダラゥ ンド領域における表現と同様に、 注目しているフレーム ίίηの画素値 Cを混合領 域の画素値と見なし、 フレーム の後のフレーム ttn+1の画素値 Nを背景領域の 画素値と見なすことで、 混合比 ひ を示す式 (3) は、 式 (1 2) のように表現 することができる。
C=a - N+f ( 1 2)
なお、 背景のオブジェク トが静止しているとして説明したが、 背景のオブジェ ク トが動いている場合においても、 背景の動き量 Vに対応させた位置の画素の 画素値を利用することにより、 式 (8) 乃至式 ( 1 2) を適用することができる, 例えば、 図 4 9において、 背景に対応するォブジェク 卜の動き量 V が 2であり 仮想分割数が 2であるとき、 背景に対応するオブジェク トが図中の右側に動いて いるとき、 式 (1 0) における背景領域の画素の画素値 Bは、 画素値 P04とさ れる。
式 (1 1 ) および式 (1 2) は、 それぞれ 2つの変数を含むので、 そのままで は混合比ひ を求めることができない。 ここで、 画像は一般的に空間的に相関が 強いので近接する画素同士でほぼ同じ画素値となる。
そこで、 前景成分は、 空間的に相関が強いので、 前景の成分の和 f を前また は後のフレームから導き出せるように式を変形して、 混合比 ひ を求める。
図 5 1のフレーム ttnの左から 7番目の画素の画素値 Mcは、 式 (1 3) で表す ことができる。
Figure imgf000068_0001
式 ( 1 3) の右辺第 1項の 2/vは、 混合比 ひ に相当する。 式 ( 1 3) の右辺第 2項は、 後のフレーム #n+lの画素値を利用して、 式 (1 4) のように表すこと とする。
Figure imgf000068_0002
ここで、 前景の成分の空間相関を利用して、 式 (1 5) が成立するとする。
F=F05=F06=F07=F08=F09=F10=F11=F12 ( 1 5) 式 (1 4) は、 式 (1 5) を利用して、 式 (1 6) のように置き換えることがで さる。
12 -J
∑ //v = -
= . F (16) 結果として、 )8 は、 式 ( 1 7) で表すことができる。
)8=2/4 ( 1 7)
一般的に、 式 (1 5) に示すように混合領域に関係する前景の成分が等しいと 仮定すると、 混合領域の全ての画素について、 内分比の関係から式 (1 8) が成 立する。
$=l-a ( 1 8)
式 (1 8) が成立するとすれば、 式 (1 1 ) は、 式 (1 9) に示すように展開 することができる。
C = -P+f
r+v-i
= -P + (l- )'∑Fi/v
= -P+(l-a)'N <19) 同様に、 式 (1 8) が成立するとすれば、 式 (1 2) は、 式 (20) に示すよ うに展開することができる。
C = -N+f
Figure imgf000069_0001
= α·Ν+(ΐ— α)·ρ (2 ) 式 (1 9) および式 (20) において、 C, Ν、 および Ρは、 既知の画素値な ので、 式 (1 9) および式 (20) に含まれる変数は、 混合比ひのみである。 式 ( 1 9) および式 (20) における、 C, N、 および P の関係を図 5 2に示す c Cは、 混合比 ひ を算出する、 フレーム #nの注目している画素の画素値である。 Nは、 注目している画素と空間方向の位置が対応する、 フレーム +1の画素の 画素値である。 Pは、 注目している画素と空間方向の位置が対応する、 フレーム #n-lの画素の画素値である。
従って、 式 (1 9) および式 (20) のそれぞれに 1つの変数が含まれること となるので、 3つのフレームの画素の画素値を利用して、 混合比 α を算出する ことができる。 式 (1 9) および式 (20) を解くことにより、 正しい混合比 ひ が算出されるための条件は、 混合領域に関係する前景の成分が等しい、 すな わち、 前景のオブジェク トが静止しているとき撮像された前景の画像オブジェク トにおいて、 前景のオブジェク トの動きの方向に対応する、 画像オブジェク トの 境界に位置する画素であって、 動き量 Vの 2倍の数の連続している画素の画素 値が、 一定であることである。
以上のように、 カバードバックグラウンド領域に属する画素の混合比ひ は、 式 (2 1) により算出され、 アンカバードバックグラウンド領域に属する画素の 混合比ひ は、 式 (22) により算出される。
Of = (C-N) / (Ρ - Ν) (2 1)
ひ = (C-P)バ N - P) (22)
図 53は、 推定混合比処理部 40 1の構成を示すブロック図である。 フレーム メモリ 4 2 1は、 入力された画像をフレーム単位で記憶し、 入力画像として入力 されているフレームから 1つ後のフレームをフレームメモリ 4 2 2および混合比 演算部 4 2 3に供給する。
フレームメモリ 4 2 2は、 入力された画像をフレーム単位で記憶し、 フレーム メモリ 4 2 1から供給されているフレームから 1つ後のフレームを混合比演算部 4 2 3に供給する。
従って、 入力画像としてフレーム ttn+ 1が混合比演算部 4 2 3に入力されてい るとき、 フレームメモリ 4 2 1は、 フレーム #n を混合比演算部 4 2 3に供給し. フレームメモリ 4 2 2は、 フレーム - 1を混合比演算部 4 2 3に供給する。
混合比演算部 4 2 3は、 式 (2 1 ) に示す演算により、 フレーム #nの注目し ている画素の画素値(:、 注目している画素と空間的位置が対応する、 フレーム #n+ lの画素の画素値 N、 および注目している画素と空間的位置が対応する、 フ レーム #n- 1の画素の画素値 Pを基に、 注目している画素の推定混合比を算出し て、 算出した推定混合比を出力する。 例えば、 背景が静止しているとき、 混合比 演算部 4 2 3は、 フレーム ίίηの注目している画素の画素値 C、 注目している画 素とフレーム内の位置が同じ、 フレーム #n+lの画素の画素値 N、 および注目し ている画素とフレーム内の位置が同じ、 フレーム - 1 の画素の画素値 P を基に. 注目している画素の推定混合比を算出して、 算出した推定混合比を出力する。
このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を算出 して、 混合比決定部 4 0 3に供給することができる。
なお、 推定混合比処理部 4 0 2は、 推定混合比処理部 4 0 1が式 (2 1 ) に示 す演算により、 注目している画素の推定混合比を算出するのに対して、 式 (2 2 ) に示す演算により、 注目している画素の推定混合比を算出する部分が異なる ことを除き、 推定混合比処理部 4 0 1と同様なので、 その説明は省略する。
図 5 4は、 推定混合比処理部 4 0 1により算出された推定混合比の例を示す図 である。 図 5 4に示す推定混合比は、 等速で動いているオブジェク 卜に対応する 前景の動き量 V が 1 1である場合の結果を、 1ラインに対して示すものである t 推定混合比は、 混合領域において、 図 4 8に示すように、 ほぼ直線的に変化し ていることがわかる。
図 4 7に戻り、 混合比決定部 4 0 3は、 領域特定部 1 0 3から供給された、 混 合比ひ の算出の対象となる画素が、 前景領域、 背景領域、 カバードバックダラ ゥンド領域、 またはアンカバードバックグラウンド領域のいずれかに属するかを 示す領域情報を基に、 混合比 ひ を設定する。 混合比決定部 4 0 3は、 対象とな る画素が前景領域に属する場合、 0を混合比ひ に設定し、 対象となる画素が背 景領域に属する場合、 1を混合比ひ に設定し、 対象となる画素がカバードバッ クグラウンド領域に属する場合、 推定混合比処理部 4 0 1から供給された推定混 合比を混合比ひ に設定し、 対象となる画素がアンカバードバックグラウンド領 域に属する場合、 推定混合比処理部 4 0 2から供給された推定混合比を混合比 a に設定する。 混合比決定部 4 0 3は、 領域情報を基に設定した混合比 a を出 力する。
図 5 5は、 混合比算出部 1 0 4の他の構成を示すブロック図である。 選択部 4 4 1は、 領域特定部 1 0 3から供給された領域情報を基に、 カバードバックグラ ゥンド領域に属する画素および、 これに対応する前および後のフレームの画素を 推定混合比処理部 4 4 2に供給する。 選択部 4 4 1は、 領域特定部 1 0 3から供 給された領域情報を基に、 アンカバードバックグラウンド領域に属する画素およ び、 これに対応する前および後のフレームの画素を推定混合比処理部 4 4 3に供 給する。
推定混合比処理部 4 4 2は、 選択部 4 4 1から入力された画素値を基に、 式 ( 2 1 ) に示す演算により、 カバードバックグラウンド領域に属する、 注目して いる画素の推定混合比を算出して、 算出した推定混合比を選択部 4 4 4に供給す る。
推定混合比処理部 4 4 3は、 選択部 4 4 1から入力された画素値を基に、 式 ( 2 2 ) に示す演算により、 アンカバードバックグラウンド領域に属する、 注目 している画素の推定混合比を算出して、 算出した推定混合比を選択部 4 4 4に供 給する。
選択部 4 4 4は、 領域特定部 1 0 3から供給された領域情報を基に、 対象とな る画素が前景領域に属する場合、 0である推定混合比を選択して、 混合比 ひ に 設定し、 対象となる画素が背景領域に属する場合、 1である推定混合比を選択し て、 混合比 ひ に設定する。 選択部 4 4 4は、 対象となる画素がカバードバック グラウンド領域に属する場合、 推定混合比処理部 4 4 2から供給された推定混合 比を選択して混合比 に設定し、 対象となる画素がアンカバードバックグラウ ンド領域に属する場合、 推定混合比処理部 4 4 3から供給された推定混合比を選 択して混合比 に設定する。 選択部 4 4 4は、 領域情報を基に選択して設定し た混合比 ひ を出力する。
このように、 図 5 5に示す他の構成を有する混合比算出部 1 0 4は、 画像の含 まれる画素毎に混合比ひ を算出して、 算出した混合比ひ を出力することができ る。
図 5 6のフローチャートを参照して、 図 4 7に構成を示す混合比算出部 1 0 4 の混合比 ひ の算出の処理を説明する。 ステップ S 4 0 1において、 混合比算出 部 1 0 4は、 領域特定部 1 0 3から供給された領域情報を取得する。 ステップ S 4 0 2において、 推定混合比処理部 4 0 1は、 カバードバックグラウンド領域に 対応するモデルにより推定混合比の演算の処理を実行し、 算出した推定混合比を 混合比決定部 4 0 3に供給する。 混合比推定の演算の処理の詳細は、 図 5 7のフ ローチャートを参照して、 後述する。
ステップ S 4 0 3において、 推定混合比処理部 4 0 2は、 アンカバードバック グラウンド領域に対応するモデルにより推定混合比の演算の処理を実行し、 算出 した推定混合比を混合比決定部 4 0 3に供給する。
ステップ S 4 0 4において、 混合比算出部 1 0 4は、 フレーム全体について、 混合比 ひ を推定したか否かを判定し、 フレーム全体について、 混合比 ひ を推定 していないと判定された場合、 ステップ S 4 0 2に戻り、 次の画素について混合 比ひ を推定する処理を実行する。 ステップ S 4 0 4において、 フレーム全体について、 混合比ひ を推定したと 判定された場合、 ステップ S 4 0 5に進み、 混合比決定部 4 0 3は、 画素が、 前 景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバック グラウンド領域のいずれかに属するかを示す、 領域特定部 1 0 3から供給された 領域情報を基に、 混合比ひ を設定する。 混合比決定部 4 0 3は、 対象となる画 素が前景領域に属する場合、 0を混合比ひ に設定し、 対象となる画素が背景領 域に属する場合、 1を混合比ひ に設定し、 対象となる画素がカバードバックグ ラウンド領域に属する場合、 推定混合比処理部 4 0 1から供給された推定混合比 を混合比ひ に設定し、 対象となる画素がアンカバードバックグラウンド領域に 属する場合、 推定混合比処理部 4 0 2から供給された推定混合比を混合比 01 に 設定し、 処理は終了する。
このように、 混合比算出部 1 0 4は、 領域特定部 1 0 3から供給された領域情 報、 および入力画像を基に、 各画素に対応する特徴量である混合比 ひ を算出す ることができる。
図 5 5に構成を示す混合比算出部 1 0 4の混合比 ひの算出の処理は、 図 5 6 のフローチャートで説明した処理と同様なので、 その説明は省略する。
次に、 図 5 6のステップ S 4 0 2に対応する、 カバードバックグラウンド領域 に対応するモデルによる混合比推定の処理を図 5 7のフローチヤ一トを参照して 説明する。
ステップ S 4 2 1において、 混合比演算部 4 2 3は、 フレームメモリ 4 2 1力、 ら、 フレーム ttnの注目画素の画素値 Cを取得する。
ステップ S 4 2 2において、 混合比演算部 4 2 3は、 フレームメモリ 4 2 2か ら、 注目画素に対応する、 フレーム #n- lの画素の画素値 Pを取得する。
ステップ S 4 2 3において、 混合比演算部 4 2 3は、 入力画像に含まれる注目 画素に対応する、 フレーム ίίη+ lの画素の画素値 Nを取得する。
ステップ S 4 2 4において、 混合比演算部 4 2 3は、 フレーム ίίηの注目画素 の画素値 フレーム ttn- 1の画素の画素値 Ρ、 およびフレーム #η+ 1の画素の画 素値 Nを基に、 推定混合比を演算する。
ステップ S 4 2 5において、 混合比演算部 4 2 3は、 フレーム全体について、 推定混合比を演算する処理を終了したか否かを判定し、 フレーム全体について、 推定混合比を演算する処理を終了していないと判定された場合、 ステップ S 4 2 1に戻り、 次の画素について推定混合比を算出する処理を繰り返す。
ステップ S 4 2 5において、 フレーム全体について、 推定混合比を演算する処 理を終了したと判定された場合、 処理は終了する。
このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を演算 することができる。
図 5 6のステップ S 4 0 3におけるアンカバードバックグラウンド領域に対応 するモデルによる混合比推定の処理は、 アンカバードバックグラウンド領域のモ デルに対応する式を利用した、 図 5 7のフローチヤ一トに示す処理と同様なので、 その説明は省略する。
なお、 図 5 5に示す推定混合比処理部 4 4 2および推定混合比処理部 4 4 3は, 図 5 7に示すフローチヤ一トと同様の処理を実行して推定混合比を演算するので- その説明は省略する。
また、 背景に対応するオブジェク トが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した混合比 ひ を求める処理を適用 することができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 推定混合比処理部 4 0 1は、 背景の動きに対応して画像全体をシフ トさせ、 背景 に対応するオブジェク トが静止している場合と同様に処理する。 また、 背景領域 に対応する画像が局所毎に異なる背景の動きを含んでいるとき、 推定混合比処理 部 4 0 1は、 混合領域に属する画素に対応する画素として、 背景の動きに対応し た画素を選択して、 上述の処理を実行する。
また、 混合比算出部 1 0 4は、 全ての画素について、 カバードバックグラウン ド領域に対応するモデルによる混合比推定の処理のみを実行して、 算出された推 定混合比を混合比ひ として出力するようにしてもよい。 この場合において、 混 合比 ひ は、 カバードバックグラウンド領域に属する画素について、 背景の成分 の割合を示し、 アンカバードバックグラウンド領域に属する画素について、 前景 の成分の割合を示す。 アンカバードバックグラウンド領域に属する画素について. このように算出された混合比 と 1との差分の絶対値を算出して、 算出した絶 対値を混合比 ひ に設定すれば、 画像処理装置は、 アンカバードバックグラウン ド領域に属する画素について、 背景の成分の割合を示す混合比 を求めること ができる。
なお、 同様に、 混合比算出部 1 0 4は、 全ての画素について、 アンカバードバ ックグラウンド領域に対応するモデルによる混合比推定の処理のみを実行して、 算出された推定混合比を混合比 ひ として出力するようにしてもよい。
次に、 混合比ひが直線的に変化する性質を利用して混合比 ひ を算出する混合 比算出部 1 0 4について説明する。
上述したように、 式 (1 1 ) および式 (1 2 ) は、 それぞれ 2つの変数を含む ので、 そのままでは混合比 ひ を求めることができない。
そこで、 シャツタ時間内において、 前景に対応するオブジェク トが等速で動く ことによる、 画素の位置の変化に対応して、 混合比 ひ が直線的に変化する性質 を利用して、 空間方向に、 混合比 と前景の成分の和 f とを近似した式を立て る。 混合領域に属する画素の画素値および背景領域に属する画素の画素値の組の 複数を利用して、 混合比 と前景の成分の和 f とを近似した式を解く。
混合比ひ の変化を、 直線として近似すると、 混合比ひ は、 式 (2 3 ) で表さ れる。
a =i l+p ( 2 3 )
式 (2 3 ) において、 iは、 注目している画素の位置を 0とした空間方向のイン デックスである。 1は、 混合比 ひの直線の傾きである。 pは、 混合比ひ の直線 の切片である共に、 注目している画素の混合比 ひ である。 式 (2 3 ) において, インデックス iは、 既知であるが、 傾き 1および切片 pは、 未知である。
インデックスお 傾き および切片 pの関係を図 5 8に示す。 図 5 8におい て、 白丸は、 注目画素を示し、 黒丸は、 近傍画素を示す。
混合比ひ を式 (2 3) のように近似することにより、 複数の画素に対して複 数の異なる混合比 ひ は、 2つの変数で表現される。 図 5 8に示す例において、 5つの画素に対する 5つの混合比は、 2つの変数である傾き 1および切片 pに より表現される。
図 5 9に示す平面で混合比ひ を近似すると、 画像の水平方向および垂直方向 の 2つの方向に対応する動き V を考慮したとき、 式 (2 3 ) を平面に拡張して、 混合比ひ は、 式 (2 4) で表される。 図 5 9において、 白丸は、 注目画素を示 す。
Qf=jm+kq+p ( 2 4)
式 (2 4) において、 jは、 注目している画素の位置を 0とした水平方向のイン デッタスであり、 kは、 垂直方向のインデックスである。 mは、 混合比 の面 の水平方向の傾きであり、 q は、 混合比 ひ の面の垂直方向の傾きである。 P は、 混合比ひ の面の切片である。
例えば、 図 4 9に示すフレーム #nにおいて、 C05乃至 C07について、 それぞ れ、 式 (2 5 ) 乃至式 (2 7 ) が成立する。
C05=ar05-B05/v+f05 (2 5 )
C06= a 06 · B06/v+f06 ( 2 6)
C07=CV07-B07/v+f07 ( 2 7)
前景の成分が近傍で一致する、 すなわち、 F01乃至 F03が等しいとして、 F01 乃至 F03を Fcに置き換えると式 (2 8) が成立する。
f (x) = (l-a (x)) · Fc ( 2 8)
式 (2 8 ) において、 xは、 空間方向の位置を表す。
ひ (x ) を式 (2 4) で置き換えると、 式 (2 8 ) は、 式 (2 9 ) として表す ことができる。
f (x) = (l-(jm+kq+p)) · Fc
=]· . (_m · Fc) +k · (- q■ Fc) +((l-p) · Fc) =js+kt+u (2 9)
式 (2 9) において、 (- m · Fc) 、 (- q · Fc) 、 および(1- p) · Fcは、 式 (3 0) 乃至式 (3 2) に示すように置き換えられている。
s=-m · Fc (3 0)
tニ- q · Fc (3 1)
u=(l-p) - Fc (3 2)
式 (2 9) において、 jは、 注目している画素の位置を 0とした水平方向のィ ンデックスであり、 kは、 垂直方向のインデックスである。
このように、 前景に対応するオブジェク トがシャツタ時間内において等速に移 動し、 前景に対応する成分が近傍において一定であるという仮定が成立するので、 前景の成分の和は、 式 (2 9) で近似される。
なお、 混合比 α を直線で近似する場合、 前景の成分の和は、 式 (3 3) で表 すことができる。
f (x)=is+u (3 3)
式 (1 3) の混合比 および前景成分の和を、 式 (24) および式 (2 9) を利用して置き換えると、 画素値 Mは、 式 (3 4) で表される。
M=(jm+kq+p) - B+js+kt+u
= j'B · m+kB · q+B · p+j - s+k - t+u (3 4)
式 (34) において、 未知の変数は、 混合比ひ の面の水平方向の傾き tn、 混 合比ひ の面の垂直方向の傾き q、 混合比 の面の切片 p、 s、 t、 および uの 6 つである。
注目している画素の近傍の画素に対応させて、 式 (34) に示す正規方程式に、 画素値 Mまたは画素値 Bを設定し、 画素値 Mまたは画素値 Bが設定された複数 の正規方程式を最小自乗法で解いて、 混合比 を算出する。
例えば、 注目している画素の水平方向のインデックス jを 0とし、 垂直方向 のインデックス k を 0とし、 注目している画素の近傍の 3 X 3の画素について, 式 (3 4) に示す正規方程式に画素値 Mまたは画素値 Bを設定すると、 式 (3 5) 乃至式 (4 3) を得る。
M — (- 1) · B一い i · m+(-l) · B-い L · q+B- — L■ P+ (- 1) · s+(- 1) · t+u ( 3 5) ΜΟ,-L二(0) ' · m+(-l) · Bo,.! · q+B0,—【 · p+(0) · s+(- 1) · t+u (3 6) M+い (+1) · B+1; · m+(-l) · B+1,_! · q+B+い i · p+(+l) · s+(-l) · t+u (3 7) M_li0=(-1) · B 。 · m+(0) ■ B—し。 · q+B—し。 · p+(- 1) ' s+(0) ■ t+u (3 8) M0,0=(0) · B。,。 · ra+(0) ■ B。,。 · q+B。,。 · p+(0) · s+(0) · t+u (3 9) M+1,。=(+l) ■ B+し。 · m+(0) ' B+し。 · q+B+ 。 · p+(+l) · s+(0) · t+u (40) M-t,+1=(-l) · B_li+1. m+(+l) . B_li+1 · q+B一い t . p+ (- 1) . s+(+l) · t+u (4 1 ) M0i+1=(0) · B0,+1 · m+(+l) · B0 +1 · q+B0,+1 ' p+(0) · s+(+l) · t+u (4 2)
M+1,+1=(+l) · B+ m+(+l) · B+ q+B +1, +1 p+(+l) - s+(+l) - t+u (4 3) 注目している画素の水平方向のインデックス jが 0であり、 垂直方向のイン デッタス k が 0であるので、 注目している画素の混合比 ひ は、 式 (24) より j=0および k=0のときの値、 すなわち、 切片 pに等しい。
従って、 式 (3 5) 乃至式 (4 3) の 9つの式を基に、 最小自乗法により、 水 平方向の傾き m、 垂直方向の傾き q、 切片 p、 s、 t、 および uのそれぞれの値を 算出し、 切片 pを混合比 ひ として出力すればよい。
次に、 最小自乗法を適用して混合比 を算出するより具体的な手順を説明す る。
インデックス i およびインデックス k を 1つのインデックス X で表現すると インデックス i、 インデックス およびインデックス Xの関係は、 式 (44) で表される。
x=(j+l) · 3+(k+l) (44)
水平方向の傾き m、 垂直方向の傾き q、 切片 p、 s、 t、 および uをそれぞれ変 数 w0, wl, w2, w3, w4、 および W5と表現し、 jB, kB, B, j, および 1をそれぞれ a0, al, a2, a3, a4、 および a5と表現する。 誤差 exを考慮すると、 式 (3 5) 乃 至式 (4 3) は、 式 (4 5) に書き換えることができる。 Mx =∑,ay*Wy + ex (45) y = 式 (4 5) において、 xは、 0乃至 8の整数のいずれかの値である。
式 (4 5) から、 式 (4 6) を導くことができる。
€x = Mx-∑ay-Wy (46)
y = 0 ここで、 最小自乗法を適用するため、 誤差の自乗和 Eを式 (4 7) に示すよ うに定義する。
E=∑ex2 (47)
x = o 誤差が最小になるためには、 誤差の自乗和 Eに対する、 変数 Wvの偏微分が 0 になればよい。 ここで、 Vは、 0乃至 5の整数のいずれかの値である。 従って、 式 (4 8) を満たすように wyを求める。
Figure imgf000079_0001
= 2-∑ex^av = 0 (48)
X = 0
式 (48) に式 (4 6) を代入すると、 式 (4 9) を得る。
∑(av∑ay Wy) =∑aV'Mx (49)
x=0 y = x=0 式 (4 9) の vに 0乃至 5の整数のいずれか 1つを代入して得られる 6つの 式に、 例えば、 掃き出し法 (Gauss- Jordanの消去法) などを適用して、 wyを算 出する。 上述したように、 w0は水平方向の傾き mであり、 wlは垂直方向の傾き qであり、 w2 は切片 pであり、 w3は sであり、 w4は tであり、 w5は uである, 以上のように、 画素値 Mおよび画素値 Bを設定した式に、 最小自乗法を適用 することにより、 水平方向の傾き m、 垂直方向の傾き q、 切片 p、 s、 t、 および uを求めることができる。
式 (3 5) 乃至式 (4 3) に対応する説明において、 混合領域に含まれる画素 の画素値を Mとし、 背景領域に含まれる画素の画素値を Bとして説明したが、 注目している画素が、 カバードバックグラウンド領域に含まれる場合、 またはァ ンカバードバックグラウンド領域に含まれる場合のそれぞれに対して、 正規方程 式を立てる必要がある。
例えば、 図 4 9に示す、 フレーム ttnのカバードバックグラウンド領域に含ま れる画素の混合比ひ を求める場合、 フレーム #nの画素の C04乃至 C08、 および フレーム #n-lの画素の画素値 P04乃至 P08力 正規方程式に設定される。
図 5 0に示す、 フレーム のア +ンカバードバックグラウンド領域に含まれる
O
画素の混合比 ひ を求める場合、 フレー a aム ttnの画素の C28乃至 C32、 およびフレ
+ +
で +
ーム #n+lの画素の画素値 N28乃至 N32が、 + O正 1規方程式に設定される。
+
また、 例えば、 図 6 0に示す、 カバードバックグラウンド領域に含まれる画素
+ + +
の混合比 Of を算出するとき、 以下の式 (5 0) 乃至 + + O o式 (5 8) が立てられる。
、 '
図 6 0において、 白丸は、 背景と見なす画素を示し、 黒 、丸 +->は、 混合領域の画素と
十 + +
+
見なす画素を示す。 混合比 を算出する画素の画素値は、 M +
+c5である。
Mcl = (- 1) • Bel - m+(-l) • Bel (5 0)
Mc2= (0) ■ Bc2 · m+(-l) - Bc2 · q+Bc2 · (5 1 )
Mc3= (+1) • Bc3 • m+ (- 1) • Bc3 • q+Bc3 (5 2)
Mc4= (-D • Bc4 • m+(0) · Bc4 · q+Bc4 · (5 3)
Mc5= (0) . Bc5 · m+(0) · Bc5 - q+Bc5 - p+(0) · s+(0) - t+u (54)
Mc6= (+1) • Bc6 • m+(0) · Bc6 · q+Bc6 · (5 5)
Mc7= (-D • Bc7 - m+(+l) • Bc7 • q+Bc7 • p+ (- 1) - s+(+l) · t+u (5 6)
Mc8= (0) - Bc8 · m+(+l) · Bc8 · q+Bc8 · (5 7)
Mc9= (+1) • Bc9 • m+(+l) • Bc9 • q+Bc9 • p+(+l) - s+(+l) · t+u (5 8) フレーム tinのカバードバックグラウンド領域に含まれる画素の混合比 を算 出するとき、 式 (5 0) 乃至式 (5 8) において、 フレーム ίίηの画素に対応す る、 フレーム #η- 1 の画素の背景領域の画素の画素値 Bel 乃至 Bc9が使用される: 図 60に示す、 アンカバードバックグラウンド領域に含まれる画素の混合比 を算出するとき、 以下の式 (5 9) 乃至式 (6 7) が立てられる。 混合比 を算出する画素の画素値は、 Mu5である。
Mul=(-1) · Bui · m+(-l) · Bui · q+Bul · p+ (- 1) - s+(- 1) · t+u (5 9 Mu2=(0) - Bu2 - m+(-l) · Bu2 · q+Bu2 · p+(0) · s+(_l) - t+u (6 0 Mu3=(+1) · Bu3 · m+(-l) · Bu3 · q+Bu3 - p+(+l) - s+ (- 1) - t+u (6 1 Mu4=(-1) · Bu4 - m+(0) - Bu4 - q+Bu4 · p+ (- 1) · s+(0) - t+u (6 2
Mu5=(0) · Bu5 - m+(0) · Bu5 · q+Bu5 · p+ (0) - s+(0) - t+u (6 3
Mu6=(+1) · Bu6 · m+(0) - Bu6 - q+Bu6 - p+(+l) - s+(0) - t+u (64
Mu7=(-1) · Bu7 · m+(+l) - Bu7 · q+Bu7 - p+(-l) · s+(+l) - t+u (6 5 Mu8=(0) · Bu8 - m+(+l) · Bu8 · q+Bu8 · p+(0) · s+(+l) - t+u (6 6
Mu9=(+1) · Bu9 - m+(+l) · Bu9 - q+Bu9 · p+(+l) · s+(+l) - t+u (6 7 フレーム #nのアンカバードバックグラウンド領域に含まれる画素の混合比ひ を算出するとき、 式 (5 9) 乃至式 (6 7) において、 フレーム #nの画素に対 応する、 フレーム +1の画素の背景領域の画素の画素値 Bui乃至 Bu9が使用さ れる。
図 6 1は、 推定混合比処理部 4 0 1の構成を示すブロック図である。 推定混合 比処理部 40 1に入力された画像は、 遅延回路 5 0 1および足し込み部 5 0 2に 供給される。
遅延回路 5 0 1は、 入力画像を 1フレーム遅延させ、 足し込み部 5 0 2に供給 する。 足し込み部 5 0 2に、 入力画像としてフレーム #n が入力されているとき 遅延回路 5 0 1は、 フレーム #n- 1を足し込み部 5 0 2に供給する。
足し込み部 5 0 2は、 混合比 ひ を算出する画素の近傍の画素の画素値、 およ びフレーム - 1の画素値を、 正規方程式に設定する。 例えば、 足し込み部 5 0 2は、 式 (5 0) 乃至式 (5 8) に基づいて、 正規方程式に画素値 Mcl乃至 Mc9 および画素値 Bel乃至 Bc9を設定する。 足し込み部 5 0 2は、 画素値が設定さ れた正規方程式を演算部 5 0 3に供給する。
演算部 5 0 3は、 足し込み部 5 0 2から供給された正規方程式を掃き出し法な どにより解いて推定混合比を求め、 求められた推定混合比を出力する。
このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を算出 して、 混合比決定部 4 0 3に供給することができる。
なお、 推定混合比処理部 4 0 2は、 推定混合比処理部 4 0 1と同様の構成を有 するので、 その説明は省略する。
図 6 2は、 推定混合比処理部 4 0 1により算出された推定混合比の例を示す図 である。 図 6 2に示す推定混合比は、 等速で動いているオブジェク トに対応する 前景の動き Vが 1 1であり、 7 X 7画素のプロックを単位として方程式を生成 して算出された結果を、 1ラインに対して示すものである。
推定混合比は、 混合領域において、 図 6 1に示すように、 ほぼ直線的に変化し ていることがわかる。
次に、 図 6 1に構成を示す推定混合比処理部 4 0 1による、 カバードバックグ ラウンド領域に対応するモデルによる混合比推定の処理を図 6 3のフローチヤ一 トを参照して説明する。
ステップ S 5 2 1において、 足し込み部 5 0 2は、 入力された画像に含まれる 画素値、 および遅延回路 5 0 1から供給される画像に含まれる画素値を、 カバー ドバックグラウンド領域のモデルに対応する正規方程式に設定する。
ステップ S 5 2 2において、 推定混合比処理部 4 0 1は、 対象となる画素につ いての設定が終了したか否かを判定し、 対象となる画素についての設定が終了し ていないと判定された場合、 ステップ S 5 2 1に戻り、 正規方程式への画素値の 設定の処理を繰り返す。
ステップ S 5 2 2において、 対象となる画素についての画素値の設定が終了し たと判定された場合、 ステップ S 5 2 3に進み、 演算部 5 0 3は、 画素値が設定 された正規方程式を基に、 推定混合比を演算して、 求められた推定混合比を出力 する。
このように、 図 6 1に構成を示す推定混合比処理部 4 0 1は、 入力画像を基に 推定混合比を演算することができる。 アンカバードバックグラウンド領域に対応するモデルによる混合比推定の処理 は、 アンカバードバックグラウンド領域のモデルに対応する正規方程式を利用し た、 図 6 3のフローチャートに示す処理と同様なので、 その説明は省略する。 なお、 背景に対応するオブジェク トが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した混合比を求める処理を適用する ことができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 推定 混合比処理部 4 0 1は、 この動きに対応して画像全体をシフ卜させ、 背景に対応 するオブジェク トが静止している場合と同様に処理する。 また、 背景領域に対応 する画像が局所毎に異なる動きを含んでいるとき、 推定混合比処理部 4 0 1は、 混合領域に属する画素に対応する画素として、 動きに対応した画素を選択して、 上述の処理を実行する。
このように、 混合比算出部 1 0 2は、 領域特定部 1 0 1から供給された領域情 報、 および入力画像を基に、 各画素に対応する特徴量である混合比ひ を算出す ることができる。
混合比ひ を利用することにより、 動いているオブジェク トに対応する画像に 含まれる動きボケの情報を残したままで、 画素値に含まれる前景の成分と背景の 成分とを分離することが可能になる。
また、 混合比ひ に基づいて画像を合成すれば、 実世界を実際に撮影し直した ような動いているオブジェク トのスピードに合わせた正しい動きボケを含む画像 を作ることが可能になる。
次に、 前景背景分離部 1 0 5について説明する。 図 6 4は、 前景背景分離部 1 0 5の構成の一例を示すプロック図である。 前景背景分離部 1 0 5に供給された 入力画像は、 分離部 6 0 1、 スィッチ 6 0 2、 およびスィッチ 6 0 4に供給され る。 カバードバックグラウンド領域を示す情報、 およびアンカバードバックダラ ゥンド領域を示す、 領域特定部 1 0 3から供給された領域情報は、 分離部 6 0 1 に供給される。 前景領域を示す領域情報は、 スィッチ 6 0 2に供給される。 背景 領域を示す領域情報は、 スィッチ 6 0 4に供給される。 混合比算出部 1 0 4から供給された混合比 ひ は、 分離部 6 0 1に供給される 分離部 6 0 1は、 カバードバックグラウンド領域を示す領域情報、 アンカバー ドバックグラウンド領域を示す領域情報、 および混合比ひ を基に、 入力画像か ら前景の成分を分離して、 分離した前景の成分を合成部 6 0 3に供給するととも に、 入力画像から背景の成分を分離して、 分離した背景の成分を合成部 6 0 5に 供給する。
スィッチ 6 0 2は、 前景領域を示す領域情報を基に、 前景に対応する画素が入 力されたとき、 閉じられ、 入力画像に含まれる前景に対応する画素のみを合成部 6 0 3に供給する。
スィツチ 6 0 4は、 背景領域を示す領域情報を基に、 背景に対応する画素が入 力されたとき、 閉じられ、 入力画像に含まれる背景に対応する画素のみを合成部 6 0 5に供給する。
合成部 6 0 3は、 分離部 6 0 1から供給された前景に対応する成分、 スィッチ
6 0 2から供給された前景に対応する画素を基に、 前景成分画像を合成し、 合成 した前景成分画像を出力する。 前景領域と混合領域とは重複しないので、 合成部
6 0 3は、 例えば、 前景に対応する成分と、 前景に対応する画素とに論理和の演 算を適用して、 前景成分画像を合成する。
合成部 6 0 3は、 前景成分画像の合成の処理の最初に実行される初期化の処理 において、 内蔵しているフレームメモリに全ての画素値が 0である画像を格納し, 前景成分画像の合成の処理において、 前景成分画像を格納 (上書き) する。 従つ て、 合成部 6 0 3が出力する前景成分画像の内、 背景領域に対応する画素には、 画素値として 0が格納されている。
合成部 6 0 5は、 分離部 6 0 1から供給された背景に対応する成分、 スィッチ
6 0 4から供給された背景に対応する画素を基に、 背景成分画像を合成して、 合 成した背景成分画像を出力する。 背景領域と混合領域とは重複しないので、 合成 部 6 0 5は、 例えば、 背景に対応する成分と、 背景に対応する画素とに論理和の 演算を適用して、 背景成分画像を合成する。 合成部 6 0 5は、 背景成分画像の合成の処理の最初に実行される初期化の処理 において、 内蔵しているフレームメモリに全ての画素値が 0である画像を格納し, 背景成分画像の合成の処理において、 背景成分画像を格納 (上書き) する。 従つ て、 合成部 6 0 5が出力する背景成分画像の内、 前景領域に対応する画素には、 画素値として 0が格納されている。
図 6 5 Aは、 前景背景分離部 1 0 5に入力される入力画像、 並びに前景背景分 離部 1 0 5から出力される前景成分画像および背景成分画像を示す図である。 図 6 5 Bは、 前景背景分離部 1 0 5に入力される入力画像、 並びに前景背景分離部 1 0 5から出力される前景成分画像および背景成分画像のモデルを示す図である c 図 6 5 Aは、 表示される画像の模式図であり、 図 6 5 Bは、 図 6 5 Aに対応す る前景領域に属する画素、 背景領域に属する画素、 および混合領域に属する画素 を含む 1ラインの画素を時間方向に展開したモデル図を示す。
図 6 5 Aおよび図 6 5 Bに示すように、 前景背景分離部 1 0 5から出力される 背景成分画像は、 背景領域に属する画素、 および混合領域の画素に含まれる背景 の成分から構成される。
図 6 5 Aおよび図 6 5 Bに示すように、 前景背景分離部 1 0 5から出力される 前景成分画像は、 前景領域に属する画素、 および混合領域の画素に含まれる前景 の成分から構成される。
混合領域の画素の画素値は、 前景背景分離部 1 0 5により、 背景の成分と、 前 景の成分とに分離される。 分離された背景の成分は、 背景領域に属する画素と共 に、 背景成分画像を構成する。 分離された前景の成分は、 前景領域に属する画素 と共に、 前景成分画像を構成する。
このように、 前景成分画像は、 背景領域に対応する画素の画素値が 0とされ、 前景領域に対応する画素および混合領域に対応する画素に意味のある画素値が設 定される。 同様に、 背景成分画像は、 前景領域に対応する画素の画素値が 0とさ れ、 背景領域に対応する画素および混合領域に対応する画素に意味のある画素値 が設定される。 次に、 分離部 6 0 1が実行する、 混合領域に属する画素から前景の成分、 およ び背景の成分を分離する処理について説明する。
図 6 6は、 図中の左から右に移動するオブジェク トに対応する前景を含む、 2 つのフレームの前景の成分および背景の成分を示す画像のモデルである。 図 6 6 に示す画像のモデルにおいて、 前景の動き量 Vは 4であり、 仮想分割数は、 4 とされている。
フレーム ttnにおいて、 最も左の画素、 および左から 1 4番目乃至 1 8番目の 画素は、 背景の成分のみから成り、 背景領域に属する。 フレーム ί!ηにおいて、 左から 2番目乃至 4番目の画素は、 背景の成分および前景の成分を含み、 アンカ バードバックグラウンド領域に属する。 フレーム #ηにおいて、 左から 1 1番目 乃至 1 3番目の画素は、 背景の成分および前景の成分を含み、 カバードバックグ ラウンド領域に属する。 フレーム #ηにおいて、 左から 5番目乃至 1 0番目の画 素は、 前景の成分のみから成り、 前景領域に属する。
フレーム #η+ 1において、 左から 1番目乃至 5番目の画素、 および左から 1 8 番目の画素は、 背景の成分のみから成り、 背景領域に属する。 フレーム #η+ 1に おいて、 左から 6番目乃至 8番目の画素は、 背景の成分および前景の成分を含み、 アンカバードバックグラウンド領域に属する。 フレーム #η+1において、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分および前景の成分を含み、 カバード バックグラウンド領域に属する。 フレーム ttn+1において、 左から 9番目乃至 1 4番目の画素は、 前景の成分のみから成り、 前景領域に属する。
図 6 7は、 カバードバックグラウンド領域に属する画素から前景の成分を分離 する処理を説明する図である。 図 6 7において、 ひ 1乃至ひ 1 8は、 フレーム #nにおける画素のそれぞれに対応する混合比である。 図 6 7において、 左から 1 5番目乃至 1 7番目の画素は、 カバードバックグラウンド領域に属する。
フレーム #n の左から 1 5番目の画素の画素値 C 15 は、 式 (6 8 ) で表される c C15=B15/v+F09/v+F08/v+F07/v
=ひ 15 - B15+F09/v+F08/v+F07/v =ひ 15-P15+F09/v+F08/v+F07/v (6 8)
ここで、 15 は、 フレーム #n の左から 1 5番目の画素の混合比である。 P15 は、 フレーム #n- 1の左から 1 5番目の画素の画素値である。
式 (6 8) を基に、 フレーム #nの左から 1 5番目の画素の前景の成分の和 fl5は、 式 (6 9 ) で表される。
fl5=F09/v+F08/v+F07/v
=C15 - α15·Ρ15 ( 6 9)
同様に、 フレーム #ηの左から 1 6番目の画素の前景の成分の和 Π6は、 式 ( 7 0) で表され、 フレーム #nの左から 1 7番目の画素の前景の成分の和 Π7 は、 式 ( 7 1 ) で表される。
fl6=C16-a 16-P16 ( 7 0)
fl7=C17-ひ 17·Ρ17 ( 7 1 )
このように、 カバードバックグラウンド領域に属する画素の画素値 Cに含ま れる前景の成分 fcは、 式 (7 2) で計算される。
fc=C—ひ ·Ρ ( 7 2)
Ρは、 1つ前のフレームの、 対応する画素の画素値である。
図 6 8は、 アンカバードバックグラウンド領域に属する画素から前景の成分を 分離する処理を説明する図である。 図 6 8において、 ひ 1乃至 1 8は、 フレ ーム #ηにおける画素のぞれぞれに対応する混合比である。 図 6 8において、 左 から 2番目乃至 4番目の画素は、 アンカバ一ドバックグラウンド領域に属する。 フレーム #ηの左から 2番目の画素の画素値 C02は、 式 (7 3) で表される。
C02=B02/v+B02/v+B02/v+F01/v
=ひ 2'B02+F01/v
= a2-N02+F01/v ( 7 3 )
ここで、 ひ 2は、 フレーム ίΐηの左から 2番目の画素の混合比である。 Ν02は、 フ レーム ίίη+lの左から 2番目の画素の画素値である。
式 (7 3 ) を基に、 フレーム ίίηの左から 2番目の画素の前景の成分の和 f02 は、 式 (74) で表される。
f02=F01/v
=C02 -ひ 2-N02 (74)
同様に、 フレーム の左から 3番目の画素の前景の成分の和 f03は、 式 (7 5) で表され、 フレーム #nの左から 4番目の画素の前景の成分の和 f04は、 式 (7 6) で表される。
f03=C03 - 3·Ν03 ( 7 5 )
f04=C04-ひ 4-Ν04 ( 7 6 )
このように、 アンカバードバックグラウンド領域に属する画素の画素値 Cに 含まれる前景の成分 fuは、 式 (7 7) で計算される。
fu=C-ひ ·Ν (7 7)
Νは、 1つ後のフレームの、 対応する画素の画素Sである。
このように、 分離部 6 0 1は、 領域情報に含まれる、 カバードバックグラウン ド領域を示す情報、 およびアンカバードバックグラウンド領域を示す情報、 並び に画素毎の混合比ひ を基に、 混合領域に属する画素から前景の成分、 および背 景の成分を分離することができる。
図 6 9は、 以上で説明した処理を実行する分離部 6 0 1の構成の一例を示すブ ロック図である。 分離部 6 0 1に入力された画像は、 フレームメモリ 6 2 1に供 給され、 混合比算出部 1 04から供給されたカバードバックグラウンド領域およ びアンカバードバックグラウンド領域を示す領域情報、 並びに混合比ひ は、 分 離処理ブロック 6 2 2に入力される。
フレームメモリ 6 2 1は、 入力された画像をフレーム単位で記憶する。 フレー ムメモリ 6 2 1は、 処理の対象がフレーム ίίηであるとき、 フレーム ίίηの 1つ前 のフレームであるフレーム ίΐη- 1、 フレーム 、 およびフレーム ttnの 1つ後のフ レームであるフレーム ίίη+lを記憶する。
フレームメモリ 6 2 1は、 フレーム #η- 1、 フレーム #η、 およびフレーム #η+1 の対応する画素を分離処理プロック 6 2 2に供給する。 分離処理ブロック 6 2 2は、 カバードバックグラウンド領域およびアンカバー ドバックグラウンド領域を示す領域情報、 並びに混合比ひ を基に、 フレームメ モリ 6 2 1から供給されたフレーム #n- l、 フレームの およびフレーム #n+lの 対応する画素の画素値に図 6 7および図 6 8を参照して説明した演算を適用して. フレーム林 nの混合領域に属する画素から前景の成分および背景の成分を分離し て、 フレームメモリ 6 2 3に供給する。
分離処理ブロック 6 2 2は、 アンカバード領域処理部 6 3 1、 カバード領域処 理部 6 3 2、 合成部 6 3 3、 および合成部 6 3 4で構成されている。
アンカバード領域処理部 6 3 1の乗算器 6 4 1は、 混合比ひ を、 フレームメ モリ 6 2 1から供給されたフレーム itn+ 1の画素の画素値に乗じて、 スィッチ 6 4 2に出力する。 スィッチ 6 4 2は、 フレームメモリ 6 2 1から供給されたフレ ーム ttnの画素 (フレーム ttn+ 1の画素に対応する) がアンカバードバックグラウ ンド領域であるとき、 閉じられ、 乗算器 6 4 1から供給された混合比 ひ を乗じ た画素値を演算器 6 4 3および合成部 6 3 4に供給する。 スィッチ 6 4 2から出 力されるフレーム #n+lの画素の画素値に混合比 ひ を乗じた値は、 フレーム の対応する画素の画素値の背景の成分に等しい。
演算器 6 4 3は、 フレームメモリ 6 2 1から供給されたフレーム #nの画素の 画素値から、 スィッチ 6 4 2から供給された背景の成分を減じて、 前景の成分を 求める。 演算器 6 4 3は、 アンカバードバックグラウンド領域に属する、 フレー ム t の画素の前景の成分を合成部 6 3 3に供給する。
カバード領域処理部 6 3 2の乗算器 6 5 1は、 混合比 ひ を、 フレームメモリ 6 2 1から供給されたフレーム - 1の画素の画素値に乗じて、 スィツチ 6 5 2 に出力する。 スィッチ 6 5 2は、 フレームメモリ 6 2 1から供給されたフレーム #nの画素 (フレーム ttn- 1の画素に対応する) がカバ一ドバックグラウンド領域 であるとき、 閉じられ、 乗算器 6 5 1から供給された混合比ひ を乗じた画素値 を演算器 6 5 3および合成部 6 3 4に供給する。 スィッチ 6 5 2から出力される フレーム #n-lの画素の画素値に混合比 ひ を乗じた値は、 フレーム #nの対応す る画素の画素値の背景の成分に等しい。
演算器 6 5 3は、 フレームメモリ 6 2 1から供給されたフレーム #nの画素の 画素値から、 スィッチ 6 5 2から供給された背景の成分を減じて、 前景の成分を 求める。 演算器 6 5 3は、 カバードバックグラウンド領域に属する、 フレーム t の画素の前景の成分を合成部 6 3 3に供給する。
合成部 6 3 3は、 フレーム の、 演算器 6 4 3から供給された、 アンカバー ドバックグラウンド領域に属する画素の前景の成分、 および演算器 6 5 3から供 給された、 カバードバックグラウンド領域に属する画素の前景の成分を合成して. フレームメモリ 6 2 3に供給する。
合成部 6 3 4は、 フレームでの、 スィッチ 6 4 2から供給された、 アンカバ ードバックグラウンド領域に属する画素の背景の成分、 およびスィッチ 6 5 2か ら供給された、 カバードバックグラウンド領域に属する画素の背景の成分を合成 して、 フレームメモリ 6 2 3に供給する。
フレームメモリ 6 2 3は、 分離処理ブロック 6 2 2から供給された、 フレーム #nの混合領域の画素の前景の成分と、 背景の成分とをそれぞれに記憶する。
フレームメモリ 6 2 3は、 記憶しているフレーム #nの混合領域の画素の前景 の成分、 および記憶しているフレーム #nの混合領域の画素の背景の成分を出力 する。
特徴量である混合比ひ を利用することにより、 画素値に含まれる前景の成分 と背景の成分とを完全に分離することが可能になる。
合成部 6 0 3は、 分離部 6 0 1から出力された、 フレーム #nの混合領域の画 素の前景の成分と、 前景領域に属する画素とを合成して前景成分画像を生成する, 合成部 6 0 5は、 分離部 6 0 1から出力された、 フレーム #nの混合領域の画素 の背景の成分と、 背景領域に属する画素とを合成して背景成分画像を生成する。 図 7 O Aは、 図 6 6のフレーム tinに対応する、 前景成分画像の例を示す。 最 も左の画素、 および左から 1 4番目の画素は、 前景と背景が分離される前におい て、 背景の成分のみから成っていたので、 画素値が 0とされる。 左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 ァ ンカバ一ドバックグラウンド領域に属し、 背景の成分が 0とされ、 前景の成分が そのまま残されている。 左から 1 1番目乃至 1 3番目の画素は、 前景と背景とが 分離される前において、 カバードバックグラウンド領域に属し、 背景の成分が 0 とされ、 前景の成分がそのまま残されている。 左から 5番目乃至 1 0番目の画素 は、 前景の成分のみから成るので、 そのまま残される。
図 7 0 Bは、 図 6 6のフレーム #nに対応する、 背景成分画像の例を示す。 最 も左の画素、 および左から 1 4番目の画素は、 前景と背景とが分離される前にお いて、 背景の成分のみから成っていたので、 そのまま残される。
左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 ァ ンカバ一ドバックグラウンド領域に属し、 前景の成分が 0とされ、 背景の成分が そのまま残されている。 左から 1 1番目乃至 1 3番目の画素は、 前景と背景とが 分離される前において、 カバードバックグラウンド領域に属し、 前景の成分が 0 とされ、 背景の成分がそのまま残されている。 左から 5番目乃至 1 0番目の画素 は、 前景と背景とが分離される前において、 前景の成分のみから成っていたので、 画素値が 0とされる。
次に、 図 7 1に示すフローチャートを参照して、 前景背景分離部 1 0 5による 前景と背景との分離の処理を説明する。 ステップ S 6 0 1において、 分離部 6 0 1のフレームメモリ 6 2 1は、 入力画像を取得し、 前景と背景との分離の対象と なるフレーム ttnを、 その前のフレーム #n-lおよびその後のフレーム ttn+1 と共に 己 11する。
ステップ S 6 0 2において、 分離部 6 0 1の分離処理ブロック 6 2 2は、 混合 比算出部 1 0 4から供給された領域情報を取得する。 ステップ S 6 0 3において, 分離部 6 0 1の分離処理プロック 6 2 2は、 混合比算出部 1 0 4から供給された 混合比 ひ を取得する。
ステップ S 6 0 4において、 アンカバード領域処理部 6 3 1は、 領域情報およ び混合比 ひ を基に、 フレームメモリ 6 2 1から供給された、 アンカバードバッ クグラウンド領域に属する画素の画素値から、 背景の成分を抽出する。
ステップ S 6 0 5において、 アンカバード領域処理部 6 3 1は、 領域情報およ び混合比 ひ を基に、 フレームメモリ 6 2 1から供給された、 アンカバードバッ クグラウンド領域に属する画素の画素値から、 前景の成分を抽出する。
ステップ S 6 0 6において、 カバード領域処理部 6 3 2は、 領域情報および混 合比 or を基に、 フレームメモリ 6 2 1から供給された、 カバードバックグラウ ンド領域に属する画素の画素値から、 背景の成分を抽出する。
ステップ S 6 0 7において、 カバード領域処理部 6 3 2は、 領域情報および混 合比 Of を基に、 フレームメモリ 6 2 1から供給された、 カバードバックグラウ ンド領域に属する画素の画素値から、 前景の成分を抽出する。
ステップ S 6 0 8において、 合成部 6 3 3は、 ステップ S 6 0 5の処理で抽出 されたアンカバードバックグラウンド領域に属する画素の前景の成分と、 ステツ プ S 6 0 7の処理で抽出されたカバードバックグラウンド領域に属する画素の前 景の成分とを合成する。 合成された前景の成分は、 合成部 6 0 3に供給される。 更に、 合成部 6 0 3は、 スィッチ 6 0 2を介して供給された前景領域に属する画 素と、 分離部 6 0 1から供給された前景の成分とを合成して、 前景成分画像を生 成する。
ステップ S 6 0 9において、 合成部 6 3 4は、 ステップ S 6 0 4の処理で抽出 されたアンカバードバックグラウンド領域に属する画素の背景の成分と、 ステツ プ S 6 0 6の処理で抽出されたカバードバックグラウンド領域に属する画素の背 景の成分とを合成する。 合成された背景の成分は、 合成部 6 0 5に供給される。 更に、 合成部 6 0 5は、 スィッチ 6 0 4を介して供給された背景領域に属する画 素と、 分離部 6 0 1から供給された背景の成分とを合成して、 背景成分画像を生 成する。
ステップ S 6 1 0において、 合成部 6 0 3は、 前景成分画像を出力する。 ステ ップ S 6 1 1において、 合成部 6 0 5は、 背景成分画像を出力し、 処理は終了す る。 このように、 前景背景分離部 1 0 5は、 領域情報および混合比 を基に、 入 力画像から前景の成分と、 背景の成分とを分離し、 前景の成分のみから成る前景 成分画像、 および背景の成分のみから成る背景成分画像を出力することができる, 次に、 前景成分画像からの動きボケの量の調整について説明する。
図 7 2は、 動きボケ調整部 1 0 6の構成の一例を示すプロック図である。 動き 検出部 1 0 2から供給された動きべク トルとその位置情報、 および領域特定部 1 0 3から供給された領域情報は、 処理単位決定部 8 0 1およびモデル化部 8 0 2 に供給される。 前景背景分離部 1 0 5から供給された前景成分画像は、 足し込み 部 8 0 4に供給される。
処理単位決定部 8 0 1は、 動きべク トルとその位置情報、 および領域情報を基 に、 動きべク トルと共に、 生成した処理単位をモデル化部 8 0 2に供給する。 処 理単位決定部 8 0 1は、 生成した処理単位を足し込み部 8 0 4に供給する。
処理単位決定部 8 0 1が生成する処理単位は、 図 7 3において Aで例を示すよ うに、 前景成分画像のカバ一ドバックグラウンド領域に対応する画素から始まり アンカバードバックグラウンド領域に対応する画素までの動き方向に並ぶ連続す る画素、 またはアンカバードバックグラウンド領域に対応する画素から始まり、 カバードバックグラウンド領域に対応する画素までの動き方向に並ぶ連続する画 素を示す。 処理単位は、 例えば、 左上点 (処理単位で指定される画素であって、 画像上で最も左または最も上に位置する画素の位置) および右下点の 2つのデー タから成る。
モデル化部 8 0 2は、 動きべク トルおよび入力された処理単位を基に、 モデル 化を実行する。 より具体的には、 例えば、 モデル化部 8 0 2は、 処理単位に含ま れる画素の数、 画素値の時間方向の仮想分割数、 および画素毎の前景の成分の数 に対応する複数のモデルを予め記憶しておき、 処理単位、 および画素値の時間方 向の仮想分割数を基に、 図 7 4に示すような、 画素値と前景の成分との対応を指 定するモデルを選択するようにしても良い。
例えば、 処理単位に対応する画素の数が 1 2でありシャツタ時間内の動き量 V が 5であるときにおいては、 モデル化部 8 0 2は、 仮想分割数を 5とし、 最も左 に位置する画素が 1つの前景の成分を含み、 左から 2番目の画素が 2つの前景の 成分を含み、 左から 3番目の画素が 3つの前景の成分を含み、 左から 4番目の画 素が 4つの前景の成分を含み、 左から 5番目の画素が 5つの前景の成分を含み、 左から 6番目の画素が 5つの前景の成分を含み、 左から 7番目の画素が 5つの前 景の成分を含み、 左から 8番目の画素が 5つの前景の成分を含み、 左から 9番目 の画素が 4つの前景の成分を含み、 左から 1 0番目の画素が 3つの前景の成分を 含み、 左から 1 1番目の画素が 2つの前景の成分を含み、 左から 1 2番目の画素 が 1つの前景の成分を含み、 全体として 8つの前景の成分から成るモデルを選択 する。
なお、 モデル化部 8 0 2は、 予め記憶してあるモデルから選択するのではなく 動きベク トル、 および処理単位が供給されたとき、 動きベク トル、 および処理単 位を基に、 モデルを生成するようにしてもよい。
モデル化部 8 0 2は、 選択したモデルを方程式生成部 8 0 3に供給する。
方程式生成部 8 0 3は、 モデル化部 8 0 2から供給されたモデルを基に、 方程 式を生成する。 図 7 4に示す前景成分画像のモデルを参照して、 前景の成分の数 が 8であり、 処理単位に対応する画素の数が 1 2であり、 動き量 V が 5であり 仮想分割数が 5であるときの、 方程式生成部 8 0 3が生成する方程式について説 明する。
前景成分画像に含まれるシャツタ時間/ Vに対応する前景成分が FO l/v乃至
F08/vであるとき、 FO l/v乃至 F08/vと画素値 C01乃至 C12との関係は、 式 (7 8 ) 乃至式 (8 9 ) で表される。
C01=F01/v ( 7 8 )
C02=F02/v+F01/v ( 7 9 )
C03=F03/v+F02/v+F01/v ( 8 0 )
C04=F04/v+F03/v+F02/v+F01/v ( 8 1 )
C05=F05/v+F04/v+F03/v+F02/v+F01/v ( 8 2 ) C06=F06/v+F05/v+F04/v+F03/v+F02/v (8 3)
C07=F07/v+F06/v+F05/v+F04/v+F03/v (84)
C08=F08/v+F07/v+F06/v+F05/v+F04/v (8 5)
C09=F08/v+F07/v+F06/v+F05/v (8 6)
C10=F08/v+F07/v+F06/v (8 7)
Cll=F08/v+F07/v (8 8)
C12=F08/v (8 9) 方程式生成部 80 3は、 生成した方程式を変形して方程式を生成する。 方程式 生成部 8 0 3が生成する方程式を、 式 ( 9 0 ) 乃至式 (1 0 1) に示す。
C01 = l · FOl/v+0 · F02/v+0 · F03/v+0■ F04/v+0 · F05/v
+0 · F06/v+0■ F07/v+0 · F08/v (90) C02=l - FOl/v+1 · F02/v+0 · F03/v+0 · F04/v+0 · F05/v
+0 · F06/V+0 - F07/v+0 - F08/v (9 1) C03=l · FOl/v+1 - F02/v+l · F03/v+0 · F04/v+0 · F05/v
+0 · F06/v+0 - F07/v+0 - F08/v (9 2)
C04=l · FOl/v+1 · F02/v+l · F03/v+l · F04/v+0 · F05/v
+0 - F06/v+0 - F07/v+0 - F08/v (9 3) C05=l ■ FOl/v+1 - F02/v+l - F03/v+l - F04/v+l · F05/v
+0 · F06/v+0 - F07/v+0 - F08/v (94) C06=0 · FOl/v+1 · F02/v+l · F03/v+l · F04/v+l - F05/v
+1 · F06/V+0 - F07/v+0 · F08/v (9 5) C07=0 - FOl/v+0 - F02/v+l - F03/v+l - F04/v+l - F05/v
+1 - F06/v+l · F07/v+0 · F08/v (9 6) C08=0 · FOl/v+0 · F02/v+0 · F03/v+l - F04/v+l - F05/v
+1 · F06/v+l - F07/v+l - F08/v (9 7)
C09=0 - FOl/v+0 - F02/v+0■ F03/v+0 - F04/v+l · F05/v
+1 · F06/v+l · F07/v+l - F08/v (9 8) C10=0 · FOl/v+0 · F02/v+0 · F03/v+0 - F04/v+0 · F05/v
+1 · F06/v+l · F07/v+l - F08/v (9 9)
CI 1=0 - FOl/v+0 - F02/v+0 - F03/v+0 · F04/v+0 - F05/v
+0 · F06/v+l · F07/v+l · F08/v (1 00)
C12=0 - FOl/v+0 - F02/v+0 · F03/v+0 - F04/v+0 · F05/v
+0 · F06/v+0 · F07/v+l · F08/v (1 0 1) 式 (90) 乃至式 ( 1 0 1 ) は、 式 ( 1 02) として表すこともできる。
OS
Cj =∑aij'Fi/v (102)
i=OI
式 (10 2) において、 jは、 画素の位置を示す。 この例において、 jは、 1乃 至 1 2のいずれか 1つの値を有する。 また、 iは、 前景値の位置を示す。 この例 において、 iは、 1乃至 8のいずれか 1つの値を有する。 aijは、 iおよび jの 値に対応して、 0または 1の を有する。
誤差を考慮して表現すると、 式 (102) は、 式 (103) のように表すこと ができる。
08
Cj =∑aij'FUv + ej (103)
i=01
式 (1 03) において、 ejは、 注目画素 Cjに含まれる誤差である。
式 (1 03) は、 式 (104) に書き換えることができる。
08
ej = Cj-∑aij*Fi/v (104)
-01
ここで、 最小自乗法を適用するため、 誤差の自乗和 Eを式 (105) に示す ように定義する。
E = yJej2 (105)
j=01
誤差が最小になるためには、 誤差の自乗和 Eに対する、 変数 Fkによる偏微分 の値が 0になればよい。 式 (106) を満たすように Fkを求める。 dE dej
= 2-∑ej
dFk =01 'dFk
Ί122 08
= 2 -∑{(Cj -∑aij'Fi/v)'(-akjlv) = 0 (106)
j=01 i=01
式 (106) において、 動き量 vは固定値であるから、 式 (107) を導く
.とができる。
12 08
∑ akj · (Cj -∑aij'FHv) = o (107)
-01 i=01 式 (1 07) を展開して、 移項すると、 式 (1 08) を得る。
1 „2 OS U
∑ (akj'∑aij-Fi) = v'∑akj' Cj (108)
j=01 ii==0011 j=OJ 式 (1 08) の kに 1乃至 8の整数のいずれか 1つを代入して得られる 8つ の式に展開する。 得られた 8つの式を、 行列により 1つの式により表すことがで きる。 この式を正規方程式と呼ぶ。
このような最小自乗法に基づく、 方程式生成部 803が生成する正規方程式の 例を式 (109) に示す。
Figure imgf000097_0001
式 (109) を A'F=v'Cと表すと、 C,A, Vが既知であり、 Fは未知である。 ま た、 A, Vは、 モデル化の時点で既知だが、 Cは、 足し込み動作において画素値を 入力することで既知となる。 最小自乗法に基づく正規方程式により前景成分を算出することにより、 画素 C に含まれている誤差を分散させることができる。
方程式生成部 8 0 3は、 このように生成された正規方程式を足し込み部 8 0 4 に供給する。
足し込み部 8 0 4は、 処理単位決定部 8 0 1から供給された処理単位を基に、 前景成分画像に含まれる画素値 Cを、 方程式生成部 8 0 3から供給された行列 の式に設定する。 足し込み部 8 0 4は、 画素値 Cを設定した行列を演算部 8 0 5に供給する。
演算部 8 0 5は、 掃き出し法 (Gauss-Jordanの消去法) などの解法に基づく 処理により、 動きボケが除去された前景成分 Fi/vを算出して、 動きボケが除去 された前景の画素値である、 0乃至 8の整数のいずれかの iに対応する Fiを算 出して、 図 7 5に例を示す、 動きボケが除去された画素値である Fiから成る、 動きボケが除去された前景成分画像を動きボケ付加部 8 0 6および選択部 8 0 7 に出力する。
なお、 図 7 5に示す動きボケが除去された前景成分画像において、 C03乃至 C10のそれぞれに F01乃至 F08のそれぞれが設定されているのは、 画面に対する 前景成分画像の位置を変化させないためであり、 任意の位置に対応させることが できる。
動きボケ付加部 8 0 6は、 動き量 V とは異なる値の動きボケ調整量 v '、 例え ば、 動き量 Vの半分の値の動きボケ調整量 v'や、 動き量 Vと無関係の値の動き ボケ調整量 v'を与えることで、 動きボケの量を調整することができる。 例えば、 図 7 6に示すように、 動きボケ付加部 8 0 6は、 動きボケが除去された前景の画 素値 Fiを動きボケ調整量 v'で除すことにより、 前景成分 Fi/v'を算出して、 前 景成分 Fi/v'の和を算出して、 動きボケの量が調整された画素値を生成する。 例 えば、 動きボケ調整量 v'が 3のとき、 画素値 C02は、 (F01 ) /v'とされ、 画素 値 C03は、 (F01+F02) /v'とされ、 画素値 C04は、 (F01+F02+F03) /v'とされ、 画素ィ直 C05は、 (F02+F03+F04) /ν'とされる。 動きボケ付加部 8 0 6は、 動きボケの量を調整した前景成分画像を選択部 8 0 7に供給する。
選択部 8 0 7は、 例えば使用者の選択に対応した選択信号を基に、 演算部 8 0 5から供給された動きボケが除去された前景成分画像、 および動きボケ付加部 8 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方を選 択して、 選択した前景成分画像を出力する。
このように、 動きボケ調整部 1 0 6は、 選択信号および動きボケ調整量 v'を 基に、 動きボケの量を調整することができる。
また、 例えば、 図 7 7に示すように、 処理単位に対応する画素の数が 8であり 動き量 Vが 4であるとき、 動きボケ調整部 1 0 6は、 式 (1 1 0 ) に示す行列 の式を生成する。
Figure imgf000099_0001
動きボケ調整部 1 0 6は、 このように処理単位の長さに対応した数の式を立て て、 動きボケの量が調整された画素値である Fiを算出する。 同様に、 例えば、 処理単位に含まれる画素の数が 1 0 0あるとき、 1 0 0個の画素に対応する式を 生成して、 Fiを算出する。
図 7 8は、 動きボケ調整部 1 0 6の他の構成を示す図である。 図 7 2に示す場 合と同様の部分には同一の番号を付してあり、 その説明は省略する。
選択部 8 2 1は、 選択信号を基に、 入力された動きべク トルとその位置信号を そのまま処理単位決定部 8 0 1およびモデル化部 8 0 2に供給するか、 または動 きべク トルの大きさを動きボケ調整量 v'に置き換えて、 その大きさが動きボケ 調整量 v'に置き換えられた動きべク トルとその位置信号を処理単位決定部 8 0 1およびモデル化部 8 0 2に供給する。
このようにすることで、 図 7 8の動きボケ調整部 1 0 6の処理単位決定部 8 0 1乃至演算部 8 0 5は、 動き量 Vと動きボケ調整量 v 'との値に対応して、 動き ボケの量を調整することができる。 例えば、 動き量 Vが 5であり、 動きボケ調 整量 v'が 3であるとき、 図 7 8の動きボケ調整部 1 0 6の処理単位決定部 8 0 1乃至演算部 8 0 5は、 図 7 4に示す動き量 Vが 5である前景成分画像に対し て、 3である動きボケ調整量 v'対応する図 7 6に示すようなモデルに従って、 演算を実行し、 (動き量 V ) I (動きボケ調整量 ν' ) = 5/3、 すなわちほぼ 1. 7 の動き量 Vに応じた動きボケを含む画像を算出する。 なお、 この場合、 算出さ れる画像は、 3である動き量 Vに対応した動きボケを含むのではないので、 動き ボケ付加部 8 0 6の結果とは動き量 V と動きボケ調整量 v'の関係の意味合いが 異なる点に注意が必要である。
以上のように、 動きボケ調整部 1 0 6は、 動き量 Vおよび処理単位に対応し て、 式を生成し、 生成した式に前景成分画像の画素値を設定して、 動きボケの量 が調整された前景成分画像を算出する。
次に、 図 7 9のフローチャートを参照して、 動きボケ調整部 1 0 6による前景 成分画像に含まれる動きボケの量の調整の処理を説明する。
ステップ S 8 0 1において、 動きボケ調整部 1 0 6の処理単位決定部 8 0 1は, 動きベク トルおよび領域情報を基に、 処理単位を生成し、 生成した処理単位をモ デル化部 8 0 2に供給する。
ステップ S 8 0 2において、 動きボケ調整部 1 0 6のモデル化部 8 0 2は、 動 き量 Vおよび処理単位に対応して、 モデルの選択や生成を行う。 ステップ S 8 0 3において、 方程式生成部 8 0 3は、 選択されたモデルを基に、 正規方程式を 作成する。
ステップ S 8 0 4において、 足し込み部 8 0 4は、 作成された正規方程式に前 景成分画像の画素値を設定する。 ステップ S 8 0 5において、 足し込み部 8 0 4 は、 処理単位に対応する全ての画素の画素値の設定を行ったか否かを判定し、 処 理単位に対応する全ての画素の画素値の設定を行っていないと判定された場合、 ステップ S 8 0 4に戻り、 正規方程式への画素値の設定の処理を繰り返す。 ステップ S 8 0 5において、 処理単位の全ての画素の画素値の設定を行ったと 判定された場合、 ステップ S 8 0 6に進み、 演算部 8 0 5は、 足し込み部 8 0 4 から供給された画素値が設定された正規方程式を基に、 動きボケの量を調整した 前景の画素値を算出して、 処理は終了する。
このように、 動きボケ調整部 1 0 6は、 動きべク トルおよび領域情報を基に、 動きボケを含む前景画像から動きボケの量を調整することができる。
すなわち、 サンプルデータである画素値に含まれる動きボケの量を調整するこ とができる。
以上のように、 図 2に構成を示す画像処理装置は、 入力画像に含まれる動きボ ケの量を調整することができる。 図 2に構成を示す画像処理装置は、 埋もれた情 報である混合比 ひ を算出して、 算出した混合比 を出力することができる。 図 8 0は、 動きボケ調整部 1 0 6の構成の他の一例を示すブロック図である。 動き検出部 1 0 2から供給された動きべク トルとその位置情報は、 処理単位決定 部 9 0 1および補正部 9 0 5に供給され、 領域特定部 1 0 3から供給された領域 情報は、 処理単位決定部 9 0 1に供給される。 前景背景分離部 1 0 5から供給さ れた前景成分画像は、 演算部 9 0 4に供給される。
処理単位決定部 9 0 1は、 動きべク トルとその位置情報、 および領域情報を基 に、 動きべク トルと共に、 生成した処理単位をモデル化部 9 0 2に供給する。 モデル化部 9 0 2は、 動きべク トルおよび入力された処理単位を基に、 モデル 化を実行する。 より具体的には、 例えば、 モデル化部 9 0 2は、 処理単位に含ま れる画素の数、 画素値の時間方向の仮想分割数、 および画素毎の前景の成分の数 に対応する複数のモデルを予め記憶しておき、 処理単位、 および画素値の時間方 向の仮想分割数を基に、 図 8 1に示すような、 画素値と前景の成分との対応を指 定するモデルを選択するようにしても良い。
例えば、 処理単位に対応する画素の数が 1 2であり動き量 Vが 5であるとき においては、 モデル化部 90 2は、 仮想分割数を 5とし、 最も左に位置する画素 が 1つの前景の成分を含み、 左から 2番目の画素が 2つの前景の成分を含み、 左 から 3番目の画素が 3つの前景の成分を含み、 左から 4番目の画素が 4つの前景 の成分を含み、 左から 5番目の画素が 5つの前景の成分を含み、 左から 6番目の 画素が 5つの前景の成分を含み、 左から 7番目の画素が 5つの前景の成分を含み, 左から 8番目の画素が 5つの前景の成分を含み、 左から 9番目の画素が 4つの前 景の成分を含み、 左から 1 0番目の画素が 3つの前景の成分を含み、 左から 1 1 番目の画素が 2つの前景の成分を含み、 左から 1 2番目の画素が 1つの前景の成 分を含み、 全体として 8つの前景の成分から成るモデルを選択する。
なお、 モデル化部 9 0 2は、 予め記憶してあるモデルから選択するのではなく、 動きベク トル、 および処理単位が供給されたとき、 動きべク トル、 および処理単 位を基に、 モデルを生成するようにしてもよい。
方程式生成部 9 0 3は、 モデル化部 9 0 2から供給されたモデルを基に、 方程 式を生成する。
図 8 1乃至図 8 3に示す前景成分画像のモデルを参照して、 前景の成分の数が 8であり、 処理単位に対応する画素の数が 1 2であり、 動き量 Vが 5であると きの、 方程式生成部 9 0 3が生成する方程式の例について説明する。
前景成分画像に含まれるシャッタ時間 /vに対応する前景成分が FOl/v乃至 F08/vであるとき、 FOl/v乃至 F08/vと画素値 C01乃至 C12との関係は、 上述し たように、 式 (7 8) 乃至式 (8 9) で表される。
画素値 C12および C11に注目すると、 画素値 C12は、 式 (1 1 1 ) に示すよ うに、 前景の成分 F08/vのみを含み、 画素値 C11は、 前景の成分 F08/vおよび 前景の成分 F07/vの積和から成る。 従って、 前景の成分 F07/vは、 式 (1 1 2) で求めることができる。
F08/v=C12 ( i l l)
F07/v=Cll-C12 ( 1 1 2)
同様に、 画素値 CIO乃至 C01に含まれる前景の成分を考慮すると、 前景の成 分 F06/v乃至 FOl/vは、 式 (1 1 3) 乃至式 ( 1 1 8 ) により求めることがで きる。
F06/v=C10 - C11 ( 1 1 3)
F05/v=C09_C10 ( 1 1 4)
F04/v=C08 - C09 ( 1 1 5)
F03/v=C07 - C08+C12 ( 1 1 6)
F02/v=C06-C07+Cll-C12 ( 1 1 7)
F01/v=C05- C06+C10 - Cll ( 1 1 8)
方程式生成部 9 0 3は、 式 (1 1 1) 乃至式 (1 1 8) に例を示す、 画素値の 差により前景の成分を算出するための方程式を生成する。 方程式生成部 9 0 3は, 生成した方程式を演算部 9 04に供給する。
演算部 9 04は、 方程式生成部 90 3から供給された方程式に前景成分画像の 画素値を設定して、 画素値を設定した方程式を基に、 前景の成分を算出する。 演 算部 9 04は、 例えば、 式 (1 1 1) 乃至式 (1 1 8) が方程式生成部 9 0 3力、 ら供給されたとき、 式 (1 1 1 ) 乃至式 (1 1 8) に画素値 C05乃至 C12を設 定する。
演算部 9 04は、 画素値が設定された式に基づき、 前景の成分を算出する。 例 えば、 演算部 9 04は、 画素値 C05乃至 C12が設定された式 (1 1 1 ) 乃至式 (1 1 8) に基づく演算により、 図 8 2に示すように、 前景の成分 FOl/v乃至 F08/vを算出する。 演算部 9 04は、 前景の成分 FOl/v乃至 F08/vを補正部 9 0 5に供給する。
補正部 9 0 5は、 演算部 9 04から供給された前景の成分に、 処理単位決定部 9 0 1から供給された動きべク トルに含まれる動き量 Vを乗じて、 動きボケを 除去した前景の兩素値を算出する。 例えば、 補正部 9 0 5は、 演算部 9 04から 供給された前景の成分 FOl/v乃至 F08/vが供給されたとき、 前景の成分 FOl/v 乃至 F08/vのそれぞれに、 5である動き量 Vを乗じることにより、 図 8 3に示 すように、 動きボケを除去した前景の画素値 F01乃至 F08を算出する。 補正部 9 0 5は、 以上のように算出された、 動きボケを除去した前景の画素値 から成る前景成分画像を動きボケ付加部 9 0 6および選択部 9 0 7に供給する。 動きボケ付加部 9 0 6は、 動き量 Vとは異なる値の動きボケ調整量 v'、 例え ば、 動き量 Vの半分の値の動きボケ調整量 v '、 動き量 Vと無関係の値の動きボ ケ調整量 v'で、 動きボケの量を調整することができる。 例えば、 図 7 6に示す ように、 動きボケ付加部 9 0 6は、 動きボケが除去された前景の画素値 Fiを動 きボケ調整量 v'で除すことにより、 前景成分 Fi/v'を算出して、 前景成分
Fi/v'の和を算出して、 動きボケの量が調整された画素値を生成する。 例えば、 動きボケ調整量 v'が 3のとき、 画素値 C02は、 (F01 ) /v'とされ、 画素値 C03 は、 (F01+F02) /v'とされ、 画素値 C04は、 (F01+F02+F03) /v'とされ、 画素 値 C05は、 (F02+F03+F04) /v'とされる。
動きボケ付加部 9 0 6は、 動きボケの量を調整した前景成分画像を選択部 9 0 7に供給する。
選択部 9 0 7は、 例えば使用者の選択に対応した選択信号を基に、 補正部 9 0 5から供給された動きボケが除去された前景成分画像、 および動きボケ付加部 9 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方を選 択して、 選択した前景成分画像を出力する。
このように、 動きボケ調整部 1 0 6は、 選択信号および動きボケ調整量 v'を 基に、 動きボケの量を調整することができる。
次に、 図 8 0に構成を示す動きボケ調整部 1 0 6による前景の動きボケの量の 調整の処理を図 8 4のフローチヤ一トを参照して説明する。
ステップ S 9 0 1において、 動きボケ調整部 1 0 6の処理単位決定部 9 0 1は, 動きべク トルおよび領域情報を基に、 処理単位を生成し、 生成した処理単位をモ デル化部 9 0 2およぴ補正部 9 0 5に供給する。
ステップ S 9 0 2において、 動きボケ調整部 1 0 6のモデル化部 9 0 2は、 動 き量 Vおよび処理単位に対応して、 モデルの選択や生成を行う。 ステップ S 9 0 3において、 方程式生成部 9 0 3は、 選択または生成されたモデルを基に、 前 景成分画像の画素値の差により前景の成分を算出するための方程式を生成する。 ステップ S 9 0 4において、 演算部 9 0 4は、 作成された方程式に前景成分画 像の画素値を設定し、 画素値が設定された方程式を基に、 画素値の差分から前景 の成分を抽出する。 ステップ S 9 0 5において、 演算部 9 0 4は、 処理単位に対 応する全ての前景の成分を抽出したか否かを判定し、 処理単位に対応する全ての 前景の成分を抽出していないと判定された場合、 ステップ S 9 0 4に戻り、 前景 の成分を抽出の処理を繰り返す。
ステップ S 9 0 5において、 処理単位に対応する全ての前景の成分を抽出した と判定された場合、 ステップ S 9 0 6に進み、 補正部 9 0 5は、 動き量 Vを基 に、 演算部 9 0 4から供給された前景の成分 FO l/v乃至 F08/vのそれぞれを補 正して、 動きボケを除去した前景の画素値 F01乃至 F08を算出する。
ステップ S 9 0 7において、 動きボケ付加部 9 0 6は、 動きボケの量を調整し た前景の画素値を算出して、 選択部 9 0 7は、 動きボケが除去された画像または 動きボケの量が調整された画像のいずれかを選択して、 選択した画像を出力して、 処理は終了する。
このように、 図 8 0に構成を示す動きボケ調整部 1 0 6は、 より簡単な演算で、 より迅速に、 動きボケを含む前景画像から動きボケを調整することができる。
ウイナー ' フィルタなど従来の動きボケを部分的に除去する手法が、 理想状態 では効果が認められるが、 量子化され、 ノイズを含んだ実際の画像に対して十分 な効果が得られないのに対し、 図 8 0に構成を示す動きボケ調整部 1 0 6におい ても、 量子化され、 ノイズを含んだ実際の画像に対しても十分な効果が認められ、 精度の良い動きボケの除去が可能となる。
図 8 5は、 画像処理装置の機能の他の構成を示すブロック図である。
図 2に示す部分と同様の部分には同一の番号を付してあり、 その説明は適宜省 略する。
領域特定部 1 0 3は、 領域情報を混合比算出部 1 0 4および合成部 1 0 0 1に 供給する。 混合比算出部 1 0 4は、 混合比 ひ を前景背景分離部 1 0 5および合成部 1 0 0 1に供給する。
前景背景分離部 1 0 5は、 前景成分画像を合成部 1 0 0 1に供給する。
合成部 1 0 0 1は、 混合比算出部 1 0 4から供給された混合比ひ、 領域特定 部 1 0 3から供給された領域情報を基に、 任意の背景画像と、 前景背景分離部 1 0 5から供給された前景成分画像とを合成して、 任意の背景画像と前景成分画像 とが合成された合成画像を出力する。
図 8 6は、 合成部 1 0 0 1の構成を示す図である。 背景成分生成部 1 0 2 1は, 混合比 ひ および任意の背景画像を基に、 背景成分画像を生成して、 混合領域画 像合成部 1 0 2 2に供給する。
混合領域画像合成部 1 0 2 2は、 背景成分生成部 1 0 2 1から供給された背景 成分画像と前景成分画像とを合成することにより、 混合領域合成画像を生成して- 生成した混合領域合成画像を画像合成部 1 0 2 3に供給する。
画像合成部 1 0 2 3は、 領域情報を基に、 前景成分画像、 混合領域画像合成部 1 0 2 2から供給された混合領域合成画像、 および任意の背景画像を合成して、 合成画像を生成して出力する。
このように、 合成部 1 0 0 1は、 前景成分画像を、 任意の背景画像に合成する ことができる。
特徴量である混合比 ひ を基に前景成分画像を任意の背景画像と合成して得ら れた画像は、 単に画素を合成した画像に比較し、 より自然なものと成る。
図 8 7は、 動きボケの量を調整する画像処理装置の機能の更に他の構成を示す プロック図である。 図 2に示す画像処理装置が領域特定と混合比ひ の算出を順 番に行うのに対して、 図 8 7に示す画像処理装置は、 領域特定と混合比 の算 出を並行して行う。
図 2のブロック図に示す機能と同様の部分には同一の番号を付してあり、 その 説明は省略する。
入力画像は、 混合比算出部 1 1 0 1、 前景背景分離部 1 1 0 2、 領域特定部 1 0 3、 およびオブジェク ト抽出部 1 0 1に供給される。
混合比算出部 1 1 0 1は、 入力画像を基に、 画素がカバードバックグラウンド 領域に属すると仮定した場合における推定混合比、 および画素がアンカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比を、 入力画像に 含まれる画素のそれぞれに対して算出し、 算出した画素がカバ一ドバックグラウ ンド領域に属すると仮定した場合における推定混合比、 および画素がアンカバー ドバックグラウンド領域に属すると仮定した場合における推定混合比を前景背景 分離部 1 1 0 2に供給する。
図 8 8は、 混合比算出部 1 1 0 1の構成の一例を示すブロック図である。
図 8 8に示す推定混合比処理部 4 0 1は、 図 4 7に示す推定混合比処理部 4 0 1と同じである。 図 8 8に示す推定混合比処理部 4 0 2は、 図 4 7に示す推定混 合比処理部 4 0 2と同じである。
推定混合比処理部 4 0 1は、 入力画像を基に、 カバードバックグラウンド領域 のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した推定 混合比を出力する。
推定混合比処理部 4 0 2は、 入力画像を基に、 アンカバードバックグラウンド 領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した 推定混合比を出力する。
前景背景分離部 1 1 0 2は、 混合比算出部 1 1 0 1から供給された、 画素が力 バードバックグラウンド領域に属すると仮定した場合における推定混合比、 およ び画素がアンカバードバックグラウンド領域に属すると仮定した場合における推 定混合比、 並びに領域特定部 1 0 3から供給された領域情報を基に、 入力画像か ら前景成分画像を生成し、 生成した前景成分画像を動きボケ調整部 1 0 6および 選択部 1 0 7に供給する。
図 8 9は、 前景背景分離部 1 1 0 2の構成の一例を示すブロック図である。 図 6 4に示す前景背景分離部 1 0 5と同様の部分には同一の番号を付してあり その説明は省略する。 選択部 1 1 2 1は、 領域特定部 1 0 3から供給された領域情報を基に、 混合比 算出部 1 1 0 1から供給された、 画素がカバードバックグラウンド領域に属する と仮定した場合における推定混合比、 および画素がアンカバードバックグラウン ド領域に属すると仮定した場合における推定混合比のいずれか一方を選択して、 選択した推定混合比を混合比ひ として分離部 6 0 1に供給する。
分離部 6 0 1は、 選択部 1 1 2 1から供給された混合比ひおよび領域情報を 基に、 混合領域に属する画素の画素値から前景の成分および背景の成分を抽出し、 抽出した前景の成分を合成部 6 0 3に供給すると共に、 背景の成分を合成部 6 0 5に供給する。
分離部 6 0 1は、 図 6 9に示す構成と同じ構成とすることができる。
合成部 6 0 3は、 前景成分画像を合成して、 出力する。 合成部 6 0 5は、 背景 成分画像を合成して出力する。
図 8 7に示す動きボケ調整部 1 0 6は、 図 2に示す場合と同様の構成とするこ とができ、 領域情報および動きべク トルを基に、 前景背景分離部 1 1 0 2から供 給された前景成分画像に含まれる動きボケの量を調整して、 動きボケの量が調整 された前景成分画像を出力する。
図 8 7に示す選択部 1 0 7は、 例えば使用者の選択に対応した選択信号を基に. 前景背景分離部 1 1 0 2から供給された前景成分画像、 および動きボケ調整部 1 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方を選 択して、 選択した前景成分画像を出力する。
このように、 図 8 7に構成を示す画像処理装置は、 入力画像に含まれる前景の オブジェク トに対応する画像に対して、 その画像に含まれる動きボケの量を調整 して出力することができる。 図 8 7に構成を示す画像処理装置は、 第 1の実施例 と同様に、 埋もれた情報である混合比ひ を算出して、 算出した混合比 を出力 することができる。
図 9 0は、 前景成分画像を任意の背景画像と合成する画像処理装置の機能の他 の構成を示すブロック図である。 図 8 5に示す画像処理装置が領域特定と混合比 ひ の算出をシリアルに行うのに対して、 図 9 0に示す画像処理装置は、 領域特 定と混合比 の算出をパラレルに行う。
図 8 7のプロック図に示す機能と同様の部分には同一の番号を付してあり、 そ の説明は省略する。
図 9 0に示す混合比算出部 1 1 0 1は、 入力画像を基に、 画素がカバードバッ クグラウンド領域に属すると仮定した場合における推定混合比、 および画素がァ ンカバードバックグラウンド領域に属すると仮定した場合における推定混合比を、 入力画像に含まれる画素のそれぞれに対して算出し、 算出した画素がカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比、 および画素が アンカバードバックグラウンド領域に属すると仮定した場合における推定混合比 を前景背景分離部 1 1 0 2および合成部 1 2 0 1に供給する。
図 9 0に示す前景背景分離部 1 1 0 2は、 混合比算出部 1 1 0 1から供給され た、 画素がカバードバックグラウンド領域に属すると仮定した場合における推定 混合比、 および画素がアンカバードバックグラウンド領域に属すると仮定した場 合における推定混合比、 並びに領域特定部 1 0 3から供給された領域情報を基に- 入力画像から前景成分画像を生成し、 生成した前景成分画像を合成部 1 2 0 1に 供給する。
合成部 1 2 0 1は、 混合比算出部 1 1 0 1から供給された、 画素がカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比、 および画素が アンカバードバックグラウンド領域に属すると仮定した場合における推定混合比, 領域特定部 1 0 3から供給された領域情報を基に、 任意の背景画像と、 前景背景 分離部 1 1 0 2から供給された前景成分画像とを合成して、 任意の背景画像と前 景成分画像とが合成された合成画像を出力する。
図 9 1は、 合成部 1 2 0 1の構成を示す図である。 図 8 6のプロック図に示す 機能と同様の部分には同一の番号を付してあり、 その説明は省略する。
選択部 1 2 2 1は、 領域特定部 1 0 3から供給された領域情報を基に、 混合比 算出部 1 1 0 1から供給された、 画素がカバードバックグラウンド領域に属する と仮定した場合における推定混合比、 および画素がアンカバードバックグラウン ド領域に属すると仮定した場合における推定混合比のいずれか一方を選択して、 選択した推定混合比を混合比ひ として背景成分生成部 1 0 2 1に供給する。 図 9 1に示す背景成分生成部 1 0 2 1は、 選択部 1 2 2 1から供給された混合 比ひおよび任意の背景画像を基に、 背景成分画像を生成して、 混合領域画像合 成部 1 0 2 2に供給する。
図 9 1に示す混合領域画像合成部 1 0 2 2は、 背景成分生成部 1 0 2 1から供 給された背景成分画像と前景成分画像とを合成することにより、 混合領域合成画 像を生成して、 生成した混合領域合成画像を画像合成部 1 0 2 3に供給する。 画像合成部 1 0 2 3は、 領域情報を基に、 前景成分画像、 混合領域画像合成部 1 0 2 2から供給された混合領域合成画像、 および任意の背景画像を合成して、 合成画像を生成して出力する。
このように、 合成部 1 2 0 1は、 前景成分画像を、 任意の背景画像に合成する ことができる。
次に、 コンポーネント信号として入力される入力画像を処理する本発明に係る 画像処理装匱について説明する。
この明細書において、 コンポーネントとは、 コンポーネント信号における、 輝 度信号および色差信号、 または R G B (Red-green-blue) 信号などの個別の信 号をいう。
以下の説明において、 コンポーネント 1は、 輝度値 Yとし、 コンポーネント 2は、 色差 Uとし、 コンポーネント 3は、 色差 Vとした例を基に説明する。 図 9 2は、 コンポーネント信号として入力される入力画像を基に、 領域情報を 生成する画像処理装置の一実施の形態を示す図である。
入力画像のコンポーネント信号の 1つであるコンポーネント 1は、 領域特定部 1 0 3— 1に入力される。 入力画像のコンポーネント信号の他の 1つであるコン ポーネント 2は、 領域特定部 1 0 3 _ 2に入力される。 入力画像のコンポーネン ト信号のさらに他の 1つであるコンポーネント 3は、 領域特定部 1 0 3— 3に入 力される。
領域特定部 1 0 3— 1は、 コンポーネント 1を基に、 領域情報 1を生成し、 生 成した領域情報 1を論理和処理部 1 3 0 1に供給する。 領域特定部 1 0 3— 1は, 領域特定部 1 0 3と同様の構成を有するので、 その説明は省略する。
領域特定部 1 0 3— 2は、 コンポーネント 2を基に、 領域情報 2を生成し、 生 成した領域情報 2を論理和処理部 1 3 0 1に供給する。 領域特定部 1 0 3— 2は、 領域特定部 1 0 3と同様の構成を有するので、 その説明は省略する。
領域特定部 1 0 3— 3は、 コンポーネント 3を基に、 領域情報 3を生成し、 生 成した領域情報 3を論理和処理部 1 3 0 1に供給する。 領域特定部 1 0 3— 3は- 領域特定部 1 0 3と同様の構成を有するので、 その説明は省略する。
論理和処理部 1 3 0 1は、 領域特定部 1 0 3— 1から供給された領域情報 1、 領域特定部 1 0 3— 2から供給された領域情報 2、 および領域特定部 1 0 3— 3 から供給された領域情報 3を基に、 領域情報 1が示す前景領域、 領域情報 2が示 す前景領域、 および領域情報 3が示す前景領域の論理和を演算して、 論理和によ り演算された前景領域を設定した領域情報を生成する。 論理和処理部 1 3 0 1は, 領域特定部 1 0 3 — 1から供給された領域情報 1、 領域特定部 1 0 3 — 2から供 給された領域情報 2、 および領域特定部 1 0 3— 3から供給された領域情報 3を 基に、 領域情報 1が示す背景領域、 領域情報 2が示す背景領域、 および領域情報 3が示す背景領域の論理和を演算して、 論理和により演算された背景領域を設定 した領域情報を生成する。
論理和処理部 1 3 0 1は、 領域特定部 1 0 3— 1から供給された領域情報 1、 領域特定部 1 0 3— 2から供給されだ領域情報 2、 および領域特定部 1 0 3— 3 から供給された領域情報 3を基に、 領域情報 1が示すカバードバックグラウンド 領域、 領域情報 2が示すカバードバックグラウンド領域、 および領域情報 3が示 すカバードバックグラウンド領域の論理和を演算して、 論理和により演算された カバードバックグラウンド領域を設定した領域情報を生成する。 論理和処理部 1
3 0 1は、 領域特定部 1 0 3— 1から供給された領域情報 1、 領域特定部 1 0 3 — 2から供給された領域情報 2、 および領域特定部 1 0 3— 3から供給された領 域情報 3を基に、 領域情報 1が示すアンカバードバックグラウンド領域、 領域情 報 2が示すァンカバードバックグラウンド領域、 および領域情報 3が示すァンカ バードバックグラウンド領域の論理和を演算して、 論理和により演算されたアン カバードバックグラウンド領域を設定した領域情報を生成する。
論理和処理部 1 3 0 1は、 前景領域、 背景領域、 カバードバックグラウンド領 域、 およびアンカバードバックグラウンド領域が設定された領域情報を出力する, 図 9 3は、 コンポーネント信号に含まれる、 コンポーネント 1、 コンポーネン ト 2、 およびコンポーネント 3の関係を説明する図である。 図 9 3において、 A は、 コンポーネント 1を示し、 Bは、 コンポーネント 2を示し、 Cは、 コンポ一 ネント 3を示す。
センサは、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3に 対応する、 例えば、 3つの CCDエリアセンサを有する。 コンポーネント 1に対 応する CCDェリァセンサの特性、 コンポーネント 2に対応する CCDェリァセン サの特性、 およびコンポーネント 3に対応する CCDエリアセンサの特性は、 同 一であり、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3に生 じる歪みは、 同一である。
センサは、 1つの前景に対応するォブジェク ト 1 1 1および 1つの背景に対応 するオブジェク ト 1 1 2を撮像して、 コンポーネント 1、 コンポーネント 2、 お よびコンポーネント 3を出力する。
1つの前景に対応するォブジェク ト 1 1 1および 1つの背景に対応するォブジ ェク ト 1 1 2を含む現実世界は、 1つであって、 現実世界で生じている現象は、 1つである。 すなわち、 例えば、 前景に対応するオブジェク ト 1 1 1の形状は、 1つであり、 前景に対応するオブジェク ト 1 1 1の動きは、 1つである。
従って、 1つの前景に対応するオブジェク ト 1 1 1および 1つの背景に対応す るォブジェク ト 1 1 2をセンサで撮像したとき、 コンポーネント 1の前景領域、 背景領域、 および混合領域、 並びに混合比 α、 コンポーネント 2の前景領域、 背 景領域、 および混合領域、 並びに混合比ひ、 並びにコンポーネント 3の前景領域、 背景領域、 および混合領域、 並びに混合比ひは、 それぞれ同一である。
しかしながら、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3を基に、 それぞれを同一の処理を行って、 それぞれに、 同一の領域情報および 混合比 αを算出できるとは限らない。
例えば、 色差信号であるコンポーネント 3に対応する色差信号がほぼ 0となる 色彩を有する、 前景に対応するオブジェク ト 1 1 1および背景に対応するォブジ ェク ト 1 1 2を撮像したとき、 輝度信号であるコンポーネント 1および色差信号 であるコンポーネント 2は、 有効な値を含むが、 色差信号であるコンポーネント 3は、 有効な値をほとんど含まない。 このような場合、 コンポーネント 3を基に、 領域信号および混合比ひを算出しても、 有意な値を求めることはできない。
また、 例えば、 輝度信号であるコンポーネント 1が時間方向および空間方向に ほとんど変化せず、 色差信号のみが時間方向または空間方向の変化するとき、 コ ンポーネント 1を基に、 領域信号および混合比ひを算出しても、 有意な値を求め ることはできず、 コンポーネント 2またはコンポーネント 3を基に、 領域信号お よび混合比 αを算出すれば、 有意な値を求めることができる。
また、 特定のコンポーネントに対応する CCDエリアセンサがエラーを起こす 場合があり得る。
以上のように、 算出しょうとする 1つの領域情報および混合比ひ に対応する、 複数のコンポーネントを使用して処理を実行することにより、 例えば、 1つのコ ンポーネント信号または 1つのコンポジッ ト信号を使用した処理に比較して、 よ り精度の高い結果が得られる。
また、 複数のコンポーネントを使用して統計処理を行うとき、 データが増える ので、 処理結果の精度がより向上する。 また、 例えば、 複数のコンポーネントに 最小自乗法を適用して算出された混合比 αの精度は、 1つのコンポーネント信号 または 1つのコンポジッ ト信号を使用した処理により算出された混合比 αの精度 に比較して、 より高い。 次に、 図 9 4のフローチャートを参照して、 図 9 2に構成を示す画像処理装置 による、 コンポーネント信号を利用した領域判定の処理を説明する。
ステップ S 1 3 0 1において、 領域特定部 1 0 3— 1は、 コンポーネント 1を 基に、 領域特定の処理を実行して、 領域情報 1を生成し、 生成した領域情報 1を 論理和処理部 1 3 0 1に供給する。 ステップ S 1 3 0 1の処理は、 ステップ S 1 1の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 3 0 2において、 領域特定部 1 0 3— 2は、 コンポーネント 2を 基に、 領域特定の処理を実行して、 領域情報 2を生成し、 生成した領域情報 2を 論理和処理部 1 3 0 1に供給する。 ステップ S 1 3 0 2の処理は、 ステップ S 1 1の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 3 0 3において、 領域特定部 1 0 3 _ 3は、 コンポーネント 3を 基に、 領域特定の処理を実行して、 領域情報 3を生成し、 生成した領域情報 3を 論理和処理部 1 3 0 1に供給する。 ステップ S 1 3 0 3の処理は、 ステップ S 1 1の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 3 0 4において、 論理和処理部 1 3 0 1は、 コンポーネント 1に より特定された前景領域、 コンポーネント 2により特定された前景領域、 および コンポーネント 3により特定された前景領域の論理和を求めて、 論理和により演 算された前景領域を領域情報に設定する。
ステップ S 1 3 0 5において、 論理和処理部 1 3 0 1は、 コンポーネント 1に より特定された背景領域、 コンポーネント 2により特定された背景領域、 および コンポーネント 3により特定された背景領域の論理和を求めて、 論理和により演 算された背景領域を領域情報に設定する。
ステップ S 1 3 0 6において、 論理和処理部 1 3 0 1は、 コンポーネント 1に より特定されたカバードバックグラウンド領域、 コンポーネント 2により特定さ れたカバードバックグラウンド領域、 およびコンポーネント 3により特定された カバードバックグラウンド領域の論理和を求めて、 論理和により演算されたカバ 一ドバックグラウンド領域を領域情報に設定する。 ステップ S I 3 0 7において、 論理和処理部 1 3 0 1は、 コンポーネント 1に より特定されたアンカバードバックグラウンド領域、 コンポーネント 2により特 定されたアンカバードバックグラウンド領域、 およびコンポーネント 3により特 定されたアンカバードバックグラウンド領域の論理和を求めて、 論理和により演 算されたアンカバードバックグラウンド領域を領域情報に設定する。 論理和処理 部 1 3 0 1は、 前景領域、 背景領域、 カバードバックグラウンド領域、 およびァ ンカバードバックグラウンド領域を設定した領域情報を出力して、 処理は終了す る。
このように、 図 9 2に構成を示す画像処理装置は、 コンポーネント信号の各コ ンポーネント毎に領域を特定し、 特定された領域の論理和を求めて最終的な領域 情報を生成する。 図 9 2に構成を示す画像処理装置は、 前景領域、 背景領域、 力 バードバックグラウンド領域、 およびアンカバードバックグラウンド領域の各領 域を漏らさず特定した領域情報を出力することができる。
図 9 5は、 コンポーネント信号として入力される入力画像を基に、 領域情報を 生成する画像処理装置の他の実施の形態を示す図である。
図 9 2に示す場合と同様の部分には同一の番号を付してあり、 その説明は省略 する。
論理積処理部 1 3 2 1は、 領域特定部 1 0 3— 1から供給された領域情報 1、 領域特定部 1 0 3— 2から供給された領域情報 2、 および領域特定部 1 0 3— 3 から供給された領域情報 3を基に、 領域情報 1が示す前景領域、 領域情報 2が示 す前景領域、 および領域情報 3が示す前景領域の論理積を演算して、 論理積によ り演算された前景領域を設定した領域情報を生成する。 論理積処理部 1 3 2 1は、 領域特定部 1 0 3— 1から供給された領域情報 1、 領域特定部 1 0 3— 2から供 給された領域情報 2、 および領域特定部 1 0 3— 3から供給された領域情報 3を 基に、 領域情報 1が示す背景領域、 領域情報 2が示す背景領域、 および領域情報 3が示す背景領域の論理積を演算して、 論理積により演算された背景領域を設定 した領域情報を生成する。 論理積処理部 1 3 2 1は、 領域特定部 1 0 3— 1から供給された領域情報 1、 領域特定部 1 0 3— 2から供給された領域情報 2、 および領域特定部 1 0 3— 3 から供給された領域情報 3を基に、 領域情報 1が示すカバードバックグラウンド 領域、 領域情報 2が示すカバードバックグラウンド領域、 および領域情報 3が示 すカバードバックグラウンド領域の論理積を演算して、 論理積により演算された カバードバックグラウンド領域を設定した領域情報を生成する。 論理積処理部 1 3 2 1は、 領域特定部 1 0 3— 1から供給された領域情報 1、 領域特定部 1 0 3 一 2から供給された領域情報 2、 および領域特定部 1 0 3— 3から供給された領 域情報 3を基に、 領域情報 1が示すアンカバードバックグラウンド領域、 領域情 報 2が示すアンカバードバックグラウンド領域、 および領域情報 3が示すアンカ バードバックグラウンド領域の論理積を演算して、 論理積により演算されたアン カバードバックグラウンド領域を設定した領域情報を生成する。
論理積処理部 1 3 2 1は、 前景領域、 背景領域、 カバードバックグラウンド領 域、 およびアンカバードバックグラウンド領域が設定された領域情報を出力する, 次に、 図 9 6のフローチャートを参照して、 図 9 5に構成を示す画像処理装置 による、 コンポーネントを利用した領域判定の処理を説明する。
ステップ S 1 3 2 1において、 領域特定部 1 0 3— 1は、 コンポーネント 1を 基に、 領域特定の処理を実行して、 領域情報 1を生成し、 生成した領域情報 1を 論理積処理部 1 3 2 1に供給する。 ステップ S 1 3 2 1の処理は、 ステップ S 1 1の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 3 2 2において、 領域特定部 1 0 3— 2は、 コンポーネント 2を 基に、 領域特定の処理を実行して、 領域情報 2を生成し、 生成した領域情報 2を 論理積処理部 1 3 2 1に供給する。 ステップ S 1 3 2 2の処理は、 ステップ S 1 1の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 3 2 3において、 領域特定部 1 0 3— 3は、 コンポーネント 3を 基に、 領域特定の処理を実行して、 領域情報 3を生成し、 生成した領域情報 3を 論理積処理部 1 3 2 1に供給する。 ステップ S 1 3 2 3の処理は、 ステップ S 1 1の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 3 2 4において、 論理積処理部 1 3 2 1は、 コンポーネント 1に より特定された前景領域、 コンポーネント 2により特定された前景領域、 および コンポーネント 3により特定された前景領域の論理積を求めて、 論理積により演 算された前景領域を領域情報に設定する。
ステップ S 1 3 2 5において、 論理積処理部 1 3 2 1は、 コンポーネント 1に より特定された背景領域、 コンポーネント 2により特定された背景領域、 および コンポーネント 3により特定された背景領域の論理積を求めて、 論理積により演 算された背景領域を領域情報に設定する。
ステップ S 1 3 2 6において、 論理積処理部 1 3 2 1は、 コンポーネント 1に より特定されたカバードバックグラウンド領域、 コンポーネント 2により特定さ れたカバードバックグラウンド領域、 およびコンポーネント 3により特定された カバードバックグラウンド領域の論理積を求めて、 論理積により演算されたカバ 一ドバックグラウンド領域を領域情報に設定する。
ステップ S 1 3 2 7において、 論理積処理部 1 3 2 1は、 コンポーネント 1に より特定されたアンカバードバックグラウンド領域、 コンポーネント 2により特 定されたアンカバードバックグラウンド領域、 およびコンポーネント 3により特 定されたアンカバードバックグラウンド領域の論理積を求めて、 論理積により演 算されたアンカバードバックグラウンド領域を領域情報に設定する。 論理積処理 部 1 3 2 1は、 前景領域、 背景領域、 カバードバックグラウンド領域、 およびァ ンカバードバックグラウンド領域を設定した領域情報を出力して、 処理は終了す る。
このように、 図 9 5に構成を示す画像処理装置は、 各コンポーネント毎に領域 を特定し、 特定された領域の論理積を求めて最終的な領域情報を生成する。 図 9 5に構成を示す画像処理装置は、 エラーの少ない領域情報を出力することができ る。
図 9 7は、 コンポーネント信号として入力される入力画像を基に、 領域情報を 生成する画像処理装置のさらに他の実施の形態を示す図である。
領域特定部 1 3 3 1は、 入力されたコンポーネント信号に含まれるコンポーネ ント 1、 コンポーネント 2、 およびコンポーネント 3を画素毎に加算し、 画素毎 に加算されたコンポーネント 1、 コンポーネント 2、 およびコンポーネント 3を 基に、 画素毎に、 動き領域であるか、 または静止領域であるかを判定する。 領域 特定部 1 3 3 1は、 動き領域または静止領域の判定の結果を基に、 領域情報を生 成し、 生成した領域情報を出力する。
図 9 8乃至図 1 0 2を参照して、 領域特定部 1 3 3 1の処理を説明する。 画像の統計的な性質から、 図 9 8に示すように、 画像の静止領域において、 時 間相関は、 空間相関に比較して強い。 また、 画像の動き領域において、 逆に、 空 間相関は、 時間相関に比較して強い。
領域特定部 1 3 3 1は、 動き領域または静止領域の判定のための空間相関を算 出するとき、 図 9 9に示すように、 例えば、 注目している画素を中心として、 5 画素 X 5画素のブロックの画素について、 隣り合う画素の画素値の差分を算出し て、 算出した差分の絶対値の総和を求める。 領域特定部 1 3 3 1は、 算出した差 分の絶対値の総和を、 差分の数で除算することにより、 空間相関に対応する相関 値を算出する。
例えば、 領域特定部 1 3 3 1は、 注目している画素が x33であって、 プロッ クに含まれる画素の画素値が x l l乃至 x55であるとき、 式 (1 1 9 ) に示す、 隣り合う画素の画素値の差分の絶対値の総和である差分絶対値和を算出する。 差分絶対値和 = \(xU-xl2)\+\(xU-xl3)\+\(xl3-xl4)\+-
Figure imgf000118_0001
+ |(jdU )|+|(jcl/-jdJ)|+|(Jci/ - x4J)|十… + I (x25-x35)\+\(x35-x45)\+\(x45-x55) \
(U9)
領域特定部 1 3 3 1は、 差分絶対値和を、 差分の数、 すなわち、 40で除算す ることにより、 空間相関に対応する相関値を算出する。 また、 領域特定部 1 3 3 1は、 動き領域または静止領域の判定のための時間相 関を算出するとき、 注目する画素の画素値と、 前のフレームの対応する位置の画 素の画素値との差分を算出すると共に、 注目する画素の画素値と、 次のフレーム の対応する位置の画素の画素値との差分を算出する。 より強い相関を示す差分を 使用して、 境界において、 領域が広く判定されることを防止するため、 領域特定 部 1 3 3 1は、 前のフレームの対応する位置の画素の画素値との差分、 および前 のフレームの対応する位置の画素の画素値との差分のうち、 値の小さい差分を選 択する。
領域特定部 1 3 3 1は、 選択した差分の絶対値の総和を求める。 領域特定部 1 3 3 1は、 算出した差分の絶対値の総和を、 差分の数で除算することにより、 時 間相関に対応する相関値を算出する。
例えば、 領域特定部 1 3 3 1は、 注目しているフレームがフレーム #nである とき、 図 1 0 0に示すように、 例えば、 注目している画素 x22を中心として、 3画素 X 3画素のプロックのそれぞれの画素について差分の算出する。
領域特定部 1 3 3 1は、 フレーム #nの画素の画素値 xll と、 フレーム ίίη-lの 対応する位置の画素の画素値 xll との差分、 およびフレーム #nの画素の画素値 xll と、 フレーム #n+l の対応する位置の画素の画素値 xll との差分を算出する c 領域特定部 1 3 3 1は、 フレーム #n-lの対応する位置の画素の画素値 xll との 差分、 およびフレーム #n+l の対応する位置の画素の画素値 xll との差分のうち, 値の小さい差分を選択する。
同様に、 領域特定部 1 3 3 1は、 フレーム #nの画素の画素値 xl2乃至 x33の それぞれと、 フレーム ίίη- 1の対応する位置の画素の画素値 χ12乃至 χ33のそれ ぞれとの差分、 およびフレーム の画素の画素値 χ12乃至 χ33のそれぞれと、 フレーム +1の対応する位置の画素の画素値 χ12乃至 χ33のそれぞれとの差分 を算出する。 領域特定部 1 3 3 1は、 フレーム ίίη-lの対応する位置の画素の画 素値 χ12乃至 χ33のそれぞれとの差分、 およびフレーム #η+1の対応する位置の 画素の画素値 χ12乃至 χ33のそれぞれとの対応する差分のうち、 値の小さい差 分を選択する。
領域特定部 1 3 3 1は、 選択した 9つの差分の絶対値の総和を求める。 領域特 定部 1 3 3 1は、 算出した差分の絶対値の総和を、 差分の数、 すなわち 9で除 算することにより、 時間相関に対応する相関値を算出する。
なお、 領域特定部 1 3 3 1は、 1つの画素毎に時間相関および空間相関を算出 するようにしてもよレ、。 また、 領域特定部 1 3 3 1は、 時間相関および空間相関 を示す値として、 差分絶対値和に限らず、 差分自乗和などその他の相関を示す値 を算出するようにしてもよレ、。
なお、 時間相関および空間相関を算出するブロックに含まれる画素の数は、 本 発明を限定するものではない。
図 1 0 1は、 静止領域における時間相関および空間相関を説明する図である。 例えば、 静止領域において、 画像が静止しているので、 注目している画素の画素 値 Jは、 隣接するフレームにおける、 位置が対応する画素の画素値 Jと同一で ある。 従って、 静止領域において、 時間相関は、 極めて強い。
これに対して、 注目している画素に隣接する画素は、 画素値 Jと異なる、 画 素値 Iまたは画素値 κを有する。
このように、 静止領域において、 空間相関は、 時間相関に比較して、 弱い。 図 1 0 2は、 動き領域における時間相関および空間相関を説明する図である。 例えば、 動き領域の、 注目している画素に含まれる画像の成分 1/4, J/4,K/4、 および L/4のうち、 画像の成分 1/4, J/4、 および K/4は、 隣の画素に含まれ、 画像の成分 J/4, K/4、 および L/4は、 他の隣の画素に含まれる。 従って、 動き領 域において、 空間相関は、 強い。
これに対して、 注目している画素に対応する、 隣接するフレームの画素は、 異 なる画像の成分を含む。
このように、 動き領域において、 時間相関は、 空間相関に比較して、 弱い。 以上のように、 領域特定部 1 3 3 1は、 空間相関および時間相関を求めて、 空 間相関と時間相関を比較することにより、 注目画素が動き領域に含まれるか、 ま たは静止領域に含まれるかを知ることができる。
領域特定部 1 3 3 1は、 フレームに含まれる全ての画素について、 動き領域ま たは静止領域の判定を実行する。
領域特定部 1 3 3 1は、 動き領域または静止領域の判定の結果を基に、 画素毎 に、 前景領域、 背景領域、 カバードバックグラウンド領域、 およびアンカバード バックグラウンド領域のいずれかに属するかを判定して、 領域情報を生成する。 例えば、 前景領域と同一の領域が動き領域として判定されるとき、 領域特定部 1 3 3 1は、 以下のように、 画素毎に、 前景領域、 背景領域、 カバードバックグ ラウンド領域、 およびアンカバードバックグラウンド領域を判定する。 領域特定 部 1 3 3 1は、 フレーム ί!ηの注目している画素が動きと判定されたとき、 フレ ーム の注目している画素が前景領域に属すると判定する。
領域特定部 1 3 3 1は、 フレーム の注目している画素が静止と判定され、 フレーム の注目している画素の画像上の位置と同一の位置にあるフレーム #η+ 1の画素が動きと判定されたとき、 フレーム #ηの注目している画素がカバー ドバックグラウンド領域に属すると判定する。
領域特定部 1 3 3 1は、 フレーム の注目している画素が静止と判定され、 フレーム ftnの注目している画素の画像上の位置と同一の位置にあるフレーム fin- 1の画素が動きと判定されたとき、 フレーム ttnの注目している画素がアンカバ ードバックグラウンド領域に属すると判定する。
領域特定部 1 3 3 1は、 静止と判定され、 カバードバックグラウンド領域また はアンカバードバックグラウンド領域に属さない画素を背景領域に属すると判定 する。
なお、 前景領域および混合領域からなる領域が動き領域として判定されるとき 領域特定部 1 3 3 1は、 隣接するフレームの静止領域を参照して、 画素毎に、 前 景領域、 背景領域、 力バ一ドバックグラウンド領域、 およびアンカバードバック グラウンド領域を判定する。
図 1 0 3乃至図 1 0 6を参照して、 処理結果の例について説明する。 図 1 0 3は、 領域特定部 1 3 3 1に入力されたコンポーネント 1、 コンポーネ ント 2、 およびコンポーネント 3に対応する入力画像の例を示す図である。
図 1 0 4は、 図 1 0 3に示す入力画像に対応して、 領域特定部 1 3 3 1力 1 画素毎に、 動き領域または静止領域を判定した結果を示す図である。 図 1 0 4に おいて、 白は、 動き領域を示し、 黒は、 静止領域を示す。 誤判定されている部分 があるが、 動き領域または静止領域が、 全体として、 ほぼ特定されていることが わ力 る。
図 1 0 5は、 図 1 0 3に示す入力画像に対応して、 領域特定部 1 3 3 1力 1 5画素 X 1 5画素のブロックを単位として、 動き領域または静止領域を判定した 結果を示す図である。 図 1 0 5において、 白は、 動き領域を示し、 黒は、 静止領 域を示す。 動き領域または静止領域が、 ほぼ正確に特定されていることがわかる, 図 1 0 6は、 図 1 0 5に示す、 動き領域または静止領域の判定の結果を基に、 領域特定部 1 3 3 1による、 前景領域、 背景領域、 カバードバックグラウンド領 域、 およびアンカバードバックグラウンド領域の判定の結果を示す図である。 図 1 0 6において、 Aは、 背景領域を示し、 Bは、 アンカバードバックグラウンド 領域を示し、 Cは、 前景領域を示し、 Dは、 カバードバックグラウンド領域を示 す。
ほぼ正確な動き領域または静止領域の特定に基づいて、 領域が判定されている ので、 前景領域、 背景領域、 カバードバックグラウンド領域、 およびアンカバー ドバックグラウンド領域をほぼ正確に特定できていることがわかる。
次に、 図 1 0 7のフローチャートを参照して、 領域特定部 1 3 3 1による、 コ ンポーネントを利用した領域判定の処理を説明する。
ステップ S 1 3 3 1において、 領域特定部 1 3 3 1は、 各画素毎に、 コンポ一 ネントの総和を算出する。
ステップ S 1 3 3 2において、 領域特定部 1 3 3 1は、 例えば、 所定の数の画 素からなるブロックを単位として、 空間相関を求める。 ステップ S 1 3 3 3にお いて、 領域特定部 1 3 3 1は、 例えば、 所定の数の画素からなるブロックを単位 として、 時間相関を求める。
ステップ S 1 3 3 4において、 領域特定部 1 3 3 1は、 各画素毎に、 空間相関 と時間相関とを比較して、 空間相関より時間相関が強いか否かを判定し、 空間相 関より時間相関が強いと判定された場合、 ステップ S 1 3 3 5に進み、 注目して いる画素を静止領域と設定し、 処理は、 ステップ S 1 3 3 7に進む。
ステップ S 1 3 3 4において、 空間相関より時間相関が強くないと判定された 場合、 時間相関より空間相関が強いので、 ステップ S 1 3 3 6に進み、 領域特定 部 1 3 3 1は、 注目している画素を動き領域と設定し、 処理は、 ステップ S 1 3 3 7に進む。
ステップ S 1 3 3 4乃至ステップ S 1 3 3 6の処理は、 フレーム内の全ての画 素のそれぞれについて、 実行される。
ステップ S 1 3 3 7において、 領域特定部 1 3 3 1は、 静止または動きの設定 を基に、 前景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバ ―ドバックグラウンド領域を判定し、 処理は終了する。
例えば、 ステップ S 1 3 3 7において、 フレーム ttnの注目している画素が動 きと判定されたとき、 領域特定部 1 3 3 1は、 フレーム #nの注目している画素 が前景領域に属すると判定する。
フレーム #nの注目している画素が静止と判定され、 フレーム thの注目してい る画素の画像上の位置と同一の位置にあるフレーム ίίη+ lの画素が動きと判定さ れたとき、 領域特定部 1 3 3 1は、 フレーム ίίηの注目している画素がカバード バックグラウンド領域に属すると判定する。
フレーム ftnの注目している画素が静止と判定され、 フレーム ίίηの注目してい る画素の画像上の位置と同一の位置にあるフレーム ίίη-lの画素が動きと判定さ れたとき、 領域特定部 1 3 3 1は、 フレーム の注目している画素がアンカバ 一ドバックグラウンド領域に属すると判定する。
領域特定部 1 3 3 1は、 静止と判定され、 カバードバックグラウンド領域また はアンカバードバックグラウンド領域に属さない画素を背景領域に属すると判定 する。
このように、 図 9 7に示す領域特定部 1 3 3 1は、 コンポーネントを基に、 前 景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバック グラウンド領域を特定することができる。
図 1 0 8は、 コンポーネント信号として入力される入力画像および領域情報を 基に、 混合比 αを算出する画像処理装置の一実施の形態を示す図である。
混合比算出部 1 0 4— 1は、 領域情報およびコンポーネント 1を基に、 混合比 1を算出し、 算出した混合比 1を平均処理部 1 4 0 1に供給する。 混合比算出部 1 0 4— 1は、 混合比算出部 1 0 4と同様の構成を有するので、 その説明は省略 する。
混合比算出部 1 0 4— 2は、 領域情報およびコンポーネント 2を基に、 混合比 2を算出し、 算出した混合比 2を平均処理部 1 4 0 1に供給する。 混合比算出部 1 0 4— 2は、 混合比算出部 1 0 4と同様の構成を有するので、 その説明は省略 する。
混合比算出部 1 0 4— 3は、 領域情報およびコンポーネント 3を基に、 混合比 3を算出し、 算出した混合比 3を平均処理部 1 4 0 1に供給する。 混合比算出部 1 0 4— 3は、 混合比算出部 1 0 4と同様の構成を有するので、 その説明は省略 する。
平均処理部 1 4 0 1は、 混合比算出部 1 0 4— 1から供給された混合比 1、 混 合比算出部 1 0 4— 2から供給された混合比 2、 および混合比算出部 1 0 4— 3 から供給された混合比 3の平均値を算出して、 算出した平均値を混合比 αとして 出力する。
図 1 0 9において Αで示すように、 所定の画素における、 コンポーネント 1で ある輝度値 Yに対応する混合比ひ、 コンポーネント 2である色差 Uに対応する 混合比ひ、 コンポーネント 3である色差 Vに対応する混合比 は同一である。 図 1 0 8に構成を示す画像処理装置は、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3を使用して混合比ひ を算出することにより、 より正確 な混合比 ひ を算出することができるようになる。
図 1 1 0のフローチヤ一トを参照して、 図 1 0 8に構成を示す画像処理装置に よる、 コンポーネント信号を利用した混合比ひの算出の処理を説明する。
ステップ S 1 4 0 1において、 混合比算出部 1 0 4— 1は、 領域情報およびコ ンポーネント 1を基に、 混合比 1を算出する。 混合比算出部 1 0 4— 1は、 算出 した混合比 1を平均処理部 1 4 0 1に供給する。 ステップ S 1 4 0 1の処理は、 ステップ S 1 2の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 4 0 2において、 混合比算出部 1 0 4— 2は、 領域情報およびコ ンポーネント 2を基に、 混合比 2を算出する。 混合比算出部 1 0 4— 2は、 算出 した混合比 2を平均処理部 1 4◦ 1に供給する。 ステップ S 1 4 0 2の処理は、 ステップ S 1 2の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 4 0 3において、 混合比算出部 1 0 4— 3は、 領域情報およびコ ンポーネント 3を基に、 混合比 3を算出する。 混合比算出部 1 0 4— 3は、 算出 した混合比 3を平均処理部 1 4 0 1に供給する。 ステップ S 1 4 0 3の処理は、 ステップ S 1 2の処理と同様なので、 その詳細の説明は省略する。
ステップ S 1 4 0 4において、 平均処理部 1 4 0 1は、 コンポ一ネント 1を基 にした混合比 1、 コンポーネント 2を基にした混合比 2、 およびコンポーネント 3を基にした混合比 3の平均値を求めて、 算出した平均値を混合比 ひ として出 力して、 処理は終了する。
このように、 図 1 0 8に構成を示す画像処理装置は、 各コンポーネント毎に混 合比を算出し、 算出された混合比の平均値を求めて最終的な混合比 ひ を生成す る。 図 1 0 8に構成を示す画像処理装置は、 1つのコンポーネントで発生したェ ラーによる影響を少なく した混合比 ひ を算出することができる。
図 1 1 1は、 コンポーネント信号として入力される入力画像および領域情報を 基に、 混合比 αを算出する画像処理装置の他の実施の形態を示す図である。 図 1 0 8に示す場合と同様の部分には、 同一の番号を付してあり、 その説明は省略す る。 多数決処理部 1 4 1 1は、 混合比算出部 1 0 4— 1から供給された混合比 1 、 混合比算出部 1 0 4— 2から供給された混合比 2、 および混合比算出部 1 0 4 _ 3から供給された混合比 3を予め定めた区間で分類し、 区間の代表値に対応する 度数を求める。 多数決処理部 1 4 1 1は、 代表値に対応する度数を基に、 混合比 a を定めて、 定めた混合比 を出力する。
例えば、 区間の幅が 0. 1であり、 代表値が、 0. 0, 0. 1, 0. 2, 0. 3, 0. 4, 0. 5, 0. 6, 0. 7, 0. 8, 0. 9、 および 1. 0であるとき、 多数決処理部 1 4 1 1は、 混合比 1が 0. 12であり、 混合比 2が 0. 13であり、 混合比 3が 0. 41であるとき、 代表値 0. 1の度数を 2とし、 代表値 0. 4の度数を 1とする。 多数決処理部 1 4 1 1は、 最も大きい度数 2に対応する代表値 0. 1を混合比 ひ に設定する。
図 1 1 2のフローチヤ一トを参照して、 図 1 1 1に構成を示す画像処理装置に よる、 コンポーネントを利用した混合比ひの算出の処理を説明する。
ステップ S 1 4 1 1乃至ステップ S 1 4 1 3の処理のそれぞれは、 ステップ S 1 4 0 1乃至ステップ S 1 4 0 3の処理のそれぞれと同様なので、 その説明は省 略する。
ステップ S 1 4 1 4において、 多数決処理部 1 4 1 1は、 各コンポーネントの 混合比を、 予め定めた区間で分類し、 度数を求める。
ステップ S 1 4 1 5において、 多数決処理部 1 4 1 1は、 度数を基に、 混合比 α を定めて、 処理は終了する。
このように、 図 1 1 1に構成を示す画像処理装置は、 各コンポーネント毎に混 合比を算出し、 算出された混合比の度数を基に、 最終的な混合比 ひ を生成する, 図 1 1 1に構成を示す画像処理装置は、 1つのコンポーネントのエラ一による、 大きく値が異なる混合比の影響を除去した、 信頼性の高い混合比ひ を算出する ことができる。
図 1 1 3は、 コンポーネント信号として入力される入力画像および領域情報を 基に、 混合比ひを算出する画像処理装置のさらに他の実施の形態を示す図である, 混合比算出部 1 4 2 1は、 画素毎に、 入力されたコンポーネント 1、 コンポ一 ネント 2、 およびコンポーネント 3の画素値を加算し、 加算されたコンポーネン ト 1、 コンポーネント 2、 およびコンポーネント 3の画素値、 並びに領域情報を 基に、 混合比 ひ を算出し、 算出した混合比 ひ を出力する。
図 1 1 4は、 混合比算出部 1 4 2 1の構成を示すブロック図である。 加算部 1 4 3 1は、 画素毎に、 入力されたコンポーネント 1、 コンポーネント 2、 および コンポーネント 3の画素値を加算し、 加算された値を推定混合比処理部 4 0 1お よび推定混合比処理部 4 0 2に供給する。
推定混合比処理部 4 0 1は、 画素毎に、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3の画素値が加算された値を基に、 カバードバックグラゥ ンド領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出 した推定混合比を混合比決定部 4 0 3に供給する。
カバードバックグラウンド領域に属する画素の混合比 a を示す式 (2 1 ) は、 コンポーネント毎に、 式 (1 2 0 ) 乃至式 (1 2 2 ) で表現することができる。
ひ Υ = (CY-NY) I (ΡΥ-ΝΥ) ( 1 2 0 ) a\i≡ (CU-NU) / (PU-NU) ( 1 2 1 ) a Y= (CV-NV) I (PV-NV) ( 1 2 2 )
CYは、 輝度値 Yであるコンポーネント 1における、 フレーム #nの画素値を示 す。 NYは、 コンポーネント 1における、 フレーム ttnの後のフレーム ίίη+lの画素 値を示す。 ΡΥは、 コンポーネント 1における、 フレーム #ηの前のフレーム #η - 1 の画素イ直を示す。
CUは、 色差 Uであるコンポーネント 2における、 フレーム #η の画素値を示す c NUは、 コンポーネント 2における、 フレーム ίίηの後のフレーム #n+lの画素値を 示す。 PUは、 コンポーネント 2における、 フレーム ttnの前のフレーム #n- 1の画 素値を示す。
CVは、 色差 Vであるコンポーネント 3における、 フレーム #nの画素値を示す c NVは、 コンポーネント 3における、 フレーム #nの後のフレーム ίίη+lの画素値を 示す。 PVは、 コンポーネント 3における、 フレーム ttnの前のフレーム #η- 1の画 素値を示す。
算出しょうとする混合比 ひ は、 コンポーネント 1乃至コンポーネント 3にお いて、 同一の値なので、 式 (1 2 3) が成立する。
αΥ=αυ=αν ( 1 2 3)
式 (1 2 0) 乃至式 (1 2 3) から式 (1 2 4) を導くことができる。
(CY-NY) I (ΡΥ-ΝΥ) = (CU-NU) / (PU-NU) = (CV-NV) / (PV-NV) ( 1 2 4)
さらに、 式 (1 2 4) から、 混合比ひ を算出するための式 (1 2 5) を導く ことができる。
= ( (CY+CU+CV) - (NY+NU+NV) ) / ( (PY+PU+PV)― (NY+NU+NV) ) ( 1 2 5) このように、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3 の画素値を加算した値を基に、 混合比 αを算出することができる。
推定混合比処理部 40 2は、 画素毎に、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3の画素値が加算された値を基に、 アンカバードバックグ ラウンド領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した推定混合比を混合比決定部 4 0 3に供給する。
混合比決定部 40 3は、 対象となる画素が前景領域に属する場合、 0を混合比 a に設定し、 対象となる画素が背景領域に属する場合、 1を混合比 ひ に設定し、 対象となる画素がカバードバックグラウンド領域に属する場合、 推定混合比処理 部 4 0 1から供給された推定混合比を混合比 ひ に設定し、 対象となる画素がァ ンカバードバックグラウンド領域に属する場合、 推定混合比処理部 40 2から供 給された推定混合比を混合比ひ に設定する。 混合比決定部 4 0 3は、 領域情報 を基に設定した混合比ひ を出力する。
このように、 混合比算出部 1 4 2 1は、 コンポーネント 1、 コンポーネント 2、 およびコンポーネント 3を使用して、 1つの信号を基に算出した混合比 ひ に比 較して、 より精度の高い混合比ひ を算出することができる。
次に、 図 1 1 5のフローチヤ一トを参照して、 図 1 1 3の画像処理装置による, コンポーネント信号として入力される入力画像および領域情報を基に、 混合比 α を算出する処理を説明する。 ステップ S 1 4 2 1において、 加算部 1 4 3 1は、 画素毎に、 入力されたコンポーネント 1、 コンポーネント 2、 およびコンポーネ ント 3の画素値を合計する。 加算部 1 4 3 1は、 合計された画素値を推定混合比 処理部 4 0 1および推定混合比処理部 4 0 2に供給する。
ステップ S 1 4 2 2において、 推定混合比処理部 4 0 1は、 合計された画素値 を基に、 カバードバックグラウンド領域のモデルに対応する演算により、 画素毎 に推定混合比を算出する。 推定混合比処理部 4 0 1は、 算出した推定混合比を混 合比決定部 4 0 3に供給する。 ステップ S 1 4 2 2の処理の詳細は、 ステップ S 4 0 2と同様なので、 その説明は省略する。
ステップ S 1 4 2 3において、 推定混合比処理部 4 0 2は、 合計された画素値 を基に、 アンカバードバックグラウンド領域のモデルに対応する演算により、 画 素毎に推定混合比を算出する。 推定混合比処理部 4 0 2は、 算出した推定混合比 を混合比決定部 4 0 3に供給する。 ステップ S 1 4 2 3の処理の詳細は、 ステツ プ S 4 0 3と同様なので、 その説明は省略する。
ステップ S 1 4 2 4において、 混合比算出部 1 0 4は、 フレーム全体について. 混合比を推定したか否かを判定し、 フレーム全体について、 混合比を推定してい ないと判定された場合、 ステップ S 1 4 2 2に戻り、 次の画素について混合比を 推定する処理を繰り返す。
ステップ S 1 4 2 4において、 フレーム全体について、 混合比を推定したと判 定された場合、 ステップ S 1 4 2 5に進み、 混合比決定部 4 0 3は、 画素が、 前 景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバック グラウンド領域のいずれかに属するかを示す領域情報を基に、 混合比 ひ を設定 する。 混合比決定部 4 0 3は、 対象となる画素が前景領域に属する場合、 0を混 合比 d に設定し、 対象となる画素が背景領域に属する場合、 1を混合比ひ に設 定し、 対象となる画素がカバードバックグラウンド領域に属する場合、 推定混合 比処理部 4 0 1から供給された推定混合比を混合比 に設定し、 対象となる画 素がアンカバードバックグラウンド領域に属する場合、 推定混合比処理部 4 0 2 から供給された推定混合比を混合比ひ に設定し、 処理は終了する。
このように、 図 1 1 3に構成を示す画像処理装置は、 領域情報、 並びにコンポ 一ネント 1、 コンポーネント 2、 およびコンポーネント 3を基に、 より精度よく , 各画素に対応する特徴量である混合比ひ を算出することができる。
なお、 混合比ひ は、 画素値に含まれる背景の成分の割合として説明したが、 画素値に含まれる前景の成分の割合としてもよい。
また、 前景となるオブジェク トの動きの方向は左から右として説明したが、 そ の方向に限定されないことは勿論である。
以上においては、 3次元空間と時間軸情報を有する現実空間の画像をビデオ力 メラを用いて 2次元空間と時間軸情報を有する時空間への射影を行った場合を例 としたが、 本発明は、 この例に限らず、 より多くの第 1の次元の第 1の情報を、 より少ない第 2の次元の第 2の情報に射影した場合に、 その射影によつて発生す る歪みを補正したり、 有意情報を抽出したり、 またはより自然に画像を合成する 場合に適応することが可能である。
なお、 センサは、 CCDに限らず、 固体撮像素子である、 例えば、 CMOS
(Compl ementary Metal Oxi de Semi conductor (相補性金属酸化膜半導体) ) . BBD (Bucket Brigade Devi ce) 、 CID (Charge Inj ect ion Device; 、 よたは CPD (Charge Priming Device) などのセンサでもよく、 また、 検出素子がマト リックス状に配置されているセンサに限らず、 検出素子が 1列に並んでいるセン サでもよレヽ。
本発明の信号処理を行うプログラムを記録した記録媒体は、 図 1に示すように、 コンピュータとは別に、 ユーザにプログラムを提供するために配布される、 プロ グラムが記録されている磁気ディスク 5 1 (フロッピ (登録商標) ディスクを含 む) 、 光ディスク 5 2 (CD-ROM (Compact Di sc-Read On l y Memory) ,
DVD (Di gi tal Versat i le Di sc)を含む) 、 光磁気ディスク 5 3 (M D (Mini- Di sc) (商標) を含む) 、 もしくは半導体メモリ 5 4などよりなるパッケージ メディアにより構成されるだけでなく、 コンピュータに予め組み込まれた状態で ユーザに提供される、 プログラムが記録されている ROM 2 2や、 記憶部 2 8に含 まれるハードディスクなどで構成される。
なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも含むもの である。 産業上の利用可能性
第 1の本発明によれば、 画像のおける混ざり合いの状態を知るが可能となる。 第 2の本発明によれば、 画像のおける混ざり合いの状態を知るが可能となる。

Claims

請求の範囲
1 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データであって、 同一画素位置に対して複数種類のコンポーネント を有する前記画素データからなる画像データを処理する画像処理装置において、 前記画像データに対応して、 前景オブジェク トを構成する前景ォブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域特定手段と、
前記画像データに対応して、 前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前記前景オブジェク ト成分と前記 背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比検出手段と を含み、
少なく とも前記領域特定手段および前記混合比検出手段のいずれか一方は、 前 記複数種類のコンポーネントに基づいて画像処理する
ことを特徴とする画像処理装置。
2 . 前記領域特定手段は、
前記複数種類のコンポーネント毎に前記混合領域を検出し、 個々のコンポーネ ントに対応する検出結果をコンポーネント混合領域情報として出力するコンポ一 ネント混合領域検出手段と、
前記コンポーネント混合領域検出手段で検出された前記複数種類のコンポーネ ントに対応する前記混合領域の検出結果に基づいて、 前記画像データに対応する 前記混合領域を特定する混合領域特定手段と
を含むことを特徴とする請求の範囲第 1項に記載の画像処理装置。
3 . 前記領域特定手段は、
前記画像データの注目フレームの注目画素に対応する注目画素データと、 前記 注目画素の空間方向の近傍に位置する空間近傍画素の画素データとの相関を示す 空間相関値を、 前記注目画素に対応する前記複数種類のコンポーネントに基づい て算出する空間相関値算出手段と、 前記注目画素データと、 前記注目画素の時間方向の近傍に位置する時間近傍画 素の画素データとの相関を示す時間相関値を、 前記注目画素に対応する前記複数 種類のコンポーネントに基づいて算出する時間相関値算出手段と、
前記注目画素に対応する前記空間相関値および前記時間相関値を基に、 前記前 景ォブジェク ト成分のみからなる前景領域を特定する前景領域特定手段と を含むことを特徴とする請求の範囲第 1項に記載の画像処理装置。
4 . 前記領域特定手段は、 前記注目フレームの前記前景領域、 および前記注目 フレームの近傍の近傍フレームの前記前景領域を基に、 前記混合領域を特定する 混合領域特定手段をさらに含む
ことを特徴とする請求の範囲第 3項に記載の画像処理装置。
5 . 前記混合比検出手段は、
前記複数種類のコンポーネント毎に混合比を検出するコンポーネント混合比検 出手段と、
前記コンポーネント混合比検出手段で検出された前記複数種類のコンポーネン トに対応する混合比の検出結果を統合することにより、 前記画像データに対応す る混合比を検出するコンポーネント統合混合比検出手段と
を含むことを特徴とする請求の範囲第 1項に記載の画像処理装置。
6 . 前記混合比検出手段は、
前記複数種類のコンポーネントの画素値を画素毎に統合し、 統合データとして 出力する統合手段と、
前記統合データに基づいて、 前記画像データに対応する混合比を検出する統合 データ混合比検出手段と
を含むことを特徴とする請求の範囲第 1項に記載の画像処理装置。
7 . 前記統合手段は、 前記複数種類のコンポーネントの前記画素値を画素毎に 加算し、 加算した結果を前記統合データとして出力する
ことを特徴とする請求の範囲第 6項に記載の画像処理装置。
8 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データであって、 同一画素位置に対して複数種類のコンポーネント を有する前記画素データからなる画像データを処理する画像処理方法において、 前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域特定ステップと、
前記画像データに対応して、 前記前景ォブジェク ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前記前景オブジェク ト成分と前記 背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比検出ステツ プと、
検出された前記混合比の出力を制御する出力制御ステップと
を含み、
少なくとも前記領域特定ステップぉよび前記混合比検出ステツプのいずれか一 方は、 前記複数種類のコンポーネントに基づいて画像処理する
ことを特徴とする画像処理方法。
9 . 前記領域特定ステップは、
前記複数種類のコンポーネント毎に前記混合領域を検出し、 個々のコンポーネ ントに対応する検出結果をコンポーネント混合領域情報として出力するコンポ一 ネント混合領域検出ステップと、
前記コンポーネント混合領域検出ステップの処理で検出された前記複数種類の コンポーネントに対応する前記混合領域の検出結果に基づいて、 前記画像データ に対応する前記混合領域を特定する混合領域特定ステツプと
を含むことを特徴とする請求の範囲第 8項に記載の画像処理方法。
1 0 . 前記領域特定ステップは、
前記画像データの注目フレームの注目画素に対応する注目画素データと、 前記 注目画素の空間方向の近傍に位置する空間近傍画素の画素データとの相関を示す 空間相関値を、 前記注目画素に対応する前記複数種類のコンポーネントに基づい て算出する空間相関値算出ステップと、 前記注目画素データと、 前記注目画素の時間方向の近傍に位置する時間近傍画 素の画素データとの相関を示す時間相関値を、 前記注目画素に対応する前記複数 種類のコンポーネントに基づいて算出する時間相関値算出ステップと、
前記注目画素に対応する前記空間相関値および前記時間相関値を基に、 前記前 景ォブジェク ト成分のみからなる前景領域を特定する前景領域特定ステップと を含むことを特徴とする請求の範囲第 8項に記載の画像処理方法。
1 1 . 前記領域特定ステップは、 前記注目フレームの前記前景領域、 および前 記注目フレームの近傍の近傍フレームの前記前景領域を基に、 前記混合領域を特 定する混合領域特定ステップをさらに含む
ことを特徴とする請求の範囲第 1 0項に記載の画像処理方法。
1 2 . 前記混合比検出ステップは、
前記複数種類のコンポーネント毎に混合比を検出するコンポーネント混合比検 出ステップと、
前記コンポーネント混合比検出ステップの処理で検出された前記複数種類のコ ンポーネントに対応する混合比の検出結果を統合することにより、 前記画像デー タに対応する混合比を検出するコンポーネント統合混合比検出ステップと を含むことを特徴とする請求の範囲第 8項に記載の画像処理方法。
1 3 . 前記混合比検出ステップは、
前記複数種類のコンポーネントの画素値を画素毎に統合し、 統合データとして 出力する統合ステップと、
前記統合データに基づいて、 前記画像データに対応する混合比を検出する統合 データ混合比検出ステツプと
を含むことを特徴とする請求の範囲第 8項に記載の画像処理方法。
1 4 . 前記統合ステップにおいて、 前記複数種類のコンポーネントの前記画素 値が画素毎に加算され、 加算された結果が前記統合データとして出力される ことを特徴とする請求の範囲第 1 3項に記載の画像処理方法。
1 5 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データであって、 同一画素位置に対して複数種類のコンポ一ネン トを有する前記画素データからなる画像データを処理する画像処理用のプログラ ムであって、
前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域特定ステップと、
前記画像データに対応して、 前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前記前景ォブジェク ト成分と前記 背景ォブジェク ト成分との混合の割合を示す混合比を検出する混合比検出ステツ プと、
検出された前記混合比の出力を制御する出力制御ステップと
を含み、
少なくとも前記領域特定ステップおよび前記混合比検出ステップのいずれか一 方は、 前記複数種類のコンポーネントに基づいて画像処理させる
ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている 記録媒体。
1 6 . 前記領域特定ステップは、
前記複数種類のコンポーネント毎に前記混合領域を検出し、 個々のコンポーネ ン卜に対応する検出結果をコンポーネント混合領域情報として出力するコンポ一 ネント混合領域検出ステップと、
前記コンポーネント混合領域検出ステップの処理で検出された前記複数種類の コンポーネントに対応する前記混合領域の検出結果に基づいて、 前記画像データ に対応する前記混合領域を特定する混合領域特定ステップと
を含むことを特徴とする請求の範囲第 1 5項に記載の記録媒体。
1 7 . 前記領域特定ステップは、
前記画像データの注目フレームの注目画素に対応する注目画素データと、 前記 注目画素の空間方向の近傍に位置する空間近傍画素の画素データとの相関を示す 空間相関値を、 前記注目画素に対応する前記複数種類のコンポーネントに基づい て算出する空間相関値算出ステップと、
前記注目画素データと、 前記注目画素の時間方向の近傍に位置する時間近傍画 素の画素データとの相関を示す時間相関値を、 前記注目画素に対応する前記複数 種類のコンポーネントに基づいて算出する時間相関値算出ステップと、
前記注目画素に対応する前記空間相関値および前記時間相関値を基に、 前記前 景ォブジェク ト成分のみからなる前景領域を特定する前景領域特定ステップと を含むことを特徴とする請求の範囲第 1 5項に記載の記録媒体。
1 8 . 前記領域特定ステップは、 前記注目フレームの前記前景領域、 および前 記注目フレームの近傍の近傍フレームの前記前景領域を基に、 前記混合領域を特 定する混合領域特定ステップをさらに含む
ことを特徴とする請求の範囲第 1 7項に記載の記録媒体。
1 9 . 前記混合比検出ステップは、
前記複数種類のコンポーネント毎に混合比を検出するコンポーネント混合比検 出ステップと、
前記コンポーネント混合比検出ステップの処理で検出された前記複数種類のコ ンポーネントに対応する混合比の検出結果を統合することにより、 前記画像デー タに対応する混合比を検出するコンポーネント統合混合比検出ステップと を含むことを特徴とする請求の範囲第 1 5項に記載の記録媒体。
2 0 . 前記混合比検出ステップは、
前記複数種類のコンポーネントの画素値を画素毎に統合し、 統合データとして 出力する統合ステップと、
前記統合データに基づいて、 前記画像データに対応する混合比を検出する統合 データ混合比検出ステップと
を含むことを特徴とする請求の範囲第 1 5項に記載の記録媒体。
2 1 . 前記統合ステップにおいて、 前記複数種類のコンポーネントの前記画素 値が画素毎に加算され、 加算された結果が前記統合データとして出力される ことを特徴とする請求の範囲第 2 0項に記載の記録媒体。
2 2 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データであって、 同一画素位置に対して複数種類のコンポーネン トを有する前記画素データからなる画像データを処理するコンピュータに、 前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域特定ステップと、
前記画像データに対応して、 前記前景オブジェク ト成分と前記背景ォブジェク ト成分とが混合されてなる混合領域における、 前記前景ォブジェク ト成分と前記 背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比検出ステツ プと、
検出された前記混合比の出力を制御する出力制御ステップと
を実行させ、
少なく とも前記領域特定ステップおよび前記混合比検出ステップのいずれか一 方は、 前記複数種類のコンポーネントに基づいて画像処理させる
ことを特徴とするプログラム。
2 3 . 前記領域特定ステツプは、
前記複数種類のコンポーネント毎に前記混合領域を検出し、 個々のコンポーネ ントに対応する検出結果をコンポーネント混合領域情報として出力するコンポ一 ネント混合領域検出ステップと、
前記コンポーネント混合領域検出ステップの処理で検出された前記複数種類の コンポーネントに対応する前記混合領域の検出結果に基づいて、 前記画像データ に対応する前記混合領域を特定する混合領域特定ステップと
を含むことを特徴とする請求の範囲第 2 2項に記載のプログラム。
2 4 . 前記領域特定ステップは、
前記画像データの注目フレームの注目画素に対応する注目画素データと、 前記 注目画素の空間方向の近傍に位置する空間近傍画素の画素データとの相関を示す 空間相関値を、 前記注目画素に対応する前記複数種類のコンポーネントに基づい て算出する空間相関値算出ステップと、
前記注目画素データと、 前記注目画素の時間方向の近傍に位置する時間近傍画 素の画素データとの相関を示す時間相関値を、 前記注目画素に対応する前記複数 種類のコンポーネントに基づいて算出する時間相関値算出ステップと、
前記注目画素に対応する前記空間相関値および前記時間相関値を基に、 前記前 景ォブジェク ト成分のみからなる前景領域を特定する前景領域特定ステツプと を含むことを特徴とする請求の範囲第 2 2項に記載のプログラム。
2 5 . 前記領域特定ステップは、 前記注目フレームの前記前景領域、 および前 記注目フレームの近傍の近傍フレームの前記前景領域を基に、 前記混合領域を特 定する混合領域特定ステップをさらに含む
ことを特徴とする請求の範囲第 2 4項に記載のプログラム。
2 6 . 前記混合比検出ステップは、
前記複数種類のコンポーネント,毎に混合比を検出するコンポーネント混合比検 出ステップと、
前記コンポーネント混合比検出ステップの処理で検出された前記複数種類のコ ンポーネントに対応する混合比の検出結果を統合することにより、 前記画像デー タに対応する混合比を検出するコンポーネント統合混合比検出ステップと を含むことを特徴とする請求の範囲第 2 2項に記載のプログラム。
2 7 . 前記混合比検出ステップは、
前記複数種類のコンポーネントの画素値を画素毎に統合し、 統合データとして 出力する統合ステップと、
前記統合データに基づいて、 前記画像データに対応する混合比を検出する統合 データ混合比検出ステップと
を含むことを特徴とする請求の範囲第 2 2項に記載のプログラム。
2 8 . 前記統合ステップにおいて、 前記複数種類のコンポーネントの前記画素 値が画素毎に加算され、 加算された結果が前記統合データとして出力される ことを特徴とする請求の範囲第 2 7項に記載のプログラム。
2 9 . 時間積分効果を有する所定数の画素を有する撮像素子によって撮像され た被写体画像を、 同一画素位置に対して複数種類のコンポーネントを有する所定 数の画素データからなる画像データとして出力する撮像手段と、
前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域特定手段と、
前記画像データに対応して、 前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前記前景ォブジェク ト成分と前記 背景ォブジェク ト成分との混合の割合を示す混合比を検出する混合比検出手段と を含み、
少なくとも前記領域特定手段および前記混合比検出手段のいずれか一方は、 前 記複数種類のコンポーネントに基づいて画像処理する
ことを特徴とする撮像装置。
3 0 . 前記領域特定手段は、
前記複数種類のコンポーネント毎に前記混合領域を検出し、 個々のコンポーネ ントに対応する検出結果をコンポーネント混合領域情報として出力するコンポ一 ネント混合領域検出手段と、
前記コンポーネント混合領域検出手段で検出された前記複数種類のコンポーネ ントに対応する前記混合領域の検出結果に基づいて、 前記画像データに対応する 前記混合領域を特定する混合領域特定手段と
を含むことを特徴とする請求の範囲第 2 9項に記載の撮像装置。
3 1 . 前記領域特定手段は、
前記画像データの注目フレームの注目画素に対応する注目画素データと、 前記 注目画素の空間方向の近傍に位置する空間近傍画素の画素データとの相関を示す 空間相関値を、 前記注目画素に対応する前記複数種類のコンポーネントに基づい て算出する空間相関値算出手段と、 前記注目画素データと、 前記注目画素の時間方向の近傍に位置する時間近傍画 素の画素データとの相関を示す時間相関値を、 前記注目画素に対応する前記複数 種類のコンポーネントに基づいて算出する時間相関値算出手段と、
前記注目画素に対応する前記空間相関値および前記時間相関値を基に、 前記前 景ォブジェク ト成分のみからなる前景領域を特定する前景領域特定手段と を含むことを特徴とする請求の範囲第 2 9項に記載の撮像装置。
3 2 . 前記領域特定手段は、 前記注目フレームの前記前景領域、 および前記注 目フレームの近傍の近傍フレームの前記前景領域を基に、 前記混合領域を特定す る混合領域特定手段をさらに含む
ことを特徴とする請求の範囲第 3 1項に記載の撮像装置。
3 3 . 前記混合比検出手段は、
前記複数種類のコンポーネント毎に混合比を検出するコンポーネント混合比検 出手段と、
前記コンポーネント混合比検出手段で検出された前記複数種類のコンポーネン トに対応する混合比の検出結果を統合することにより、 前記画像データに対応す る混合比を検出するコンポーネント統合混合比検出手段と
を含むことを特徴とする請求の範囲第 2 9項に記載の撮像装置。
3 4 . 前記混合比検出手段は、
前記複数種類のコンポーネントの画素値を画素毎に統合し、 統合データとして 出力する統合手段と、
前記統合データに基づいて、 前記画像データに対応する混合比を検出する統合 データ混合比検出手段と
を含むことを特徴とする請求の範囲第 2 9項に記載の撮像装置。
3 5 . 前記統合手段は、 前記複数種類のコンポーネントの前記画素値を画素毎 に加算し、 加算した結果を前記統合データとして出力する
ことを特徴とする請求の範囲第 3 4項に記載の撮像装置。
3 6 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データであって、 同一画素位置に対して複数種類のコンポーネン トを有する前記画素データからなる画像データを処理する画像処理装置において. 前記画像データを取得する画像データ取得手段と、
取得された前記画像データの前記複数種類のコンポーネントに基づいて、 前記 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分およ び背景オブジェク トを構成する背景ォブジェク ト成分が混合されてなる混合領域 を特定する領域特定処理、 および前記画像データに対応して、 前記前景オブジェ ク ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前 記前景オブジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混合 比を検出する混合比検出処理のいずれか一方の処理を実行する処理実行手段と を含むことを特徴とする画像処理装置。
3 7 . 前記処理実行手段は、 取得された前記画像データの前記複数種類のコン ポーネントに基づいて、 前記画像データに対応して、 前景オブジェク トを構成す る前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェク ト成 分が混合されてなる混合領域を特定する領域特定処理を実行する
ことを特徴とする請求の範囲第 3 6項に記載の画像処理装置。
3 8 . 前記処理実行手段は、 取得された前記画像データの前記複数種類のコン ポーネントに基づいて、 前記画像データに対応して、 前記前景オブジェク ト成分 と前記背景ォブジェク ト成分とが混合されてなる混合領域における、 前記前景ォ ブジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混合比を検出 する混合比検出処理を実行する
ことを特徴とする請求の範囲第 3 6項に記載の画像処理装置。
3 9 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データであって、 同一画素位置に対して複数種類のコンポーネン トを有する前記画素データからなる画像データを処理する画像処理方法において. 前記画像データを取得する画像デ一タ取得ステップと、
取得された前記画像データの前記複数種類のコンポーネントに基づいて、 前記 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分およ び背景ォブジェク トを構成する背景オブジェク ト成分が混合されてなる混合領域 を特定する領域特定処理、 および前記画像データに対応して、 前記前景オブジェ ク ト成分と前記背景ォブジェク ト成分とが混合されてなる混合領域における、 前 記前景オブジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混合 比を検出する混合比検出処理のいずれか一方の処理を実行する処理実行ステップ と
を含むことを特徴とする画像処理方法。
4 0 . 前記処理実行ステップにおいて、 取得された前記画像データの前記複数 種類のコンポーネントに基づいて、 前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成する背景ォブ ジュク ト成分が混合されてなる混合領域を特定する領域特定処理が実行される ことを特徴とする請求の範囲第 3 9項に記載の画像処理方法。
4 1 . 前記処理実行ステップにおいて、 取得された前記画像データの前記複数 種類のコンポーネントに基づいて、 前記画像データに対応して、 前記前景ォブジ エタ ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前記前景オブジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混 合比を検出する混合比検出処理が実行される
ことを特徴とする請求の範囲第 3 9項に記載の画像処理方法。
4 2 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データであって、 同一画素位置に対して複数種類のコンポ一ネン トを有する前記画素データからなる画像データを処理する画像処理用のプログラ ムであって、
前記画像データを取得する画像データ取得ステツプと、
取得された前記画像データの前記複数種類のコンポーネントに基づいて、 前記 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分およ び背景ォブジ-ク トを構成する背景オブジェク ト成分が混合されてなる混合領域 を特定する領域特定処理、 および前記画像データに対応して、 前記前景オブジェ ク ト成分と前記背景ォブジェク ト成分とが混合されてなる混合領域における、 前 記前景ォブジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混合 比を検出する混合比検出処理のいずれか一方の処理を実行する処理実行ステップ と
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
4 3 . 前記処理実行ステップにおいて、 取得された前記画像データの前記複数 種類のコンポーネントに基づいて、 前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成する背景ォブ ジ タ ト成分が混合されてなる混合領域を特定する領域特定処理が実行される ことを特徴とする請求の範囲第 4 2項に記載の記録媒体。
4 4 . 前記処理実行ステップにおいて、 取得された前記画像データの前記複数 種類のコンポーネントに基づいて、 前記画像データに対応して、 前記前景ォブジ エタ ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前記前景オブジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混 合比を検出する混合比検出処理が実行される
ことを特徴とする請求の範囲第 4 2項に記載の記録媒体。
4 5 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データであって、 同一画素位置に対して複数種類のコンポーネン トを有する前記画素データからなる画像データを処理するコンピュータに、 前記画像データを取得する画像データ取得ステツプと、
取得された前記画像データの前記複数種類のコンポーネントに基づいて、 前記 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分およ び背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混合領域 を特定する領域特定処理、 および前記画像データに対応して、 前記前景オブジェ ク ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前 記前景オブジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混合 比を検出する混合比検出処理のいずれか一方の処理を実行する処理実行ステップ と
を実行させることを特徴とするプログラム。
4 6 . 前記処理実行ステップにおいて、 取得された前記画像データの前記複数 種類のコンポーネントに基づいて、 前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成する背景ォブ ジェク ト成分が混合されてなる混合領域を特定する領域特定処理が実行される ことを特徴とする請求の範囲第 4 5項に記載のプログラム。
4 7 . 前記処理実行ステップにおいて、 取得された前記画像データの前記複数 種類のコンポーネントに基づいて、 前記画像データに対応して、 前記前景ォブジ ェク ト成分と前記背景オブジェク ト成分とが混合されてなる混合領域における、 前記前景ォブジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混 合比を検出する混合比検出処理が実行される
ことを特徴とする請求の範囲第 4 5項に記載のプログラム。
4 8 . 時間積分効果を有する所定数の画素を有する撮像素子によって撮像され た被写体画像を、 同一画素位置に対して複数種類のコンポーネントを有する所定 数の画素データからなる画像データとして出力する撮像手段と、
前記画像データの前記複数種類のコンポーネントに基づいて、 前記画像データ に対応して、 前景オブジェク トを構成する前景オブジェク ト成分および背景ォブ ジェク トを構成する背景オブジェク ト成分が混合されてなる混合領域を特定する 領域特定処理、 および前記画像データに対応して、 前記前景オブジェク ト成分と 前記背景オブジェク ト成分とが混合されてなる混合領域における、 前記前景ォブ ジェク ト成分と前記背景オブジェク ト成分との混合の割合を示す混合比を検出す る混合比検出処理のいずれか一方の処理を実行する処理実行手段と
を含むことを特徴とする撮像装置。
4 9 . 前記処理実行手段は、 前記画像データの前記複数種類のコンポーネント に基づいて、 前記画像データに対応して、 前景オブジェク トを構成する前景ォブ ジェク ト成分および背景オブジェク トを構成する背景オブジェク ト成分が混合さ れてなる混合領域を特定する領域特定処理を実行する
ことを特徴とする請求の範囲第 4 8項に記載の撮像装置。
5 0 . 前記処理実行手段は、 前記画像データの前記複数種類のコンポーネント に基づいて、 前記画像データに対応して、 前記前景オブジェク ト成分と前記背景 オブジェク ト成分とが混合されてなる混合領域における、 前記前景オブジェク ト 成分と前記背景オブジェク ト成分との混合の割合を示す混合比を検出する混合比 検出処理を実行する
ことを特徴とする請求の範囲第 4 8項に記載の撮像装置。
PCT/JP2002/006382 2001-06-27 2002-06-26 Appareil et procede de traitement d'image et appareil de recuperation d'image WO2003003304A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US10/362,546 US7352917B2 (en) 2001-06-27 2002-06-26 Image processing apparatus and method, and image pickup apparatus
CA2420020A CA2420020C (en) 2001-06-27 2002-06-26 Image processing apparatus and method, and image pickup apparatus
KR1020037002832A KR100864336B1 (ko) 2001-06-27 2002-06-26 화상 처리 장치 및 방법, 및 촬상 장치
MXPA03001520A MXPA03001520A (es) 2001-06-27 2002-06-26 Aparato y metodo de procesamiento de imagenes y aparato de captura de imagenes.
EP02743723A EP1403821B1 (en) 2001-06-27 2002-06-26 Image processing apparatus and method, and image pickup apparatus
DE60237687T DE60237687D1 (de) 2001-06-27 2002-06-26 Bildverarbeitungsvorrichtung und -verfahren und bilderfassungsvorrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001194607A JP4596223B2 (ja) 2001-06-27 2001-06-27 画像処理装置および方法、記録媒体、並びにプログラム
JP2001-194607 2001-06-27

Publications (1)

Publication Number Publication Date
WO2003003304A1 true WO2003003304A1 (fr) 2003-01-09

Family

ID=19032711

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/006382 WO2003003304A1 (fr) 2001-06-27 2002-06-26 Appareil et procede de traitement d'image et appareil de recuperation d'image

Country Status (9)

Country Link
US (1) US7352917B2 (ja)
EP (2) EP1403821B1 (ja)
JP (1) JP4596223B2 (ja)
KR (1) KR100864336B1 (ja)
CN (1) CN1269080C (ja)
CA (1) CA2420020C (ja)
DE (1) DE60237687D1 (ja)
MX (1) MXPA03001520A (ja)
WO (1) WO2003003304A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
KR100643230B1 (ko) * 2004-08-30 2006-11-10 삼성전자주식회사 디스플레이장치의 제어방법
JP2006086933A (ja) * 2004-09-17 2006-03-30 Canon Inc 撮像装置及び制御方法
US7710461B2 (en) * 2004-12-21 2010-05-04 Sony Corporation Image processing device, image processing method, and image processing program
JP5202246B2 (ja) 2008-11-20 2013-06-05 キヤノン株式会社 動画像処理装置、及び方法、プログラム
EP2280550A1 (en) * 2009-06-25 2011-02-02 Thomson Licensing Mask generation for motion compensation
JP5409481B2 (ja) * 2010-03-29 2014-02-05 富士フイルム株式会社 複眼撮影装置及びプログラム
JP5665401B2 (ja) * 2010-07-21 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9098767B2 (en) 2011-04-11 2015-08-04 Hewlett-Packard Development Company, L.P. System and method for determining the informative zone of an image
US9350924B2 (en) 2014-08-25 2016-05-24 John G. Posa Portable electronic devices with integrated image/video compositing
CN106846336B (zh) * 2017-02-06 2022-07-15 腾讯科技(上海)有限公司 提取前景图像、替换图像背景的方法及装置
US10565739B2 (en) 2017-12-29 2020-02-18 Cerner Innovation, Inc. Automated icon accessibility assessment algorithm and tool
CN110018529B (zh) * 2019-02-22 2021-08-17 南方科技大学 降雨测量方法、装置、计算机设备和存储介质
CN113129227A (zh) * 2021-03-29 2021-07-16 影石创新科技股份有限公司 图像处理方法、装置、计算机设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) * 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
EP0933727A2 (en) * 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) * 2000-12-21 2002-07-05 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2002190028A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190016A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
GB9204115D0 (en) * 1992-02-26 1992-04-08 British Broadcasting Corp Video image processing
US5870103A (en) * 1996-09-25 1999-02-09 Eastman Kodak Company Method for creating realistic-looking composite images
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
US6208351B1 (en) * 1997-12-22 2001-03-27 Adobe Systems Incorporated Conversion of alpha-multiplied color data
US6134346A (en) * 1998-01-16 2000-10-17 Ultimatte Corp Method for removing from an image the background surrounding a selected object
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
US6839463B1 (en) * 2000-12-22 2005-01-04 Microsoft Corporation System and method providing subpixel-edge-offset-based determination of opacity
JP4596202B2 (ja) * 2001-02-05 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4596203B2 (ja) * 2001-02-19 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596222B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) * 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
EP0933727A2 (en) * 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) * 2000-12-21 2002-07-05 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2002190028A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190016A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1403821A4 *

Also Published As

Publication number Publication date
US7352917B2 (en) 2008-04-01
EP1403821A4 (en) 2006-06-28
KR100864336B1 (ko) 2008-10-17
CN1471692A (zh) 2004-01-28
JP4596223B2 (ja) 2010-12-08
US20040067040A1 (en) 2004-04-08
DE60237687D1 (de) 2010-10-28
EP1862971A3 (en) 2013-08-21
CN1269080C (zh) 2006-08-09
KR20040014958A (ko) 2004-02-18
JP2003016452A (ja) 2003-01-17
MXPA03001520A (es) 2003-06-24
CA2420020C (en) 2010-09-28
EP1862971A2 (en) 2007-12-05
EP1403821A1 (en) 2004-03-31
EP1403821B1 (en) 2010-09-15
CA2420020A1 (en) 2003-02-18

Similar Documents

Publication Publication Date Title
JP4596216B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596202B2 (ja) 画像処理装置および方法、並びに記録媒体
JP4596220B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596222B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2003003306A1 (fr) Appareil et procede de traitement d&#39;images
JP4596221B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2001048693A1 (fr) Dispositif et procede de traitement d&#39;un signal et support d&#39;enregistrement
WO2002099753A1 (fr) Processeur d&#39;images
JP4106874B2 (ja) 画像処理装置および方法、並びに記録媒体
JP4596203B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2003003304A1 (fr) Appareil et procede de traitement d&#39;image et appareil de recuperation d&#39;image
KR100835443B1 (ko) 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
JP4596201B2 (ja) 画像処理装置および方法、並びに記録媒体
JP4840630B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596215B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596209B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596225B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2003001456A1 (fr) Appareil et procede de traitement de l&#39;image, et appareil de prise de vue

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN IN KR MX SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 199/MUMNP/2003

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2002743723

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2420020

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: PA/a/2003/001520

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 1020037002832

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 02802754X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 10362546

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020037002832

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2002743723

Country of ref document: EP