WO2003001453A1 - Procede et dispositif de traitement d'images et dispositif de prise de vues - Google Patents

Procede et dispositif de traitement d'images et dispositif de prise de vues Download PDF

Info

Publication number
WO2003001453A1
WO2003001453A1 PCT/JP2002/006178 JP0206178W WO03001453A1 WO 2003001453 A1 WO2003001453 A1 WO 2003001453A1 JP 0206178 W JP0206178 W JP 0206178W WO 03001453 A1 WO03001453 A1 WO 03001453A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame
interest
background
foreground
pixel
Prior art date
Application number
PCT/JP2002/006178
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Seiji Wada
Junichi Ishibashi
Takashi Sawao
Naoki Fujiwara
Takahiro Nagano
Toru Miyake
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP02743667A priority Critical patent/EP1339021B1/en
Priority to CA2420719A priority patent/CA2420719C/en
Priority to DE60239255T priority patent/DE60239255D1/de
Priority to KR1020037002731A priority patent/KR100835443B1/ko
Priority to US10/362,354 priority patent/US7477761B2/en
Publication of WO2003001453A1 publication Critical patent/WO2003001453A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Definitions

  • Image processing apparatus and method and imaging apparatus
  • the present invention relates to an image processing apparatus and method, and an image capturing apparatus, and more particularly to an image processing apparatus and method that takes into account a difference between a signal detected by a sensor and the real world, and an image capturing apparatus.
  • motion blur occurs when the moving speed of the object is relatively high.
  • the present invention has been made in view of such a situation, and has as its object to be able to separate an image of a background from an image of an object in response to a mixed state.
  • a foreground object component constituting a foreground object of a frame of interest of image data and a background object component constituting a background object are mixed.
  • a foreground area consisting of only foreground object components and a background area consisting of only background object components are specified.
  • the foreground object component and the background object component are mixed, and the force is formed on the tip side in the direction of motion of the foreground object.
  • Area specifying means for specifying a pad background area; and mixing ratio detecting means for detecting a mixing ratio indicating a mixing ratio of a foreground object component and a background object component in an uncovered background area and a force bird background area. Based on the mixing ratio, the pixels belonging to the uncovered background area and the covered back area And a foreground / background separating means for separating the data into a foreground object component and a background object component, and generating a foreground component image consisting only of the foreground object component and a background component image consisting only of the background object component in the frame of interest. It is characterized by the following.
  • the region specifying means temporarily stores three consecutively input frames, and determines, during a first time, a movement between a frame two frames before the frame of interest and a frame immediately before the frame of interest.
  • the region determined to be still between the frame immediately before the frame of interest and the frame of interest is identified as an uncovered backdrop region corresponding to the frame of interest.
  • a region determined to be motion between the previous frame and the frame of interest, and a region determined to be motion between the frame of interest and the frame immediately after the frame of interest is identified as a foreground region corresponding to the frame of interest.
  • it is determined to be still between the frame immediately before the frame of interest and the frame of interest, and is determined to be still between the frame of interest and the frame immediately after the frame of interest.
  • the motion is determined to be between the frame of interest and the frame immediately following the frame of interest, and the frame immediately following the frame of interest is determined.
  • An area determined to be still between the current frame and the frame immediately after the frame of interest can be specified as a covered background area corresponding to the frame of interest.
  • the foreground object specifies an covered background area formed at the rear end of the object in the movement direction, and after the first time, at the second time corresponding to one screen, the foreground The foreground area consisting only of the object component and the background area consisting only of the background object component are specified, and after the second time, at the third time corresponding to one screen, the foreground object component and the background object are identified.
  • a mixing ratio detecting step for detecting a mixing ratio indicating a mixing ratio of the foreground object component and the background object component in the uncovered background area and the force pad background area, and the uncovered background based on the mixing ratio.
  • the pixel data of the pixels belonging to the ground area and the covered background area are separated into the foreground object component and the background object component, and only the foreground component image consisting of only the foreground object component and the background object component in the frame of interest And a foreground / background separation step of generating a background component image.
  • the region identification step temporarily stores three consecutively input frames, and determines that there is movement between the frame immediately before the frame of interest and the frame immediately before the frame of interest at the first time. Then, an area determined to be still between the frame immediately before the frame of interest and the frame of interest is identified as an uncovered background area corresponding to the frame of interest, and at the second time, one of the frames of interest is identified. A region determined to be a motion between the previous frame and the frame of interest, and a motion determined between the frame of interest and the frame immediately after the frame of interest is identified as a foreground region corresponding to the frame of interest.
  • the motion is determined to be between the frame of interest and the frame immediately after the frame of interest, and the frame is determined to be stationary between the frame immediately after the frame of interest and the frame two frames after the frame of interest.
  • Area can be specified as a covered background area corresponding to the frame of interest.
  • a foreground object component constituting a foreground object of a target frame of image data and a background object component constituting a background object are mixed.
  • the uncovered background area formed on the rear end side in the moving direction of the object is specified, and after a first time, a foreground object component is obtained at a second time corresponding to one screen.
  • a foreground area consisting only of the background object and a background area consisting only of the background object component are identified, and after the second time, at the third time corresponding to one screen, the foreground object component and the background object component are mixed.
  • Identify the covered background area formed at the front end in the direction of movement of the foreground object A region identification step, a mixture ratio detection step of detecting a mixture ratio indicating a mixture ratio of a foreground object component and a background object component in the uncovered background region and the covered background region, and a mixing ratio detection step. Then, the pixel data of the pixels belonging to the uncovered background area and the covered background area are separated into a foreground object component and a background object component, and a foreground component image including only the foreground object component in the frame of interest is obtained. And a foreground / background separation step of generating a background component image consisting only of a background object component.
  • the region identification step temporarily stores three consecutively input frames, and determines that there is movement between the frame immediately before the frame of interest and the frame immediately before the frame of interest at the first time. An area determined to be still between the frame immediately before the frame of interest and the frame of interest is identified as an uncovered background area corresponding to the frame of interest, and at the second time, one of the frames of interest is identified.
  • Movement is determined between the previous frame and the frame of interest, and the frame of interest and one of the frames of interest
  • the area determined to be moving between the subsequent frame is identified as the foreground area corresponding to the frame of interest
  • the frame is determined to be still between the frame immediately before the frame of interest and the frame of interest
  • the region determined to be still between the frame of interest and the frame immediately following the frame of interest is identified as the background region corresponding to the frame of interest
  • the region of interest after the frame of interest and one frame after the frame of interest The area that is determined to be motion between the frame of interest and the area that is determined to be still between the frame one frame after the frame of interest and the frame two frames after the frame of interest is a covered back target area corresponding to the frame of interest. Can be specified.
  • the program according to the present invention is arranged such that the computer mixes the foreground object component constituting the foreground object of the frame of interest of the image data with the background object component constituting the background object at the first time corresponding to one screen.
  • An uncovered background region formed at the rear end of the foreground object in the movement direction of the foreground object is identified, and after a first time, at a second time corresponding to one screen, The foreground area consisting only of the foreground object component and the background area consisting only of the background object component are specified, and after a second time, at a third time corresponding to one screen, the foreground object component and the background object component are determined.
  • a covered backdrop region formed at the front end in the direction of movement of the foreground object.
  • the pixel data of the pixels belonging to the uncovered background area and the power background area are separated into a foreground object component and a background object component, and a foreground component image and a background object consisting of only the foreground object component in the frame of interest.
  • the region identification step temporarily stores three consecutively input frames, and at a first time, a frame two frames before the frame of interest and a frame immediately before the frame of interest.
  • a region that is determined to be moving between the target frame and a frame that is determined to be still between the frame immediately before the target frame and the target frame is identified as an uncovered background region ′ corresponding to the target frame.
  • the region determined to be moving between the frame immediately before the frame of interest and the frame of interest and the region determined to be moving between the frame of interest and the frame immediately after the frame of interest is defined as the frame of interest.
  • the corresponding foreground area is identified, and at the second time, it is determined that the subject is still between the frame immediately before the frame of interest and the frame of interest, and between the frame of interest and the frame immediately after the frame of interest.
  • the region determined to be still is identified as the background region corresponding to the frame of interest, and at the third time, it is determined that there is motion between the frame of interest and the frame immediately after the frame of interest,
  • An area determined to be still between the frame immediately after the frame of interest and the frame two frames after the frame of interest can be specified as a covered back-drop region corresponding to the frame of interest.
  • An imaging apparatus includes: an imaging unit that outputs a subject image captured by an imaging device having a predetermined number of pixels having a time integration effect as image data including a predetermined number of pixel data; At the first time, the foreground object component forming the foreground object of the frame of interest in the image data and the background object component forming the background object are mixed, and formed at the rear end of the foreground object in the movement direction. An anchored background area is identified, and after a first time, at a second time corresponding to one screen, a foreground area including only foreground object components and a background area including only background object components are determined.
  • the foreground object Area specifying means for specifying a covered background area formed on the front end side in the movement direction of the foreground object, in which the background component and the background object component are mixed, and an uncovered background area and a force-backed background area.
  • a mixture ratio detecting means for detecting a mixture ratio indicating a mixture ratio of a foreground object component and a background object component, and pixels belonging to an uncovered background area and a covered pack area based on the mixture ratio.
  • the region specifying means temporarily stores three consecutively input frames, and determines, during a first time, a movement between a frame two frames before the frame of interest and a frame immediately before the frame of interest.
  • the region determined to be still between the frame immediately before the frame of interest and the frame of interest is identified as an uncovered backdrop region corresponding to the frame of interest.
  • a region determined to be motion between the previous frame and the frame of interest, and a region determined to be motion between the frame of interest and the frame immediately after the frame of interest is identified as a foreground region corresponding to the frame of interest.
  • it is determined to be still between the frame immediately before the frame of interest and the frame of interest, and is determined to be still between the frame of interest and the frame immediately after the frame of interest.
  • the motion is determined to be between the frame of interest and the frame immediately following the frame of interest, and the frame immediately following the frame of interest is determined.
  • An area determined to be still between the current frame and the frame immediately after the frame of interest can be specified as a covered background area corresponding to the frame of interest.
  • the foreground object component constituting the foreground object of the frame of interest of the image data is mixed with the background object component constituting the background object.
  • An anchored background area formed on the edge side is identified, and after the first time-at the second time corresponding to one screen, only the foreground area consisting of the foreground object component and only the background object component.
  • the foreground object component and the background object component are mixed at a third time corresponding to one screen after the second time in the movement direction of the foreground object.
  • the area of the covered background formed on the side is identified and the uncovered In the background area and the covered background area, a mixture ratio indicating a mixture ratio of the foreground object component and the background object component is detected.
  • the pixel data of the pixels belonging to the region are separated into a foreground object component and a background object component, and a foreground component image composed of only the foreground object component and a background component image composed of only the background object component in the frame of interest are generated. .
  • FIG. 1 is a diagram showing an embodiment of an image processing apparatus according to the present invention.
  • FIG. 2 is a block diagram illustrating the image processing apparatus.
  • FIG. 3 is a diagram illustrating imaging by a sensor.
  • FIG. 4 is a diagram illustrating the arrangement of pixels.
  • FIG. 5 is a diagram illustrating the operation of the detection element.
  • FIG. 6A is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 6B is a diagram illustrating a model corresponding to an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 7 is a diagram illustrating a background area, a foreground area, a mixed area, a covered background area, and an uncovered packed ground area.
  • Fig. 8 is a model diagram in which the pixel values of the pixels that are adjacent to one row in the image of the object corresponding to the stationary foreground and the object corresponding to the stationary background are expanded in the time direction. It is.
  • Figure 9 expands the pixel values in the time direction and divides the period corresponding to the shirt time It is a model figure.
  • FIG. 10 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 11 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 12 is a diagram illustrating an example in which pixels in a foreground area, a background area, and a mixed area are extracted.
  • Fig. 13 is a diagram showing the correspondence between pixels and a model in which pixel values are expanded in the time direction.
  • Fig. 14 is a model in which pixel values are expanded in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 15 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 16 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 17 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 18 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 19 is a flowchart illustrating the process of adjusting the amount of motion blur.
  • FIG. 20 is a block diagram showing a configuration of the area specifying unit 103. As shown in FIG.
  • FIG. 21 is a diagram illustrating an image when an object corresponding to the foreground is moving.
  • FIG. 22 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • FIG. 23 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • Figure 24 shows the pixel value developed in the time direction and the period corresponding to the shutter time is divided.
  • FIG. 25 is a diagram for explaining conditions for region determination.
  • FIG. 26 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103.
  • FIG. 27 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103.
  • FIG. 28 is a flowchart illustrating the area identification processing.
  • FIG. 29 is a flowchart illustrating the area specifying process.
  • FIG. 30 is a block diagram showing an example of the configuration of the mixture ratio calculating section 104. As shown in FIG.
  • FIG. 31 is a diagram illustrating an example of an ideal mixture ratio.
  • FIG. 32 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 33 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 34 is a diagram for explaining the approximation using the correlation of the foreground components.
  • FIG. 35 is a diagram illustrating the relationship between C, N, and P.
  • FIG. 36 is a block diagram illustrating a configuration of the estimated mixture ratio processing unit 401.
  • FIG. 37 is a diagram illustrating an example of the estimated mixture ratio.
  • FIG. 38 is a block diagram showing another configuration of the mixture ratio calculation unit 104. As shown in FIG. 38
  • FIG. 39 is a flowchart for explaining the process of calculating the mixture ratio.
  • FIG. 40 is a flowchart illustrating a process of calculating the estimated mixture ratio.
  • FIG. 41 is a diagram illustrating a straight line that approximates the mixture ratio.
  • FIG. 42 is a diagram illustrating a plane approximating the mixture ratio.
  • FIG. 43 is a diagram for explaining the correspondence of pixels in a plurality of frames when calculating the mixture ratio.
  • FIG. 44 is a block diagram illustrating another configuration of the mixture ratio estimation processing unit 401.
  • FIG. 45 is a diagram illustrating an example of the estimated mixture ratio.
  • FIG. 46 is a flowchart illustrating a process of estimating a mixture ratio using a model corresponding to a covered background area.
  • FIG. 47 is a block diagram illustrating an example of the configuration of the foreground / background separation unit 105.
  • FIG. 48A is a diagram showing an input image, a foreground component image, and a background component image.
  • FIG. 48B is a diagram illustrating a model of the input image, the foreground component image, and the background component image.
  • FIG. 49 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 50 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 51 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 52 is a block diagram illustrating an example of the configuration of the separation unit 600. As illustrated in FIG.
  • FIG. 53A is a diagram illustrating an example of a separated foreground component image.
  • FIG. 53B is a diagram illustrating an example of the separated background component image.
  • FIG. 54 is a flowchart illustrating the process of separating the foreground and the background.
  • FIG. 55 is a block diagram showing an example of the configuration of the motion-blur adjusting unit 106.
  • FIG. 56 is a diagram for explaining a processing unit.
  • FIG. 57 is a model diagram in which the pixel values of the foreground component image are developed in the time direction and the period corresponding to the shirt time is divided.
  • FIG. 58 is a model diagram in which the pixel values of the foreground component image are developed in the time direction, and the period corresponding to the shirt time is divided.
  • FIG. 59 is a model diagram in which the pixel values of the foreground component image are developed in the time direction, and the period corresponding to the shutter time is divided.
  • FIG. 60 is a model diagram in which the pixel values of the foreground component image are developed in the time direction, and the period corresponding to the shutter time is divided.
  • FIG. 61 is a diagram illustrating another configuration of the motion-blur adjusting unit 106.
  • FIG. 62 is a flowchart illustrating a process of adjusting the amount of motion blur included in the foreground component image by the motion blur adjustment unit 106.
  • FIG. 63 is a block diagram illustrating another example of the configuration of the motion-blur adjusting unit 106.
  • FIG. 64 is a diagram illustrating an example of a model that specifies a correspondence between a pixel value and a foreground component.
  • FIG. 65 is a diagram for explaining the calculation of the foreground component.
  • FIG. 66 is a diagram for explaining calculation of a foreground component.
  • FIG. 67 is a flowchart for explaining the processing for removing motion blur in the foreground.
  • FIG. 68 is a block diagram illustrating another configuration of the functions of the image processing apparatus.
  • FIG. 69 is a diagram illustrating a configuration of the combining unit 1001.
  • FIG. 70 is a block diagram showing still another configuration of the functions of the image processing apparatus.
  • FIG. 71 is a block diagram showing the configuration of the mixture ratio calculation unit 111. As shown in FIG.
  • FIG. 72 is a block diagram illustrating a configuration of the foreground / background separation unit 1102.
  • FIG. 73 is a block diagram illustrating still another configuration of the functions of the image processing apparatus.
  • FIG. 74 is a diagram showing a configuration of the synthesizing unit 1221. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a diagram showing an embodiment of an image processing apparatus according to the present invention.
  • the CPU (Central Processing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a storage unit 28.
  • ROM Read Only Memory
  • RAM Random Access Memory 23 programs executed by the CPU 21 and data are stored as appropriate.
  • ROM 22 and RAM 23 are interconnected by a bus 24.
  • the CPU 21 is also connected with an input / output interface 25 via a bus 24.
  • the input / output interface 25 is connected to an input unit 26 including a keyboard, a mouse, and a microphone, and an output unit 27 including a display, a speaker, and the like.
  • the CPU 21 executes various processes in response to a command input from the input unit 26. Then, the CPU 21 outputs an image, a sound, or the like obtained as a result of the processing to the output unit 27.
  • the storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk, and the c communication unit 29 for storing programs executed by the CPU 21 and various data is provided for the Internet and other networks. Communicates with external devices via.
  • the communication unit 29 functions as an acquisition unit that captures the output of the sensor c.
  • the program may be acquired via the communication unit 29 and stored in the storage unit 28 c.
  • the drive 30 connected to the drive drives the magnetic disk 51, the optical disk 52, the magneto-optical disk 53, or the semiconductor memory 54 when they are mounted, and drives the programs and the programs recorded there. Acquire data etc.
  • the acquired programs and data are transferred to and stored in the storage unit 28 as necessary.
  • FIG. 2 is a block diagram showing the image processing apparatus.
  • each function of the image processing apparatus is implemented by hardware or software. That is, each block diagram in this specification may be considered as a block diagram of hardware or a functional block diagram by software.
  • an image to be imaged which corresponds to an object in the real world, is called an image object.
  • the input image supplied to the image processing apparatus is supplied to a smart object extraction unit 101, a region identification unit 103, a mixture ratio calculation unit 104, and a foreground / background separation unit 105.
  • the object extraction unit 101 roughly extracts an image object corresponding to the foreground object included in the input image, and supplies the extracted image object to the motion detection unit 102.
  • the object extracting unit 1. 1 roughly extracts the image object corresponding to the foreground object by detecting the contour of the image object corresponding to the foreground object included in the input image.
  • the object extraction unit 101 roughly extracts an image object corresponding to a background object included in the input image, and supplies the extracted image object to the motion detection unit 102. For example, the object extraction unit 101 determines the background op-position based on the difference between the input image and the extracted image object corresponding to the extracted foreground object. The image object corresponding to the etato is roughly extracted.
  • the object extraction unit 101 determines the image object corresponding to the foreground object and the background image from the difference between the background image stored in the background memory provided inside and the input image.
  • the image object corresponding to the object may be roughly extracted.
  • the motion detection unit 102 calculates the motion vector of the image object corresponding to the coarsely extracted foreground object, for example, by a method such as a block matching method, a gradient method, a phase correlation method, and a pel recursive method.
  • the calculated motion vector and the position information of the motion vector are supplied to the motion-blur adjusting unit 106.
  • the motion vector output by the motion detection unit 102 includes information corresponding to the motion amount V.
  • the motion detection unit 102 may output a motion vector for each image object to the motion blur adjustment unit 106 together with pixel position information for specifying a pixel in the image object.
  • the motion amount V is a value that represents a change in the position of an image corresponding to a moving object in units of pixel intervals. For example, when the image of the object corresponding to the foreground is moved so that it is displayed at a position separated by four pixels in the next frame with respect to a certain frame, and the image of the object corresponding to the foreground is The motion amount V of the image is set to 4.
  • the object extraction unit 101 and the motion detection unit 102 are necessary when adjusting the amount of motion blur corresponding to a moving object.
  • the area specifying unit 103 specifies each of the pixels of the input image as one of a foreground area, a background area, and a mixed area, and for each pixel, any one of a foreground area, a background area, and a mixed area.
  • information indicating belongs to (hereinafter, region information hereinafter) to the mixture-ratio calculator 1 0 4, a foreground portion 1 0 5, and the motion-blur adjusting unit 1 0 6 supplies c mixture-ratio calculator 1 0 4 Is the input image and the area supplied from the area identification unit 103.
  • a mixture ratio hereinafter, referred to as a mixture ratio
  • the mixture ratio is a value indicating a ratio of an image component corresponding to a background object (hereinafter, also referred to as a background component) in a pixel value, as shown in Expression (3) described below.
  • the foreground / background separation unit 105 is a component of the image corresponding to the foreground object based on the area information supplied from the area identification unit 103 and the mixture ratio supplied from the mixture ratio calculation unit 104.
  • the input image is separated into a foreground component image consisting only of the foreground component and a background component image consisting only of the background component, and the foreground component image is divided into a motion blur adjusting unit 106 and a selecting unit 10.
  • Supply 7 It is also conceivable to use the separated foreground component image as the final output. It is possible to specify only the foreground and background without considering the conventional mixed area, and obtain more accurate foreground and background compared to the method that was separated.
  • the motion-blur adjusting unit 106 determines a processing unit indicating one or more pixels included in the foreground component image based on the motion amount V and the area information known from the motion vector.
  • the processing unit is data that specifies a group of pixels to be processed for adjusting the amount of motion blur.
  • the motion blur adjustment unit 106 includes a motion blur adjustment amount input to the image processing apparatus, a foreground component image supplied from the foreground / background separation unit 105, and a motion vector supplied from the motion detection unit 102.
  • Motion blur included in the foreground component image such as removing motion blur included in the foreground component image, reducing the amount of motion blur, or increasing the amount of motion blur based on the position information and the processing unit.
  • the foreground component image in which the amount of motion blur has been adjusted is output to the selector 107.
  • the motion vector and its position information may not be used.
  • the motion blur refers to a distortion included in an image corresponding to a moving object, which is caused by the movement of the object in the real world to be imaged and the characteristics of the sensor imaging.
  • the selection unit 107 includes, for example, a foreground component image supplied from the foreground / background separation unit 105 and a motion supplied from the motion blur adjustment unit 106 based on a selection signal corresponding to the user's selection.
  • One of the foreground component images whose blur amount has been adjusted is selected, and the selected foreground component image is output.
  • FIG. 3 is a diagram illustrating imaging by a sensor.
  • the sensor is constituted by, for example, a CCD video camera equipped with a CCD (Charge-Coupled Device) area sensor which is a solid-state image sensor.
  • the object 1 1 1 corresponding to the foreground in the real world moves horizontally between the sensor 1 1 2 corresponding to the background and the sensor in the real world, for example, from the left side to the right side in the figure.
  • the sensor images the object 111 corresponding to the foreground together with the object 112 corresponding to the background.
  • the sensor outputs the captured image in units of one frame.
  • C For example, the sensor outputs an image composed of 30 frames per second.
  • the exposure time of the sensor can be 1 to 30 seconds.
  • the exposure time is the period from when the sensor starts converting the input light into electric charge until the sensor finishes converting the input light into electric charge.
  • the exposure time is also referred to as shirt time.
  • FIG. 4 is a diagram illustrating the arrangement of pixels.
  • a to I indicate individual pixels.
  • the pixels are arranged on a plane corresponding to the image.
  • One detection element corresponding to one pixel is arranged on the sensor.
  • one detection element When the sensor captures an image, one detection element outputs a pixel value corresponding to one pixel forming the image.
  • the position of the detection element in the X direction corresponds to the position in the horizontal direction on the image
  • the position of the detection element in the Y direction corresponds to the position in the vertical direction on the image.
  • a detection element such as a CCD converts input light into electric charges and accumulates the converted electric charges for a period corresponding to the shutter time.
  • the amount of charge is almost proportional to the intensity of the input light and the time the light is input.
  • the detection element converts the electric charge converted from the input light into a period corresponding to the shutter time, and In addition to the charge stored in the That is, the detection element integrates the input light for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. It can be said that the detection element has an integration effect with respect to time.
  • the electric charge accumulated in the detection element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output. Therefore, the individual pixel values output from the sensor are calculated by integrating the spatially expanded part of the object corresponding to the foreground or background into the one-dimensional space, which is the result of integrating with respect to the Schott time. Have.
  • the image processing device extracts significant information buried in the output signal, for example, the mixture ratio by the accumulation operation of the sensor.
  • the image processing apparatus adjusts the amount of distortion caused by the foreground image object itself being mixed, for example, the amount of motion pocket. Further, the image processing apparatus adjusts the amount of distortion caused by mixing the foreground image object and the background image object.
  • FIG. 6A is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 6B is a diagram illustrating a model corresponding to an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 6A shows an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • the object corresponding to the foreground is moving horizontally from left to right with respect to the screen.
  • FIG. 6B is a model diagram in which pixel values corresponding to one line of the image shown in FIG. 6A are expanded in the time direction.
  • the horizontal direction in FIG. 6B corresponds to the spatial direction X in FIG. 6A.
  • the pixels in the background area are pixels of the background component, that is, only the image component corresponding to the background object. It is configured.
  • the pixels in the foreground area are composed of only the components of the foreground, that is, the components of the image corresponding to the foreground object.
  • the pixel value of a pixel in the mixed area is composed of a background component and a foreground component. Since the pixel value is composed of the background component and the foreground component, the mixed region can be said to be a distorted region.
  • the mixed area is further classified into a covered backround area and an uncovered background area.
  • the covered background area is a mixed area at a position corresponding to the front end of the foreground object in the traveling direction with respect to the foreground area, and is an area where the background component is covered by the foreground with the passage of time. .
  • the uncovered background area is a mixed area at the position corresponding to the rear end of the foreground object in the traveling direction of the foreground area, and the background component appears over time. Refers to the area.
  • FIG. 7 is a diagram illustrating a background area, a foreground area, a mixed area, a covered backdrop area, and an uncovered background area as described above.
  • the background area is a stationary part
  • the foreground area is a moving part
  • the covered background area of the mixed area is a part that changes from the background to the foreground
  • the uncovered background area of the mixed area is the part that changes from the foreground to the background.
  • Figure 8 is a model diagram in which the pixel values of adjacent pixels arranged in a row in the image of the object corresponding to the stationary foreground and the object corresponding to the stationary background are expanded in the time direction. It is. For example, it is possible to select pixels that are arranged on one line of the screen as pixels that are adjacently arranged in one column.
  • the pixel values of F01 to F04 shown in FIG. 8 are the pixel values of the pixels corresponding to the stationary foreground object.
  • the pixel values B01 to B04 shown in FIG. 8 are the pixel values of the pixels corresponding to the stationary background object.
  • the vertical direction in FIG. 8 corresponds to time, and time elapses from top to bottom in the figure.
  • the position on the upper side of the rectangle in FIG. 8 corresponds to the time when the sensor starts converting the input light into electric charge, and the position on the lower side of the rectangle in FIG. 8 indicates the electric power of the light input to the sensor.
  • the horizontal direction in FIG. 8 corresponds to the spatial direction X described in FIG. 6A. More specifically, in the example shown in FIG. 8, the distance from the left side of the rectangle indicated by “F01” in FIG. 8 to the right side of the rectangle indicated by “B04” is eight times the pixel pitch. That is, it corresponds to the interval between eight consecutive pixels.
  • the light input to the sensor does not change during the period corresponding to the shutter time.
  • the period corresponding to the shutter time is divided into two or more periods of the same length.
  • the number of virtual divisions is 4, the model diagram shown in FIG. Can be represented.
  • the number of virtual divisions is set in accordance with the amount of movement V of the object corresponding to the foreground within the shirt time.
  • the number of virtual divisions is set to 4 corresponding to the motion amount V of 4, and the period corresponding to the shutter time is divided into four.
  • the top row in the figure corresponds to the first, divided period since the shirt opened.
  • the second row from the top in the figure corresponds to the second, divided period when the shirt is open.
  • the third row from the top in the figure corresponds to the third, divided period since the shirt opened.
  • the fourth row from the top in the figure corresponds to the fourth, divided period since the shirt opened.
  • the shirt time divided according to the movement amount V is also referred to as shirt time / V.
  • the foreground component FO l / v is equal to the value obtained by dividing the pixel value F01 by the number of virtual divisions.
  • the foreground component F02 / V is equal to the value obtained by dividing the pixel value F02 by the number of virtual divisions
  • the foreground component F03 / v is obtained by dividing the pixel value F03 by the virtual value.
  • the foreground component F04 / V is equal to the value obtained by dividing the pixel value F04 by the virtual number of divisions.
  • the background component BO l / v is equal to the value obtained by dividing the pixel value B01 by the number of virtual divisions.
  • the background component B02 / v is equal to a value obtained by dividing the pixel value B02 by the virtual division number
  • B03 / v is a pixel value B03 obtained by dividing the pixel value B03 by the virtual division number.
  • B04 / v is equal to the pixel value B04 divided by the number of virtual divisions.
  • FIG. 10 is a model diagram in which pixel values of pixels on one line, including the covered background area, are expanded in the time direction when the object corresponding to the foreground moves toward the right side in the figure. .
  • the foreground motion amount V is 4. Since one frame is a short time, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed.
  • the image of the object corresponding to the foreground moves so as to be displayed four pixels to the right in the next frame with respect to a certain frame.
  • the leftmost pixel to the fourth pixel from the left belong to the foreground area.
  • the fifth through seventh pixels from the left belong to the mixed area that is the covered background area.
  • the rightmost pixel belongs to the background area.
  • the components included in the pixel values of the pixels belonging to the covered back ground area include the components of the period corresponding to the shutter time.
  • the background component changes to the foreground component.
  • a pixel value M indicated by a thick line frame in FIG. 10 is represented by Expression (1).
  • the fifth pixel from the left contains the background component corresponding to one shirt time / V and the foreground component corresponding to three shirt times / V, so the fifth pixel from the left is mixed
  • the ratio is 1/4.
  • the sixth pixel from the left contains the background component corresponding to the two shirt times / V and the foreground component corresponding to the two shirt times / v, so the mixture ratio of the sixth pixel from the left is , 1/2.
  • the seventh pixel from the left contains the background component corresponding to the three shutter times / V and the foreground component corresponding to one shutter time / V, so the mixture ratio of the seventh pixel from the left is , 3/4.
  • the object corresponding to the foreground is rigid, and the image of the foreground is in the next frame. It can be assumed that it moves at a constant speed so that it is displayed 4 pixels to the right, so for example, the foreground component of the fourth pixel from the left in Fig. 10, the first time when the shirt opens and the shirt time / V F07 / v is equal to the foreground component of the fifth pixel from the left in Figure 10 corresponding to the second shutter time / V when the shutter is open.
  • the foreground component F07 / v is the foreground component of the sixth pixel from the left in Fig. 10 corresponding to the third shirt time / V when the shirt is opened, and the left in Fig. 10
  • the 7th pixel from the foreground component corresponding to the 4th shirt time / V when the shirt is open is equal to the respective pixels.
  • the foreground component F06 / v of the pixel of the first shutter time / V when the shutter is open corresponds to the second shutter time / v of the fourth pixel from the left in Fig. 10, of which the shutter is open Equivalent to foreground component.
  • the foreground component F06 / v is the fifth pixel from the left in FIG. 10, the foreground component corresponding to the third shirt time / V when the shirt is open, and the left in FIG.
  • the foreground components corresponding to the fourth shutter time / V from the shutter opening of the sixth pixel to the sixth pixel, respectively, are equal to each other.
  • Foreground component F05 / v of the first pixel, in which the shirt is open is the first shirt time / V, in the third pixel from the left in Figure 10, the second is the time in which the shirt is open, Equivalent to the corresponding foreground component.
  • the foreground component F05 / v is the foreground component of the fourth pixel from the left in FIG. 10 corresponding to the third shirt time / V when the shirt is opened, and the left in FIG. From the fifth pixel, the shirt is open and the fourth shirt is equal to the foreground component corresponding to the time / V, respectively.
  • the object corresponding to the foreground is rigid, and the image of the foreground is in the next frame.
  • the foreground component F04 / v of the leftmost pixel in Fig. 10 is the first foreground time / V
  • the second pixel from the left is equal to the foreground component corresponding to the second shutter time / V when the shutter is open.
  • the foreground component F04 / v is the foreground component of the third pixel from the left in Fig. 10, which corresponds to the third shutter time / v when the shutter is opened, and the left pixel in Fig. 10.
  • the fourth pixel is equal to the foreground component corresponding to the fourth shirt time / V when the shirt is open. Since the foreground area corresponding to the moving object includes the motion blur as described above, it can be said that the area is a distortion area.
  • FIG. 11 is a model diagram in which pixel values of pixels on one line, including the uncovered background area, are developed in the time direction when the foreground moves toward the right side in the figure.
  • the motion amount V of the foreground is 4. Since one frame is short, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed.
  • the image of the object corresponding to the foreground moves to the right by four pixels in the next frame with respect to a certain frame.
  • the leftmost pixel to the fourth pixel from the left are the background. Belongs to the realm.
  • the fifth to seventh pixels from the left belong to the mixed area that is the uncovered background.
  • the rightmost pixel belongs to the foreground area.
  • the pixel values of the pixels belonging to the uncovered packed ground area At some point during the period that corresponds to the shirt time, the component contained in is replaced by the background component from the foreground component.
  • a pixel value M ′ with a thick frame in FIG. 11 is represented by Expression (2).
  • the fifth pixel from the left is the background component corresponding to three shirt times / V. Including the minute and the foreground component corresponding to one shirt time / V, the mixture ratio of the fifth pixel from the left is 3/4.
  • the sixth pixel from the left contains the background component corresponding to the two shirt times / V and the foreground component corresponding to the two shirt times / v, so the mixture ratio of the sixth pixel from the left is , 1/2.
  • the seventh pixel from the left contains the background component corresponding to one shutter time / V and the foreground component corresponding to three shutter times / V, so the mixture ratio of the seventh pixel from the left a Is 1/4.
  • B is the pixel value of the background
  • Fi / v is the foreground component
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the amount of movement V is 4, for example, when the shirt at the fifth pixel from the left in Fig. 11 opens, first, the foreground component FOI / v of the shutter time / V is the sixth pixel from the left in FIG. 1 1 is equal to ingredients foreground the shutter corresponding to the second shutter time / V open ⁇ Similarly, Fol / v is the foreground component of the seventh pixel from the left in Fig. 11 corresponding to the third shutter time / V when the shutter is open, and the eighth pixel from the left in Fig. 11 The pixel is equal to the foreground component corresponding to the fourth shutter time / V after the shutter opens.
  • the first foreground component F02 / v of the shutter time / V is equal to the foreground component of the seventh pixel from the left in FIG. 11 corresponding to the second shutter time / V from when the shutter is opened.
  • the foreground component F02 / v is equal to the foreground component of the eighth pixel from the left in FIG. 11 corresponding to the third shirt time / V when the shirt is opened.
  • the object corresponding to the foreground is rigid, moves at a constant speed, and moves Since the threshold v is 4, for example, the foreground component F03 / v of the seventh pixel from the left in Fig. 11, which is the first pixel when the shirt is open, and the shutter time / V is the left in Fig. 11 From the eighth pixel, the shutter is open equal to the foreground component corresponding to the second shutter time / V.
  • the number of virtual divisions has been described as four, but the number of virtual divisions corresponds to the amount of motion V.
  • the motion amount V generally corresponds to the moving speed of the object corresponding to the foreground. For example, when the object corresponding to the foreground moves so as to be displayed four pixels to the right in the next frame with respect to a certain frame, the motion amount V is set to 4. Corresponding to the motion amount V, the number of virtual divisions is four. Similarly, for example, when the object corresponding to the foreground is moving so that it is displayed 6 pixels to the left in the next frame with respect to a certain frame, the motion amount V is set to 6, and the virtual division is performed. The number is six.
  • Figures 12 and 13 show the mixed area consisting of the foreground area, background area, covered background area or uncovered background area described above, and the foreground component and background corresponding to the divided shirt time. This shows the relationship with the components.
  • Figure 12 shows an example of extracting pixels in the foreground, background, and mixed regions from an image containing the foreground corresponding to an object moving in front of a stationary background.
  • the object indicated by A and corresponding to the foreground is moving horizontally with respect to the screen.
  • Frame # n + l is the frame next to frame #n
  • frame # n + 2 is the frame next to frame # n + l.
  • FIG. 13 shows the model developed in the above.
  • the pixel value of the foreground area is composed of four different foreground components corresponding to the time / V period as the object corresponding to the foreground moves.
  • the leftmost pixel of the pixels in the foreground area shown in FIG. 13 is
  • F01 / v, F0 2 A ⁇ F0 3 / v, consists of Oyobi F04 / v. That is, pixels in the foreground area include motion blur.
  • the light corresponding to the background input to the sensor does not change during the period corresponding to the shutter time.
  • the pixel value in the background area does not include motion blur.
  • the pixel values of the pixels belonging to the mixed area consisting of the force bird background area or the covered background area are composed of a foreground component and a background component.
  • the pixel values of pixels that are adjacent to each other and are arranged in one row in a plurality of frames and are located at the same position on the frame are determined in the time direction.
  • the model developed in For example, when the image corresponding to the object is moving horizontally with respect to the screen, pixels that are arranged on one line of the screen can be selected as pixels that are adjacently arranged in one row.
  • Fig. 14 shows the pixel values of the pixels that are adjacent to each other and are arranged in one row in the three frames of the image obtained by capturing the object corresponding to the stationary background. It is the model figure developed in the time direction.
  • Frame #n is the frame following frame # n-1
  • frame # n + l is the frame following frame #n.
  • Other frames are similarly referred to.
  • the pixel values B01 to B12 shown in FIG. 14 are the pixel values of the pixels corresponding to the stationary background object. Since the object corresponding to the background is stationary, the pixel values of the corresponding pixels do not change in frames # n -1 to n + 1. For example, the pixel in the frame and the pixel in the frame # n + 1 corresponding to the position of the pixel having the pixel value of B05 in the frame #nl have the pixel value of B05.
  • FIG. 15 shows three adjacent frames of an image of the object corresponding to the foreground moving to the right in the figure together with the object corresponding to the stationary background.
  • FIG. 9 is a model diagram in which pixel values of pixels arranged in one column and located at the same position on a frame are developed in the time direction.
  • the model shown in FIG. 15 includes a covered background region.
  • Fig. 15 it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the foreground image moves so that it is displayed four pixels to the right in the next frame.
  • the quantity V is 4 and the number of virtual divisions is 4.
  • the foreground component of the leftmost pixel of frame #nl in Fig. 15 when the shutter is open and the first shutter time / V is F12 / v is the second pixel from the left in Fig. 15
  • the foreground component of the second shirt time / V when the shirt is opened is also F12 / v.
  • the fourth pixel from the left in Figure 15 is the fourth pixel from the left pixel
  • the foreground component of the shirt time / V is F12 / v.
  • the foreground component of the leftmost pixel of frame #nl in Fig. 15 and the second shutter time / V after shutter opening is Fl l / v
  • the second pixel from the left in Fig. 15 In the foreground component of the third shirt time / V when the shirt is open, Fl l / v, Fig. 15
  • the foreground component of is Fl l / v.
  • the foreground component of the leftmost pixel in frame #n_l in Fig. 15 and the third shutter time / V after shutter opening is FlO / v
  • the foreground component of the fourth shutter time / V when the shirt is open is also FlO / v
  • Fig. 15 The leftmost pixel in the leftmost pixel of frame #nl in Figure 5, the fourth shutter time when the shutter is open
  • the foreground component of / V is F09 / v.
  • the background component of the second pixel from the left of frame # n-1 in Fig. 15 that is the first shutter time / V from the shutter to open is BOL / v.
  • the background component of the third to third hours / v is B03 / v.
  • the leftmost pixel belongs to the foreground area, and the second to fourth pixels from the left side belong to the mixed area which is the power bird background area.
  • the fifth through 12th pixels from the left of frame # n-l in FIG. 15 belong to the background area, and their pixel values are B04 through B11, respectively.
  • the first to fifth pixels from the left of the frame in FIG. 15 belong to the foreground area.
  • the foreground component of the shirt time / V is
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the image of the foreground moves so that it is displayed four pixels to the right in the next frame.
  • the foreground component of the first shutter time / V when the shutter is open is F12 / v
  • the sixth pixel from the left in the left is also F12 / v.
  • the foreground component of the shirt time / V is F12 / v.
  • the foreground component of the fifth pixel from the left of frame #n in Fig. 15 at shutter release time / V for the second shutter release time / V is Fl l / v
  • the sixth pixel from the left in Fig. 15 The foreground component of the pixel, which is the third shirt time / V when the shirt is opened, is also Fl l / v.
  • Fig. 15 The seventh pixel from the left in Fig. 5, when the shutter is open, the fourth shutter time
  • the foreground component of / v is Fl l / v.
  • the foreground component of the 5th pixel from the left of frame #n in Fig. 15 at the third shutter opening time / V in the foreground is FlO / v
  • the sixth pixel from the left in Fig. 15 The foreground component of the fourth shirt time / V, which is the same as when the shirt opens, is also FlO / v.
  • the foreground component of the fifth pixel from the left of frame #n in Fig. 15 at the fourth shutter time / V after the shutter is opened is F09 / v. Since the object corresponding to the background is stationary, the background component of the sixth pixel from the left of frame #n in Fig. 15 at the first shutter time / V after the shutter has opened is B05 / v. .
  • the background component of the 7th pixel from the left of frame #n in Fig. 15 from the first and second shirt time / v when the shirt is opened is B06 / v.
  • the background component of the first to third shirt time / V after the shirt is opened is B07 / v.
  • the sixth to eighth pixels from the left belong to a mixed area which is a covered-back round-trip area.
  • the ninth to 12th pixels from the left of frame #n in FIG. 15 belong to the background area, and the pixel values are B08 to B11, respectively.
  • the first to ninth pixels from the left of frame # ⁇ + 1 in Fig. 15 belong to the foreground area.
  • the foreground component of the shirt time / ⁇ is any of FO l / v to F12 / v.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the image of the foreground moves so that it is displayed four pixels to the right in the next frame, so frame # n + l in Fig. 15
  • the foreground component of the ninth pixel from the left and the first shutter time / V from when the shutter has opened is F12 / v
  • the shirt in the 10th pixel from the left in Figure 15 is open
  • the foreground component of the second shirt time / V is also F12 / v.
  • the foreground component of the fourth shutter time / V is F12 / v.
  • the foreground component of the ninth pixel from the left in frame # n + l in Fig. 15 during the second shutter release time / V after shutter release is Fl l / v
  • the left pixel in Fig. 15 The foreground component of the 10th pixel from the third shutter time / V after the shutter is opened also becomes Fl l / v.
  • the foreground component of the fourth pixel from the bottom of the shirt is Fl l / v.
  • Fig. 15 The 9th pixel from the left of frame # ⁇ + 1 in 5
  • the foreground component of the shirt time / v is FlO / v
  • the foreground component of the 10th pixel from the left in Fig. 15 at the fourth shirt from the left of the shirt is FlO / v. / v
  • the background component of the 10th pixel from the left of frame # n + l in Fig. 15 from the left, and the first shirt time / V background component is B09 / It becomes v.
  • the background components of the first pixel from the left of frame # n + l in Fig. 15 corresponding to the first and second shutter time / V from when the shutter has opened are BIO / v.
  • the background components of the first to third pixels from the left of the first pixel to the third pixel, and the background of the shirt time / V are Bl l / v.
  • FIG. 16 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.
  • FIG. 17 shows three adjacent pixels of three frames of an image of the foreground corresponding to the object moving to the right in the figure together with the stationary background.
  • FIG. 4 is a model diagram in which pixel values of pixels at the same position are developed in the time direction. In FIG. 17, an uncovered background area is included. In Fig. 17, it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed.
  • the amount of motion V is 4, for example, c , which is the largest in frame #nl in Figure 17
  • the foreground component of the left pixel which is the first pixel when the shirt is open, is F13 / v
  • the second pixel from the left in Figure 17 is the second pixel when the shirt is open.
  • the time / V foreground component is also F13 / v.
  • the fourth pixel from the left in Fig. 17 is the fourth pixel from the left pixel.
  • the foreground component of the second shirt time / v is F13 / v.
  • the foreground component of the second pixel from the left of frame -1 in Fig. 17 at the first shutter release time / V when the shutter is open is F14 / v
  • the third pixel from the left in Fig. 17 is also F14 / v.
  • the foreground component of the shirt time / v, which is the first pixel when the shirt opens is F15 / v.
  • the background component of the third and fourth shirts time / V after the shirt is opened is B26 / v.
  • the background component of the third pixel from the left of frame # n-1 in FIG. 17 at the fourth shutter time / V after the shutter is opened is B27 / v.
  • the leftmost pixel to the third pixel belong to the mixed area which is the covered background area.
  • the fourth to 12th pixels from the left of frame # n-l in FIG. 17 belong to the foreground area.
  • the foreground component of the frame is one of F13 / v to F24 / v.
  • the leftmost pixel to the fourth pixel from the left of frame #n in FIG. 17 belong to the background area, and the pixel values are B25 to B28, respectively.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the image of the foreground moves so that it is displayed four pixels to the right in the next frame.
  • the foreground component of the first shutter time / V of the fifth pixel from the left, when the shutter is open, is F13 / v, and the sixth pixel from the left in the right of FIG.
  • the component of the foreground of the shirt time / V is also F13 / v.
  • the foreground component of the seventh pixel from the left in Figure 17, the third pixel at the time of opening, and the foreground component of the seventh pixel from the left in Figure 17, the fourth pixel of the pixel at the eighth pixel from the left in Figure 17 The foreground component of the shirt time / V is F13 / v.
  • the foreground component of the sixth pixel from the left of frame #n in Fig. 17 at the first shutter time / V after the shutter has opened is F14 / v
  • the seventh pixel from the left in Fig. 17 is F14 / v
  • the foreground component of the second shirt time / v when the shirt is open is also F14 / v
  • the foreground of the eighth pixel from the left in Figure 17 of the first shirt time / V Is F15 / v.
  • the background component of the fifth pixel from the left of the frame in Figure 17 and the second through fourth shirt time / v from the bottom of the shirt is B29 / v .
  • the background component of the sixth pixel from the left of frame #n in Fig. 17 corresponding to the third to fourth shutter time / V from when the shutter has opened is B30 / v.
  • the background component of the seventh pixel from the left of frame #n in Fig. 17 corresponding to the fourth shutter time / V after the shutter is opened is B31 / v.
  • the eighth to 12th pixels from the left of frame #n in FIG. 17 belong to the foreground area.
  • the value corresponding to the period of the shirt time / ⁇ in the foreground area of frame # ⁇ is one of F13 / v to F20 / v.
  • the leftmost pixel to the eighth pixel from the left of frame # ⁇ + 1 in FIG. 17 belong to the background area, and their pixel values are # 25 to # 32, respectively.
  • the object corresponding to the foreground is rigid and moves at a constant speed, and the image of the foreground moves so that it is displayed four pixels to the right in the next frame.
  • the foreground component of the ninth pixel from the left and the first shutter time / V from when the shutter has opened is F13 / v
  • the shirt in the 10th pixel from the left in Fig. 17 that is open is 2
  • the foreground component of the second shirt time / V is also F13 / v.
  • the foreground component of the fourth shirt time / V is F13 / v.
  • the foreground component of the 10th pixel from the left of frame # ⁇ + 1 in Fig. 17 at the time when the shirt is opened and the first shirt time / V is F14 / v, is 1 1 from the left in Fig. 17
  • the shirt is open and the second shirt is time / V, also F14 / v Becomes In FIG. 17, the foreground component of the first pixel from the left in the first pixel at the time when the shirt is opened is F15 / v.
  • the background component of the ninth pixel from the left of frame # n + l in Fig. 17 and the second through fourth of the shirts from the left and the fourth is the shirt time / v Becomes B33 / v.
  • the background component of the 10th pixel from the left of frame # n + l in Fig. 17 at the 3rd and 4th shutter start time / V from when the shutter has opened is B34 / v.
  • the background component of the 11th pixel from the left of frame # n + l in Fig. 17 corresponding to the fourth portion of the shutter time / V from when the shutter has opened is B35 / v.
  • the ninth pixel to the eleventh pixel from the left belong to the mixed area that is the uncovered background area.
  • the 12th pixel from the left of frame # ⁇ + 1 in Fig. 17 belongs to the foreground area.
  • the foreground component of the shirt time / V in the foreground area of frame # ⁇ + 1 is one of F13 / v to F16 / v.
  • FIG. 18 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.
  • the area specifying unit 103 uses the pixel values of a plurality of frames to set a flag indicating that the area belongs to the foreground area, background area, covered background area, or uncovered back-drop area.
  • the information is supplied to the mixture ratio calculation unit 104 and the motion blur adjustment unit 106 as region information in association with each other.
  • the mixture ratio calculation unit 104 calculates a mixture ratio for each pixel for the pixels included in the mixed region based on the pixel values of a plurality of frames and the region information, and uses the calculated mixture ratio as the foreground / background separation unit 1. 0 to 5
  • the foreground / background separation unit 105 extracts a foreground component image consisting of only foreground components based on the pixel values, the area information, and the mixture ratio of the plurality of frames, and supplies the extracted foreground component image to the motion blur adjustment unit 106. .
  • the motion blur adjustment unit 106 receives the foreground component image supplied from the foreground / background separation unit 105, the motion vector supplied from the motion detection unit 1 ⁇ 2, and the region identification unit 103. Based on the supplied area information, the amount of motion blur included in the foreground component image is adjusted, and a foreground component image in which the amount of motion blur is adjusted is output.
  • step S11 the region specifying unit 103 determines whether each pixel of the input image belongs to any of the foreground region, the background region, the covered background region, or the uncovered background region based on the input image.
  • the area identification processing for generating the area information shown is executed. The details of the area specifying process will be described later.
  • the region specifying unit 103 supplies the generated region information to the mixture ratio calculating unit 104.
  • the area specifying unit 103 determines, for each pixel of the input image, a foreground area, a background area, or a mixed area (covered background area or uncovered background area) based on the input image.
  • Region information indicating whether the region belongs to or may be generated.
  • the foreground / background separation unit 105 and the motion-blur adjustment unit 106 determine whether the mixing area is a force bird background area or an uncovered background area. Is determined. For example, if the foreground area, the mixed area, and the background area are arranged in this order according to the direction of the motion vector, the mixed area is determined to be the force bird background area, and corresponds to the direction of the motion vector. Then, when the background area, the mixed area, and the foreground area are arranged in this order, the mixed area is determined to be an covered background area.
  • step S12 the mixture ratio calculation unit 104 calculates a mixture ratio for each pixel included in the mixed region based on the input image and the region information. The details of the mixture ratio calculation process will be described later.
  • the mixture ratio calculator 1 4 supplies the calculated mixture ratio to the foreground / background separator 105.
  • step S13 the foreground / background separation unit 105 extracts a foreground component from the input image based on the region information and the mixture ratio a, and supplies the foreground component image to the motion blur adjustment unit 106. I do.
  • step S14 the motion blur adjustment unit 106 sets the motion vector and the area Based on the information, a processing unit is generated that indicates the position in the image of pixels that are continuous in the motion direction and belong to any of the uncovered background area, foreground area, and covered background area. Adjusts the amount of motion blur included in the foreground component corresponding to the unit. The details of the processing for adjusting the amount of motion blur will be described later.
  • step S15 the image processing apparatus determines whether or not processing has been completed for the entire screen. If it is determined that processing has not been completed for the entire screen, the process proceeds to step S14, where the processing unit is determined. The process of adjusting the amount of motion blur for the foreground component corresponding to is repeated.
  • step S15 If it is determined in step S15 that the processing has been completed for the entire screen, the processing ends.
  • the image processing apparatus can separate the foreground and the background and adjust the amount of motion poke included in the foreground. That is, the image processing apparatus can adjust the amount of motion blur included in the sample data that is the pixel value of the foreground pixel.
  • FIG. 20 is a block diagram showing the configuration of the area specifying unit 103. As shown in FIG.
  • the frame memory 201 stores the input image in frame units.
  • the frame memory 201 stores the frame # n-1, the frame immediately before the frame #n, the frame #n, and the frame # n + l, the frame immediately after the frame # ⁇ . .
  • the static / movement determination unit 202-2-1 calculates the pixel value of the pixel of the frame #n that is the target of the region identification, and the frame # at the same position as the pixel position of the pixel of the frame to that the target of the region identification.
  • the pixel value of the pixel of n_l is read from the frame memory 201, and the absolute value of the pixel value difference is calculated.
  • the static / movement determining unit 202-1 determines whether or not the absolute value of the difference between the pixel value of frame and the pixel value of frame-1 is greater than a preset threshold Th, and determines the difference between the pixel values. If it is determined that the absolute value of is larger than the threshold value Th, a static motion determination indicating a motion is supplied to the area determination unit 203. Frame # n pixels When it is determined that the absolute value of the difference between the pixel value and the pixel value of the pixel in the frame to-1 is equal to or smaller than the threshold Th, the static / movement determination unit 202--1 determines whether or not the static / dynamic determination indicating stationary is an area. It is supplied to the judgment unit 203.
  • the static / movement determination unit 2 0 2-2 calculates the pixel value of the pixel of frame # n + l and the target of frame #n at the same position on the image as the pixel of frame #n, which is the target of area identification.
  • the pixel value of the pixel to be read out is read from the frame memory 201, and the absolute value of the difference between the pixel values is calculated.
  • the static / movement determining unit 202-2-2 determines whether the absolute value of the difference between the pixel value of frame # n + l and the pixel value of frame # is greater than a preset threshold Th, When it is determined that the absolute value of the difference between the pixel values is larger than the threshold value Th, the static / movement determination indicating the movement is supplied to the area determination unit 203. If it is determined that the absolute value of the difference between the pixel value of the pixel of frame # n + l and the pixel value of the pixel of frame #n is equal to or smaller than the threshold Th, the static / movement determination unit 20 22 Is supplied to the area determination unit 203.
  • the area determination unit 203 determines that the static / movement determination supplied from the static / dynamic determination unit 202-1 is stationary, and the static / dynamic determination supplied from the static / movement determination unit 202-2 is stationary. In this case, it is determined that the pixel which is the target of the area identification in the frame to belongs to the still area, and the address corresponding to the pixel for which the area is determined in the frame #n of the frame memory 204 for storing the determination flag is determined. Set a flag indicating that it belongs to the stationary area. The area determination unit 203 determines that the static / dynamic determination supplied from the static / dynamic determination unit 202-1 indicates movement, and the static / dynamic determination supplied from the static / dynamic determination unit 202-2 indicates movement.
  • the pixel that is an area identification target in frame #n belongs to the motion area, and the address corresponding to the pixel whose area is determined in frame to of the determination flag storage frame memory 204 is determined.
  • the area determination unit 203 determines that the static / dynamic determination supplied from the static / dynamic determination unit 202-1 indicates stillness, and that the static / dynamic determination supplied from the static / dynamic determination unit 202-2 determines movement.
  • a flag indicating that the pixel belongs to the covered background area is set at the address of # n + l corresponding to the pixel whose area is determined.
  • the area determination unit 203 determines that the static / dynamic determination supplied from the static / dynamic determination unit 202-1 indicates movement, and the static / dynamic determination supplied from the static / dynamic determination unit 202-2 determines that the vehicle is stationary. When it is indicated, it is determined that the pixel which is the target of the region identification in the frames #n to l belongs to the uncovered background region, and the region of the frame #n_l of the determination flag storage frame memory 204 is determined. A flag indicating that the pixel belongs to the uncovered background area is set at the address corresponding to the pixel.
  • the flag set by the area determination unit 203 in the determination flag storage frame memory 204 is, for example, a 2-bit flag. When “0 0”, it indicates a still area,
  • the determination flag storage frame memory 204 stores a 2-bit flag corresponding to each pixel, a frame-determined area flag of frame # n-1, a frame-determined area flag of frame #n, and a frame #n The flags determined as the + l area are individually stored.
  • the determination flag storage frame memory 204 stores flags indicating the uncovered background area, the motion area, the stationary area, and the force pad background area when the area identification unit 103 finishes the area determination for one frame. Is output, the flag of frame # n + l is output as area information.
  • the determination flag storage frame memory 204 when the area identification unit 103 finishes the area determination for one frame, flags indicating the uncovered background area, the motion area, and the quarrel area are set. Move the flag from frame #n to frame.
  • the determination flag storage frame memory 204 stores the flag of the frame #n_l in which the flag indicating the uncovered background area is set when the area identification unit 103 finishes the area determination for one frame. Go to #n.
  • the determination flag storage frame memory 204 initializes the frame # n-1 when the area identification unit 103 completes the area determination for one frame.
  • the frame # n + l stored in the determination flag storage frame memory 204 includes a flag indicating an uncovered background area, a flag indicating a still region, And a flag indicating the motion area are set.
  • the area determination unit 203 sets the stationary area or the motion area in frame #n in which the flag indicating the uncovered background area stored in the determination flag storage frame memory 204 is set. Set the indicated flag.
  • the area determination unit 203 does not set the flag indicating the moving area.
  • the area determination unit 203 sets a flag indicating an uncovered background area, a flag indicating a still area, and a flag indicating a motion area, which are stored in the determination flag storage frame memory 204. Set a flag to indicate the covered background area in frame # n + l.
  • Figure 22 shows a model diagram in which the pixel values of pixels arranged in a row adjacent to the motion direction of the image corresponding to the foreground object are developed in the time direction. For example, when the motion direction of the image corresponding to the foreground object is horizontal to the screen, the model diagram in Fig. 22 shows a model in which the pixel values of adjacent pixels on one line are expanded in the time direction. Is shown.
  • the line in frame #n is the same as the line in frame ⁇ + l.
  • the foreground components corresponding to the objects included in the second to 13th pixels from the left are the sixth to 17th pixels from the left in frame # ⁇ + 1. included.
  • the pixels belonging to the covered pack background area are the 11th to 13th pixels from the left, and the pixels belonging to the uncovered background area are the 2nd to 4th pixels from the left. is there.
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left, and the pixels belonging to the uncovered background area are the 6th to 8th pixels from the left. is there.
  • the pixel value of the 16th pixel from the left of frame #n does not change from the pixel value of the 16th pixel from the left of frame #n_l
  • the pixel value of the 17th pixel from the left of frame #n_l Does not change from the pixel value of the 17th pixel from the left of frame # n-1.
  • the pixels of frame #n and frame # n-1 corresponding to the pixels belonging to the covered background area in frame # n + l consist only of the background components, and the pixel values do not change.
  • the absolute value is almost zero. Therefore, the still / moving judgment for the pixels of frame # ⁇ and frame fo-1 corresponding to the pixels belonging to the covered background area in frame # n + l is judged to be still by the still / moving judgment section 202.
  • the still / movement determination for the pixels belonging to the mixed area in frame # ⁇ + 1 and the corresponding pixels in frame # ⁇ is determined to be movement by the still / movement determination unit 202-2-2.
  • the region determination unit 203 is supplied with the result of the static / moving determination indicating the motion from the static / movement determining unit 202-2-2, and the static / dynamic determination indicating the stillness is supplied from the static / movement determining unit 202-1.
  • the result of is supplied, it is determined that the corresponding pixel of frame # ⁇ + 1 belongs to the covered background area.
  • the pixel value of the third pixel from the left of frame # n + l does not change from the pixel value of the third pixel from the left of frame # 11, and the fourth pixel from the left of frame ⁇ + l The pixel value of the pixel does not change from the pixel value of the fourth pixel from the left of frame # ⁇ .
  • the pixels of frame # ⁇ and frame # ⁇ + 1, which correspond to the pixels belonging to the uncovered packed ground area in frame # ⁇ -1, consist only of the background component, and the pixel values do not change.
  • the absolute value of is almost zero. Therefore, the still / moving judgment for the frame and the pixel of frame # ⁇ + 1 corresponding to the pixels belonging to the uncovered background area in frame # ⁇ is judged to be still by the still / moving judgment section 202-2.
  • the still / moving judgment for the pixels belonging to the mixed area in the frame to-1 and the corresponding pixels in the frame to-1 is judged to be a motion by the still / moving judging section 202-1.
  • the region determination unit 203 is supplied with the result of the static motion determination indicating the motion from the static motion determination unit 202-1, and the static motion determination unit 202 indicates the static motion determination from the static motion determination unit 202-2.
  • the result of is supplied, it is determined that the corresponding pixel of the frame forest n-1 belongs to the uncovered background area.
  • FIG. 25 is a diagram showing the determination conditions of the area specifying unit 103.
  • the pixel of frame to- 1 and the pixel of frame # n + 1 at the same position on the image as the position of the pixel to be determined for frame # n + 1 The pixel of frame #n at the position of frame #n is determined to be still, and the pixel of frame #n at the same position as the pixel on the image to be determined for frame # n + l and frame
  • the region identifying unit 103 determines that the frame # n + l is to be determined. Pixel belongs to the covered background area.
  • the pixel of frame # 11-1 and the pixel of frame #n at the same position on the image of the pixel to be determined for frame #n are determined to be stationary, and the pixel of frame #n is determined to be stationary.
  • the region specifying unit 103 sets the frame #n It is determined that the pixel to be determined belongs to the still area.
  • the pixel of frame # n-1 and the pixel of frame #n at the same position as the position of the pixel to be determined for the frame on the image are determined to be motion, and the pixel of frame #n and the frame
  • the area identifying unit 103 determines the target of frame #n Is determined to belong to the motion area.
  • the pixel of frame # n-1 and the pixel of frame #n at the same position as the position of the pixel to be determined for frame #nl on the image are determined to be motion, and the determination of frame # n-1 is made.
  • the area specifying unit 103 determines that the pixel to be determined in the frame to-1 belongs to the uncovered background area.
  • the area specifying unit 103 specifies the foreground area, the background area, the covered background area, and the anchored background area.
  • the region specifying unit 103 needs time corresponding to three frames to specify a foreground region, a background region, a covered background region, and an anchored background region for one frame.
  • FIG. 26 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103.
  • the foreground object is moving from left to right in the drawing.
  • FIG. 27 is an enlarged view of a part corresponding to the upper left side of the foreground object in the determination result of FIG. 26. '
  • step S201 the frame memory 201 acquires the images of the frames # n-1 to # n + 1 to be determined.
  • step S202 the still / movement determination unit 202-2-1 determines whether or not the pixel of frame # n-1 and the pixel at the same position of frame #n are stationary, and determines that the pixel is stationary. In this case, the process proceeds to step S203, and the still / movement determination unit 220-2-2 determines whether or not the pixel of frame #n and the pixel at the same position of frame # n + 1 are stationary.
  • step S203 If it is determined in step S203 that the pixel of frame #n and the pixel at the same position of frame # ⁇ + 1 are stationary, the process proceeds to step S204, and the area determination unit 203 determines The corresponding address of the frame # ⁇ stored in the flag storage frame memory 204 is set to “0 0” indicating that the frame belongs to the still area, and the procedure proceeds to step S 205.
  • step S202 when it is determined that the motion is between the pixel of frame # ⁇ -1 and the pixel at the same position of the frame, or in step S203, the pixel of frame # ⁇ and the frame # ⁇ If the pixel at the same position of +1 is determined to be a motion, the pixel at frame # ⁇ does not belong to the still area, and thus the processing of step S204 is skipped, and the procedure proceeds to step S204. Proceed to 205.
  • step S205 the static / movement determining unit 202-2-1 sets the pixel of frame # ⁇ -1 And the pixel at the same position in frame #n to determine whether or not a motion has occurred. If it is determined that the motion has occurred, the process proceeds to step S206, and the static / movement determining unit 202-2-2 determines whether the pixel in frame to And the pixel at the same position in frame # n + l to determine whether it is a motion or not.
  • step S206 If it is determined in step S206 that the pixel of frame #n and the pixel at the same position of frame # n + l are motion, the process proceeds to step S207, where the area determination unit 203 determines Based on the flag of frame #n stored in flag storage frame memory 204, it is determined whether the corresponding pixel has already been determined to be in the uncovered background area, and the corresponding pixel is determined. If it is determined that has not been determined to be the uncovered background area, the process proceeds to step S208.
  • step S208 the area judgment unit 203 sets the address corresponding to the frame #n stored in the judgment flag storage frame memory 204 to "1 1" indicating that it belongs to the motion area. Is set, and the procedure proceeds to Step S209.
  • step S205 when it is determined that the pixel of frame # n-1 and the pixel of the same position of frame #n are still, in step S206, the pixel of the frame and the same position of the frame are If the pixel is determined to be still, or if it is determined in step S207 that the corresponding pixel has already been determined to be in the uncovered background area, the pixel of the frame is Since it does not belong to the motion area, the processing of step S208 is skipped, and the procedure proceeds to step S209.
  • step S209 the still / moving determination unit 202-2-1 determines whether or not the pixel of frame # n -1 and the pixel at the same position of frame #n are stationary, and determines that the pixel is stationary. In this case, the process proceeds to step S210, and the static / movement determining unit 220-2-2 determines whether or not the pixel of frame #n and the pixel at the same position of frame # n + 1 are moving.
  • step S210 If it is determined in step S210 that the motion is caused by the pixel of frame #n and the pixel at the same position in the frame, the process proceeds to step S211 and the area determination unit 203 determines the determination flag storage frame memory The pair of frame # ⁇ + 1 stored in 204 The corresponding address is set to "1 0" indicating that it belongs to the covered background area, and the procedure proceeds to step S212.
  • step S209 If it is determined in step S209 that the pixel of frame # n-1 and the pixel at the same position in frame #n are moving, or in step S210, the pixel of frame #n and the frame If it is determined that the pixel at the same position of # n + l is still, since the pixel at frame # n + l does not belong to the covered background area, the processing of step S211 is skipped, The procedure proceeds to step S212.
  • step S212 the static / movement determining unit 202-1—determines whether or not the pixel of frame #n_l and the pixel at the same position of frame #n are moving. Proceeding to step S213, the still / movement determination unit 202-2-2 determines whether or not the pixel of frame #n and the pixel at the same position of frame # n + 1 are stationary.
  • step S213 If it is determined in step S213 that the pixel of frame ⁇ and the pixel at the same position of frame # ⁇ + 1 are still, the process proceeds to step S214, and the region determination unit 203 determines the determination flag Set “01” indicating that the frame belongs to the uncovered background area to the address corresponding to the frame # ⁇ -1 stored in the storage frame memory 2 ⁇ 4, and the procedure proceeds to step S215. move on.
  • step S212 when it is determined that the pixel of frame # ⁇ _1 and the pixel at the same position of the frame are stationary, or in step S213, the pixel of frame and the same of frame # ⁇ + 1 If the pixel at the position is determined to be a motion, since the pixel at frame # ⁇ -1 does not belong to the uncovered background area, the processing of step S214 is skipped, and the procedure proceeds to step S2. Proceed to 2 1 5 In step S215, the area specifying unit 103 determines whether or not the area has been specified for all the pixels. If it is determined that the area has not been specified for all the pixels, the procedure includes Returning to S202, the process of specifying the area is repeated for other pixels.
  • step S215 If it is determined in step S215 that regions have been specified for all pixels, the process proceeds to step S216, where the determination flag storage frame memory 204 stores the foreground A frame flag indicating the area, background area, covered background area, or uncovered background area is output as area information.
  • step S217 the determination flag storage frame memory 204 moves the flag of frame #n to frame # n + 1.
  • step S2128 the determination flag storage frame memory 204 moves the flag of frame # n-l to frame #n.
  • step S219 the determination flag storage frame memory 204 initializes the frame to-1 and the process ends.
  • the region specifying unit 103 obtains, for each of the pixels included in the frame, region information indicating that the pixel belongs to the moving region, the still region, the uncovered background region, or the covered background region.
  • the area identification unit 103 can generate the area information corresponding to the mixed area by applying a logical sum to the area information corresponding to the covered background area and the force bird background area. May be generated to generate, for each of the pixels included in the frame, area information including a flag indicating that the pixel belongs to a moving area, a still area, or a mixed area.
  • the region specifying unit 103 can more accurately specify the moving region.
  • the area specifying unit 103 can output the area information indicating the moving area as the area information indicating the foreground area, and output the area information indicating the stationary area as the area information indicating the background area.
  • the region specifying unit 103 calculates, for each of the pixels included in the frame, region information indicating that the pixel belongs to the moving region, the still region, the uncovered background region, or the force bird background region. Can be generated.
  • the area specifying unit 103 can generate the area information in a relatively small memory space.
  • FIG. 30 is a block diagram showing an example of the configuration of the mixture ratio calculating section 104. As shown in FIG. Presumed confusion The mixing processing unit 401 calculates an estimated mixing ratio for each pixel by an operation corresponding to the model of the covered background area based on the input image, and calculates the calculated estimated mixing ratio. Supply to 3.
  • the estimated mixture ratio processing unit 402 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered packed region based on the input image, and mixes the calculated estimated mixture ratio. The ratio is supplied to the ratio determination unit 403.
  • the mixing ratio Qf of the pixels belonging to the mixed region has the following properties. That is, the mixture ratio changes linearly in accordance with the change in the position of the pixel. If the change in the pixel position is one-dimensional, the change in the mixture ratio can be represented by a straight line. If the change in the pixel position is two-dimensional, the change in the mixture ratio ⁇ should be represented by a plane. I can do it.
  • the slope of the mixture ratio is the inverse ratio of the amount of motion V in the foreground within the shutter time.
  • Figure 31 shows an example of an ideal mixing ratio.
  • the slope 1 in the mixing region with the ideal mixing ratio can be expressed as the reciprocal of the motion amount V.
  • the ideal mixture ratio has a value of 1 in the background region, a value of 0 in the foreground region, and a value exceeding 0 and less than 1 in the mixture region. .
  • the pixel value C06 of the seventh pixel from the left of frame # ⁇ is expressed by equation (4) using the pixel value ⁇ 06 of the seventh pixel from the left of frame # ⁇ -1. be able to.
  • the pixel value C06 is expressed as the pixel value M of the pixel in the mixed area
  • the pixel value P06 is expressed as the pixel value B of the pixel in the background area. That is, the pixel value M of the pixel in the mixed area and the pixel value B of the pixel in the background area can be expressed as Expressions (5) and (6), respectively.
  • Equation (4) corresponds to the mixing ratio. Since the motion amount V is 4, the mixture ratio of the seventh pixel from the left of frame #n is 0.5.
  • Equation (3) indicating the mixture ratio can be rewritten as equation (7).
  • Equation (7) is the sum ⁇ iFi / v of the foreground components included in the pixel of interest.
  • the variables included in equation (7) are the mixture ratio and the sum f of the foreground components.
  • Fig. 33 shows a model in which pixel values are expanded in the time direction, where the amount of motion V is 4 and the number of virtual divisions in the time direction is 4, in the uncovered background area.
  • Equation (3) indicating the mixture ratio can be expressed as Equation (8).
  • the background object has been described as being stationary, even when the background object is moving, the pixel value of the pixel at the position corresponding to the background motion amount V can be used to obtain the equation. Equations (4) to (8) can be applied.
  • the motion amount V of the object corresponding to the background is 2
  • the pixel value B of the pixel in the background area in Expression (6) is set to the pixel value P04.
  • Equations (7) and (8) each contain two variables, so the mixture ratio cannot be determined as is.
  • an image generally has a strong spatial correlation, adjacent pixels have substantially the same pixel value.
  • the equation is modified so that the sum f of the foreground components can be derived from the previous or subsequent frame, and the mixture ratio H is obtained.
  • the pixel value Mc of the seventh pixel from the left of frame #n in FIG. 34 can be expressed by equation (9).
  • Equation (1 1) is established using the spatial correlation of the foreground components.
  • Equation (10) can be replaced with equation (1 2) using equation (1 1) .
  • Equation (1 1) Assuming that Eq. (14) holds for all pixels in the mixed region from the relationship of the internal division ratio.
  • equation (14) holds, equation (7) can be expanded as shown in equation (15).
  • equation (16) ⁇ ⁇ ⁇ + ( ⁇ - ⁇ ) ⁇ ⁇ (is) Similarly, if equation (14) holds, equation (8) can be expanded as shown in equation (16).
  • Equations (15) and (16) C, N, and P are known pixel values, so Equations (15) and (16) The only variable included in) is the mixing ratio.
  • the relationship between C, N, and P in equations (15) and (16) is shown in Fig. 35.
  • c C is the pixel value of the pixel of interest in frame #n for calculating the mixture ratio. is there.
  • N is the pixel value of the pixel in frame # n + l whose spatial position corresponds to the pixel of interest.
  • P is the pixel value of the pixel in frame # n-1 corresponding to the pixel of interest and the position in the spatial direction.
  • the mixture ratio can be calculated using the pixel values of the pixels of the three frames.
  • the condition for calculating the correct mixture ratio Qf is that the foreground components related to the mixed region are equal, that is, the foreground object is stationary.
  • Image object of the foreground captured when The pixel value of the pixel located at the boundary of the image object corresponding to the direction of the movement of the foreground object and being twice as many as the amount of movement V must be constant. It is.
  • the mixture ratio of the pixels belonging to the covered background region is calculated by Expression (17), and the mixture ratio of the pixels belonging to the uncovered background region is calculated by Expression (18).
  • FIG. 36 is a block diagram illustrating a configuration of the estimated mixture ratio processing unit 401.
  • the frame memory 421 stores the input image in frame units, and supplies the next frame after the frame input as the input image to the frame memory 422 and the mixture ratio calculation unit 423.
  • the frame memory 422 stores the input image in frame units, and supplies the next frame from the frame supplied from the frame memory 421 to the mixture ratio calculation unit 423.
  • the frame memory 4 2 1 supplies the frame to to the mixture ratio calculation unit 4 2 3 and the frame memory 4 2 2 supplies the frame #nl to the mixture ratio calculation section 4 2 3.
  • the mixture ratio calculation unit 4 23 calculates the pixel value C of the pixel of interest in frame #n, the frame # n + in which the spatial position corresponds to the pixel of interest. Based on the pixel value N of the pixel l and the pixel value P of the pixel of frame # n-1 corresponding to the pixel of interest and the spatial position, the estimated mixture ratio of the pixel of interest is calculated. And outputs the calculated estimated mixture ratio.
  • the mixture ratio calculation unit 4 23 sets the pixel value C of the pixel of interest in frame #n, the position in the frame equal to the pixel of interest, and frame #n Based on the pixel value N of the pixel of + l and the pixel value P of the pixel of frame # n-1 at the same position in the frame as the pixel of interest, the estimated mixture ratio of the pixel of interest is calculated. And outputs the calculated estimated mixture ratio.
  • the estimated mixture ratio processing unit 401 can calculate the estimated mixture ratio based on the input image and supply it to the mixture ratio determination unit 403.
  • the estimated mixture ratio processing unit 402 calculates the estimated mixture ratio of the pixel of interest by the calculation shown in Expression (17). Since the calculation shown in (18) is the same as that of the estimated mixture ratio processing unit 401 except that the part for calculating the estimated mixture ratio of the pixel of interest is different, the description is omitted.
  • FIG. 37 is a diagram illustrating an example of the estimated mixture ratio calculated by the estimated mixture ratio processing unit 401.
  • the estimated mixture ratio shown in Fig. 37 shows the result when the amount of motion V of the foreground corresponding to an object moving at a constant speed is 11 for one line.
  • the estimated mixture ratio is It can be seen that in the mixed region, as shown in FIG. 31, it changes almost linearly.
  • the mixture ratio determination unit 403 determines whether the pixel for which the mixture ratio is to be calculated supplied from the region identification unit 103 is a foreground region, a background region, a covered background region, or The mixing ratio is set based on the area information indicating whether it belongs to any of the uncovered background areas. If the target pixel belongs to the foreground area, the mixture ratio determination unit 403 sets 0 to the mixture ratio, and if the target pixel belongs to the background area, sets 1 to the mixture ratio.
  • the estimated mixing ratio supplied from the estimated mixing ratio processing unit 401 is set to the mixing ratio, and if the target pixel belongs to the uncovered background area, The estimated mixture ratio supplied from the estimated mixture ratio processing unit 402 is set as the mixture ratio a.
  • the mixture ratio determination unit 403 outputs a mixture ratio set based on the area information.
  • FIG. 38 is a block diagram showing another configuration of the mixture ratio calculation unit 104.
  • the selection unit 441 Based on the area information supplied from the area specifying unit 103, the selection unit 441 estimates the pixels belonging to the covered background area and the corresponding pixels of the previous and next frames based on the estimated mixture ratio processing. Supply to part 4 4 2.
  • the selection unit 4441 selects pixels and pixels belonging to the uncovered background area based on the area information supplied from the area identification unit 103. Then, the pixels of the corresponding frames before and after this are supplied to the estimated mixture ratio processing unit 443.
  • the estimated mixture ratio processing unit 4 42 Based on the pixel values input from the selection unit 4 41, the estimated mixture ratio processing unit 4 42
  • the estimated mixture ratio of the pixel of interest belonging to the covered background area is calculated, and the calculated estimated mixture ratio is supplied to the selection unit 4444.
  • the estimated mixture ratio processing unit 4 4 3 calculates the equation based on the pixel value input from the selection unit 4 4 1
  • the estimated mixture ratio of the pixel of interest belonging to the anchored background area is calculated, and the calculated estimated mixture ratio is supplied to the selection unit 4444.
  • the selection unit 444 selects an estimated mixture ratio of 0 and sets the mixture ratio as the mixture ratio when the target pixel belongs to the foreground region based on the region information supplied from the region identification unit 103. However, if the target pixel belongs to the background area, an estimated mixture ratio of 1 is selected and set as the mixture ratio. When the target pixel belongs to the force pad background area, the selection unit 444 selects the estimated mixture ratio supplied from the estimated mixture ratio processing unit 442 and sets it as the mixture ratio. If it belongs to the uncovered background area, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 443 is selected and set to the mixture ratio ⁇ . The selection unit 444 outputs a mixture ratio selected and set based on the area information.
  • the mixture ratio calculation unit 104 having another configuration shown in FIG. 38 can calculate the mixture ratio for each pixel including the image, and can output the calculated mixture ratio.
  • step S401 the mixture ratio calculation unit 104 acquires the area information supplied from the area identification unit 103.
  • step S402 the estimated mixture ratio processing unit 401 executes a process of calculating the estimated mixture ratio using a model corresponding to the covered background region, and calculates the calculated estimated mixture ratio.
  • the mixture is supplied to the mixing ratio determining unit 403. The details of the calculation process of the mixture ratio estimation will be described later with reference to the flowchart of FIG.
  • step S403 the estimated mixture ratio processing unit 402 executes a process of calculating the estimated mixture ratio using a model corresponding to the uncovered background area, and calculates the calculated estimated mixture ratio in the mixture ratio determination unit 400. Supply to 3.
  • step S404 the mixture ratio calculation unit 104 determines whether or not the mixture ratio has been estimated for the entire frame. If it is determined that the mixture ratio has not been estimated for the entire frame, Returning to S402, the process of estimating the mixture ratio ⁇ for the next pixel is executed.
  • step S404 determines that the mixture ratio has been estimated for the entire frame.
  • the mixing ratio is set based on the area information supplied from the area specifying unit 103, which indicates whether the area belongs to the background area or the uncovered background area. If the target pixel belongs to the foreground area, the mixing ratio determination unit 4003 sets 0 to the mixing ratio, and if the target pixel belongs to the background area, sets 1 to the mixing ratio ⁇ .
  • the estimated mixture ratio supplied from the estimated mixture ratio processing unit 401 is set to the mixture ratio, and when the target pixel belongs to the uncovered background region. Then, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 402 is set as the mixture ratio, and the process ends.
  • the mixture ratio calculation unit 104 calculates the mixture ratio, which is a feature amount corresponding to each pixel, based on the region information supplied from the region identification unit 103 and the input image. Can be.
  • step S 421 the mixture ratio calculation unit 423 acquires the pixel value C of the target pixel of the frame # ⁇ from the frame memory 421.
  • step S422 the mixture ratio calculation unit 423 acquires the pixel value P of the pixel of frame # n-l corresponding to the target pixel from the frame memory 422.
  • step S 423 the mixture ratio calculator 423 acquires the pixel value N of the pixel of frame # n + 1 corresponding to the target pixel included in the input image.
  • step S 424 the mixture ratio calculation unit 423 determines the pixel value (:, the pixel value P of the pixel of frame # n ⁇ 1, and the pixel value of the pixel of frame # n + 1 in frame #n. Calculate the estimated mixture ratio based on the prime value N.
  • step S425 the mixture ratio calculation unit 423 determines whether the process of calculating the estimated mixture ratio has been completed for the entire frame, and ends the process of calculating the estimated mixture ratio for the entire frame. If it is determined that it has not been performed, the process returns to step S421, and the process of calculating the estimated mixture ratio for the next pixel is repeated.
  • step S425 If it is determined in step S425 that the process of calculating the estimated mixture ratio has been completed for the entire frame, the process ends.
  • the estimated mixture ratio processing unit 401 can calculate the estimated mixture ratio based on the input image.
  • step S403 of FIG. 39 uses the equation corresponding to the model of the uncovered background region, as shown in the flowchart of FIG. Since the processing is the same, the description is omitted.
  • estimated mixture ratio processing unit 4 42 and the estimated mixture ratio processing unit 4 43 shown in FIG. 38 execute the same processing as the flow chart shown in FIG. 40 to calculate the estimated mixture ratio. The description is omitted.
  • the above-described processing for calculating the mixture ratio is applied even when the image corresponding to the background area includes motion. can do.
  • the estimated mixture ratio processing unit 401 shifts the entire image in accordance with the movement of the background, and the object corresponding to the background is stationary. The processing is performed in the same manner as in the case.
  • the estimated mixture ratio processing unit 401 responds to the background motion as a pixel corresponding to a pixel belonging to the mixed region. A pixel is selected and the above-described processing is performed.
  • the mixture ratio calculation unit 104 executes only the mixture ratio estimation process using the model corresponding to the covered background region for all pixels, and outputs the calculated estimated mixture ratio as the mixture ratio. You may do so.
  • the mixture ratio indicates the ratio of the background component for the pixels belonging to the covered background region, and indicates the ratio of the foreground component for the pixels belonging to the uncovered background region.
  • the image processing apparatus can calculate For a pixel belonging to the uncovered background area, the mixture ratio ⁇ indicating the ratio of the background component can be obtained.
  • the mixture ratio calculation unit 104 executes only the mixture ratio estimation process using the model corresponding to the uncovered background area for all the pixels, and outputs the calculated estimated mixture ratio as the mixture ratio. You may do so.
  • the mixing ratio ⁇ changes linearly in response to the change of the pixel position due to the movement of the object corresponding to the foreground at a constant speed within the shutter time.
  • An equation is established that approximates the ratio and the sum f of the foreground components.
  • the pixel values of the pixels belonging to the mixed area and the pixel values of the pixels belonging to the background area Using multiple equations, solve the equation that approximates the mixture ratio and the sum f of the foreground components.
  • Equation (19) i is an index in the spatial direction where the position of the pixel of interest is 0. 1 is the slope of the straight line of the mixture ratio. p is the intercept of the straight line of the mixture ratio and the mixture ratio of the pixel of interest. In Equation (19), the index i is known, but the slope 1 and the intercept p are unknown.
  • Figure 41 shows the relationship between index i, slope 1, and intercept p.
  • a white circle indicates a pixel of interest
  • a black circle indicates a neighboring pixel.
  • Equation (19) is extended to a plane, and the mixture ratio is It is expressed by equation (20).
  • a white circle indicates a target pixel.
  • Equation (20) j is the horizontal index with the position of the pixel of interest set to 0, and k is the vertical index.
  • m is the horizontal inclination of the plane of the mixture ratio
  • q is the vertical inclination of the plane of the mixture ratio.
  • p is the intercept of the plane of the mixing ratio.
  • Expressions (21) to (23) hold for C05 to C07, respectively.
  • X represents a position in the spatial direction.
  • equation (24) can be expressed as equation (25).
  • Equation (25) j is a horizontal index with the position of the pixel of interest set to 0, and k is a vertical index.
  • Equation (25) the sum of the components of the foreground is given by Equation (25) ).
  • Equation (30) If the sum of the mixture ratio and the foreground component in Equation (9) is replaced using Equations (20) and (25), the pixel value M is expressed by Equation (30).
  • the unknown variables are the horizontal slope m of the surface of the mixture ratio, the vertical slope q of the surface of the mixture ratio, and the intercepts p, s, t, and u of the surface of the mixture ratio. There are six.
  • the horizontal index j of the pixel of interest is set to 0, the vertical index k is set to 0, and a 3 ⁇ 3 pixel in the vicinity of the pixel of interest is calculated.
  • the pixel value M or the pixel value B is set to the following, Expressions (31) to (39) are obtained.
  • M. li + 1 (-1) B. 1; +1 ⁇ m + (+ l) ⁇ B. li + 1 ⁇ q + B_ li + 1 ⁇ p + (one 1) ⁇ s + (+ l)-t + u (3 7)
  • M 0 , +1 (0) B 0 , +1 'm + (+ l) ⁇ B 0 , +1 ⁇ q + B 0i + 1 ⁇ p + (0) ⁇ s + (+ l )-t + u (3 8)
  • the least square method is used to calculate the horizontal slope m, the vertical slope q, the intercepts p, s, t, and u, respectively. Calculate the value of and output the intercept p as the mixture ratio.
  • index i and index k are represented by one index X
  • the relationship between index i, index and index X is expressed by equation (40).
  • Equation (3 1) The horizontal slope m, the vertical slope q, the intercept p, s, and u are expressed as variables w0, wl, w2, w3, w4, and W5, respectively, and jB, kB, B, j, k, and 1 is expressed as a0, al, a2, a3, a4, and a5, respectively.
  • equation (3 1) can be rewritten as equation (4 1).
  • X is any one of integers from 0 to 8.
  • equation (4 2) can be derived.
  • Equation (44) the partial derivative of the variable with respect to the sum of squares of the error ⁇ should be 0.
  • V is any value of integers from 0 to 5. Therefore, wy is calculated so as to satisfy Equation (44).
  • equation (45) is obtained.
  • the pixel values C04 to C08 of frame #n and the pixel values P04 to P08 is set as a normal equation.
  • Mcl (-1)-Bel-m + (-l) Bel-q + Bcl-p + (_ l)-s + (-1) t + u (4 6)
  • Mc2 (0) Bc2-m + (-1)-Bc2-q + Bc2p + (0) ⁇ s + (-1)-t + u (4 7)
  • Mc3 (+ 1)-Bc3-m + (- 1)-Bc3-q + Bc3-p + (+ l)-s + (-1)-t + u (4 8)
  • Mc4 (-1)-Bc4-m + (0)-Bc4-q + Bc4-p + (-1) s + (0)-t + u (4 9)
  • Mc5 (0) Bc5m + (0)-Bc5-q + Bc5p + (0)-s + (0)-t + u (5 0)
  • Mc6 (+1)-Bc6m + (0) Bc6q + Bc6p + (+1) s + (0) t + u (5 1)
  • Mc7 (-1)-Bc7m + ( +1)-Bc7-q + Bc7p + (-1) ⁇ s + (+1)-t + u (5 2)
  • Mc8 (0) 'Bc8m + (+1) Bc8-q + Bc8p + (0) s + (+1)-t + u (5 3)
  • Mc9 (+1) Bc9-m + (+ 1) Bc9q + Bc9-p + (+1) s + (+1)-t + u (5 4)
  • the pixel values Bel to Bc9 of the pixels in the background area of the pixel of frame # n-1 corresponding to the pixel of frame #n are used.
  • the following equations (55) to (63) are established.
  • the pixel value of the pixel for calculating the mixture ratio is Mu5.
  • Mu2 (0)-Bu2-m + (-1) Bu2-q + Bu2-p + (0) s + (-1)-t + u (5 6)
  • Mu3 (+ 1) Bu3-m + (- 1)-Bu3q + Bu3-p + (+ l) s + (-1)-t + u (5 7)
  • Mu4 (-1) Bu4-m + (0) Bu4-q + Bu4p + (-1) s + (0)-t + u (5 8)
  • Mu5 (0) Bu5m + (0) Bu5-q + Bu5-p + (0)-s + (0)-t + u (5 9)
  • Mu6 (+1)-Bu6m + (0)-Bu6q + Bu6p + (+1) s + (0)-t + u (6 0)
  • Mu7 (-1) ⁇ Bu7 ⁇ m + (+1) ⁇ Bu7 ⁇ q + Bu7 ⁇ p + (-1) ⁇ s + (+1)-t + u (6 1)
  • Mu8 (0) Bu8-ra + (+ l)-Bu8-q + Bu8 ⁇ p + (0) ⁇ s + (+ l)-t + u (6 2)
  • FIG. 44 is a block diagram showing the configuration of the estimated mixture ratio processing unit 4 ⁇ 1.
  • the image input to the estimated mixture ratio processing unit 401 is supplied to the delay circuit 501 and the adding unit 502.
  • the delay circuit 501 delays the input image by one frame and supplies it to the adding section 502 I do.
  • the delay circuit 501 supplies the frame # ⁇ _1 to the adding section 502.
  • the adding unit 502 sets the pixel value of the pixel near the pixel for which the mixture ratio is calculated and the pixel value of the frame # ⁇ -1 in a normal equation. For example, the adding unit 502 sets the pixel values Mcl to Mc9 and the pixel values Bel to Bc9 in the normal equation based on Expressions (46) to (54). The adding unit 502 supplies the normal equation in which the pixel value is set to the calculating unit 503.
  • the arithmetic section 503 solves the normal equation supplied from the adding section 502 by a sweeping method or the like to obtain an estimated mixture ratio, and outputs the obtained estimated mixture ratio.
  • the estimated mixture ratio processing unit 401 can calculate the estimated mixture ratio based on the input image and supply it to the mixture ratio determination unit 403.
  • the estimated mixture ratio processing unit 402 has the same configuration as the estimated mixture ratio processing unit 401, and a description thereof will be omitted.
  • FIG. 45 is a diagram illustrating an example of the estimated mixture ratio calculated by the estimated mixture ratio processing unit 401.
  • the estimated mixture ratio shown in Fig. 45 is based on the result calculated by generating an equation in units of 7 X 7 pixels, where the foreground motion V corresponding to an object moving at a constant speed is 11 and This is shown for one line.
  • step S ⁇ b> 521 the adding unit 502 sets the pixel value included in the input image and the pixel value included in the image supplied from the delay circuit 501 as a model of the covered background area. Set to the corresponding normal equation.
  • step S522 the estimated mixture ratio processing unit 401 determines whether the setting for the target pixel has been completed, and the setting for the target pixel has been completed. If it is determined that they do not exist, the process returns to step S522, and the process of setting the pixel values in the normal equation is repeated.
  • step S522 when it is determined that the setting of the pixel value for the target pixel has been completed, the process proceeds to step S522, and the arithmetic unit 503 calculates the normal equation in which the pixel value is set. Based on this, the estimated mixture ratio is calculated, and the obtained estimated mixture ratio is output.
  • the estimated mixture ratio processing unit 401 shown in FIG. 44 can calculate the estimated mixture ratio based on the input image.
  • the process of estimating the mixture ratio by the model corresponding to the covered background region is the same as the process shown in the flowchart of FIG. 46 using the normal equation corresponding to the model of the uncovered background region. Omitted.
  • the above-described processing for obtaining the mixture ratio can be applied even when the image corresponding to the background area includes motion.
  • the estimated mixture ratio processing unit 401 shifts the entire image in response to this movement, and the object corresponding to the background is stationary. The same processing is performed.
  • the estimated mixture ratio processing unit 401 selects a pixel corresponding to the motion as a pixel corresponding to a pixel belonging to the mixed region. The above processing is executed.
  • the mixture ratio calculation unit 102 calculates the mixture ratio H, which is a feature amount corresponding to each pixel, based on the region information supplied from the region identification unit 101 and the input image. be able to.
  • the mixture ratio it is possible to separate the foreground component and the background component included in the pixel value while retaining the information on the motion blur included in the image corresponding to the moving object.
  • FIG. 47 is a block diagram illustrating an example of the configuration of the foreground / background separation unit 105.
  • the input image supplied to the foreground / background separation unit 105 is supplied to the separation unit 601, switch 602, and switch 604.
  • the information indicating the covered background area and the area information supplied from the area specifying unit 103 indicating the uncovered background area are supplied to the separation unit 601.
  • the area information indicating the foreground area is supplied to the switch 602.
  • Area information indicating the background area is supplied to the switch 604.
  • the mixture ratio supplied from the mixture ratio calculation unit 104 is supplied to the separation unit 601 (the separation unit 601 includes region information indicating the covered background region and region information indicating the uncovered background region).
  • the foreground component is separated from the input image on the basis of,, and the mixture ratio, and the separated foreground component is supplied to the synthesis unit 603, and the background component is separated from the input image and separated.
  • the background component is supplied to the synthesis unit 605.
  • the switch 602 is closed when a pixel corresponding to the foreground is input based on the area information indicating the foreground area, and supplies only the pixel corresponding to the foreground included in the input image to the synthesizing unit 603. I do.
  • the switch 604 is closed when a pixel corresponding to the background is input based on the area information indicating the background area, and supplies only the pixel corresponding to the background included in the input image to the combining unit 605. I do.
  • the synthesis unit 603 synthesizes a foreground component image based on the foreground component supplied from the separation unit 601 and the pixel corresponding to the foreground supplied from the switch 602, and synthesizes the foreground component. Output an image. Since the foreground area and the mixed area do not overlap, the synthesis unit 603 synthesizes the foreground component image, for example, by applying a logical OR operation to the component corresponding to the foreground and the pixel corresponding to the foreground. .
  • the synthesizing unit 603 stores an image in which all pixel values are 0 in a built-in frame memory in an initialization process executed at the beginning of the foreground component image synthesizing process, In the process of synthesizing the foreground component image, the foreground component image is stored (overwritten). Therefore, in the foreground component image output from the combining unit 603, 0 is stored as a pixel value in a pixel corresponding to the background region.
  • the synthesis unit 605 synthesizes a background component image based on the component corresponding to the background supplied from the separation unit 601 and the pixel corresponding to the background supplied from the switch 604, and synthesizes them. Outputs a background component image. Since the background area and the mixed area do not overlap, the synthesis unit 605 synthesizes the background component image by, for example, applying a logical OR operation to the component corresponding to the background and the pixel corresponding to the background.
  • the synthesizing unit 605 stores an image in which all pixel values are 0 in a built-in frame memory in an initialization process executed at the beginning of the background component image synthesizing process.
  • the background component image is stored (overwritten) in the composition process. Accordingly, in the background component image output from the combining unit 605, 0 is stored as a pixel value in a pixel corresponding to the foreground area.
  • FIG. 48A is a diagram illustrating an input image input to the foreground / background separation unit 105, and a foreground component image and a background component image output from the foreground / background separation unit 105.
  • Figure 4 8 B is a foreground part 1 0 input image input to 5
  • c diagram shows a model of the foreground component image and the background component image output from the foreground background separator 1 0 5
  • 4 8 A is a schematic diagram of a displayed image
  • FIG. 48B is a diagram of one line including pixels belonging to the foreground region, background region, and mixed region corresponding to FIG. 48A.
  • FIG. 4 shows a model diagram in which pixels are developed in the time direction.
  • the background component image output from the foreground / background separation unit 105 is composed of pixels belonging to the background area and background components included in the pixels of the mixed area. Be composed.
  • the foreground component image output from the foreground / background separation unit 105 is composed of the pixels belonging to the foreground area and the foreground components included in the pixels of the mixed area. You.
  • the pixel values of the pixels in the mixed area are determined by the foreground / background It is separated into scenery components.
  • the separated background component forms a background component image together with the pixels belonging to the background region.
  • the separated foreground component forms a foreground component image together with the pixels belonging to the foreground area.
  • the pixel value of the pixel corresponding to the background region is set to 0, and meaningful pixel values are set to the pixel corresponding to the foreground region and the pixel corresponding to the mixed region.
  • the pixel value of the pixel corresponding to the foreground area is set to 0, and a significant pixel value is set to the pixel corresponding to the background area and the pixel corresponding to the mixed area.
  • FIG. 49 is a model of an image showing foreground components and background components of two frames including a foreground corresponding to an object moving from left to right in the figure.
  • the motion amount V of the foreground is 4, and the number of virtual divisions is 4.
  • the leftmost pixel and the 14th to 18th pixels from the left consist only of background components and belong to the background area.
  • the second through fourth pixels from the left include the background component and the foreground component, and belong to the anchor bird background area.
  • the 11th to 13th pixels from the left include the background component and the foreground component, and belong to the covered pack ground area.
  • the fifth through tenth pixels from the left consist only of foreground components and belong to the foreground area.
  • the first through fifth pixels from the left and the eighteenth pixel from the left consist only of background components and belong to the background area.
  • the sixth through eighth pixels from the left include the background component and the foreground component and belong to the uncovered background area.
  • the fifteenth through seventeenth pixels from the left include the background component and the foreground component, and belong to the covered background area.
  • ninth through 1 from the left The fourth pixel consists of only the foreground components and belongs to the foreground area.
  • FIG. 50 is a diagram illustrating a process of separating a foreground component from pixels belonging to a covered background area.
  • 1 to 18 are mixing ratios corresponding to respective pixels in frame #n.
  • the fifteenth through seventeenth pixels from the left belong to the covered background area.
  • 15 is the mixture ratio of the 15th pixel from the left of frame #n.
  • P15 is the pixel value of the 15th pixel from the left of frame #n_l.
  • equation (65) the sum ⁇ 5 of the foreground components of the 15th pixel from the left of frame # ⁇ is expressed by equation (65).
  • the foreground component fc included in the pixel value C of the pixel belonging to the covered background area is calculated by Expression (68).
  • is the pixel value of the corresponding pixel in the previous frame.
  • FIG. 51 is a diagram illustrating a process of separating a foreground component from pixels belonging to an uncovered background area.
  • 1 to 18 are mixing ratios corresponding to each pixel in frame # ⁇ .
  • left The second to fourth pixels from belong to the uncovered background area.
  • the pixel value C02 of the second pixel from the left of frame #n is represented by Expression (69).
  • hi 2 is the mixture ratio of the second pixel from the left of frame #n.
  • N02 is the pixel value of the second pixel from the left of frame # n + l.
  • equation (70) the sum f02 of the foreground components of the second pixel from the left of frame #n is expressed by equation (70).
  • the foreground component fu included in the pixel value C of the pixel belonging to the uncovered background area is calculated by Expression (73).
  • is the pixel value of the corresponding pixel in the next frame.
  • the separation unit 6001 performs mixing based on the information indicating the covered background area and the information indicating the covered background area included in the area information and the mixing ratio for each pixel. Foreground components and background components can be separated from the pixels belonging to the area.
  • FIG. 52 is a block diagram illustrating an example of the configuration of the separation unit 601 that performs the processing described above.
  • the image input to the separation unit 61 is supplied to the frame memory 621, and the covered background area and the The area information indicating the background area and the mixture ratio are input to the separation processing block 622.
  • the frame memory 6 21 stores the input image in frame units.
  • the frame memory 6 2 1 stores the frame # n-1, the frame # n-1, the frame #n that is the frame immediately before the frame #n, and the frame following the frame #n.
  • frame # n + l the frame memory 6 21 stores the input image in frame units.
  • the frame memory 62 1 supplies the corresponding pixels of the frame # n ⁇ 1, the frame #n, and the frame # n + 1 to the separation processing block 62 2.
  • the separation processing block 622 includes the frame # n-1 and the frame # 1 supplied from the frame memory 621, based on the area information indicating the covered background area and the uncovered background area, and the mixing ratio a. Applying the operation described with reference to FIGS. 50 and 51 to the pixel values of the corresponding pixels of frame #n and frame # n + l-the pixels belonging to the mixed area of frame #n and the foreground components and The background component is separated and supplied to the frame memory 623.
  • the separation processing block 6 22 is composed of an covered area processing section 6 31, a covered area processing section 6 32, a combining section 6 33, and a combining section 6 3 4.
  • the multiplier 641 of the uncovered area processing unit 631 multiplies the mixture ratio by the pixel value of the pixel of frame # n + l supplied from the frame memory 621, and outputs the result to the switch 642. I do.
  • the switch 642 is closed when the pixel of frame #n (corresponding to the pixel of frame # n + l) supplied from the frame memory 621, is in the uncovered background area, and the multiplier 642 is closed. 41.
  • the pixel value multiplied by the mixture ratio supplied from 1 is supplied to the computing unit 643 and the combining unit 6334.
  • the value obtained by multiplying the pixel value of the pixel of frame # n + l output from the switch 642 by the mixture ratio is equal to the background component of the pixel value of the corresponding pixel of the frame.
  • Arithmetic unit 643 subtracts the background component supplied from switch 642 from the pixel value of the pixel of frame #n supplied from frame memory 621, and obtains the foreground component.
  • the arithmetic unit 6 4 3 is a frame that belongs to the uncovered background area.
  • the foreground component of the pixel #m is supplied to the synthesizing unit 633.
  • the multiplier 651 of the covered area processing unit 632 multiplies the mixture ratio by the pixel value of the pixel of frame # n-1 supplied from the frame memory 621 and outputs the result to the switch 652.
  • the switch 652 is closed when the pixel of frame #n (corresponding to the pixel of the frame) supplied from the frame memory 621, is a covered background area, and the mixture supplied from the multiplier 651 is closed.
  • the pixel value multiplied by the ratio is supplied to the computing unit 653 and the synthesizing unit 6334.
  • the value obtained by multiplying the pixel value of the pixel of frame # n-1 output from the switch 652 by the mixture ratio is equal to the background component of the pixel value of the corresponding pixel of frame #n.
  • Arithmetic unit 653 subtracts the background component supplied from switch 652 from the pixel value of the pixel of frame #n supplied from frame memory 621, to obtain the foreground component.
  • the arithmetic unit 653 supplies the foreground component of the pixel of frame #n belonging to the covered background area to the combining unit 633.
  • the synthesizing unit 633 3 includes, for frame #n, the foreground components of the pixels belonging to the uncovered background area supplied from the computing unit 643, and the power padding supplied from the computing unit 653.
  • the foreground components of the pixels belonging to the ground area are combined and supplied to the frame memory 623.
  • the synthesizing unit 634 includes, in the frame, the background component of the pixel belonging to the anchored background area supplied from the switch 642 and belonging to the covered background area supplied from the switch 652.
  • the background components of the pixels are combined and supplied to the frame memory 623.
  • the frame memory 623 stores the foreground component and the background component of the pixel in the mixed area of the frame #n supplied from the separation processing block 622, respectively.
  • the frame memory 623 outputs the stored foreground components of the pixels in the mixed region of the frame #n and the stored background components of the pixels in the mixed region of the frame #n.
  • the foreground component contained in the pixel value is obtained by using the mixture ratio And the background components can be completely separated.
  • Combining unit 6 0 3 outputted from demultiplexing section 6 0 1, c synthesis to generate a foreground component of the picture element of the mixed area in frame #n, the foreground component image by the pixels belonging to the foreground area
  • the unit 605 combines the background component of the pixel in the mixed area of the frame #n output from the separation unit 601 with the pixel belonging to the background area to generate a background component image.
  • FIG. 53A shows an example of a foreground component image corresponding to the frame of FIG. 49. Since the leftmost pixel and the 14th pixel from the left consisted of only the background component before the foreground and background were separated, the pixel value was set to 0.
  • the second to fourth pixels from the left belong to the covered background area before the foreground and background are separated, the background component is set to 0, and the foreground component is left as it is.
  • the 11th to 13th pixels from the left belong to the covered background area, the background component is set to 0, and the foreground component is left as it is.
  • the fifth to tenth pixels from the left are left as they are because they consist only of foreground components.
  • FIG. 53B shows an example of a background component image corresponding to the frame of FIG. 49.
  • the leftmost pixel and the 14th pixel from the left are left alone because they consisted only of the background component before the foreground and background were separated.
  • the second to fourth pixels from the left belong to the covered background area before the foreground and the background are separated, the foreground component is set to 0, and the background component is left as it is.
  • the 11th to 13th pixels from the left belong to the covered background area before the foreground and background are separated, the foreground component is set to 0, and the background component is left as it is. Since the fifth through tenth pixels from the left consist only of the foreground components before the foreground and background are separated, the pixel value is set to 0.
  • step S601 the frame memory 621 of the separation unit 601 acquires the input image and sets the input image as a target for separation between the foreground and the background.
  • the next frame #n is stored together with the previous frame #nl and the subsequent frame # n + l.
  • step S602 the separation processing block 622 of the separation unit 601 acquires the area information supplied from the mixture ratio calculation unit 104.
  • step S603 the separation processing block 622 of the separation unit 601 acquires the mixture ratio supplied from the mixture ratio calculation unit 104.
  • step S604 the uncovered area processing unit 631 determines the pixel values of the pixels belonging to the uncovered background area supplied from the frame memory 621, based on the area information and the mixture ratio. , The background components are extracted.
  • step S605 the uncovered area processing unit 631 determines the pixel of the pixel belonging to the uncovered background area supplied from the frame memory 621 based on the area information and the mixture ratio. Extract the foreground component from the value.
  • step S606 the covered area processing unit 632 determines, based on the area information and the mixture ratio, the pixel value of the pixel belonging to the covered back-drop area supplied from the frame memory 621, Extract background components.
  • step S607 the covered area processing unit 632 calculates the pixel value of the pixel belonging to the covered back-drop area supplied from the frame memory 621, based on the area information and the mixture ratio. Extract foreground components.
  • step S 608 the synthesizing unit 633 3 extracts the foreground components of the pixels belonging to the anchored background area extracted in the processing in step S 605 and the pixels in the processing in step S 607.
  • the pixels belonging to the covered background area are combined with the foreground components.
  • the synthesized foreground component is supplied to the synthesis unit 603. Further, the synthesizing unit 603 synthesizes the pixels belonging to the foreground area supplied via the switch 602 with the foreground components supplied from the separating unit 601 to generate a foreground component image. To achieve.
  • step S609 the synthesizing unit 634 determines the background components of the pixels belonging to the uncovered background area extracted in the processing in step S604,
  • the background component of the pixel belonging to the covered background area extracted in the processing of step S606 is synthesized with the background component.
  • the synthesized background component is supplied to the synthesis unit 605. Further, the synthesizing unit 605 synthesizes the pixels belonging to the background area supplied via the switch 604 and the background component supplied from the separating unit 601 to generate a background component image. To achieve.
  • step S610 the synthesizing unit 603 outputs a foreground component image.
  • step S611 the synthesizing unit 605 outputs the background component image, and the process ends.
  • the foreground / background separation unit 105 separates the foreground component and the background component from the input image based on the region information and the mixture ratio or, and outputs the foreground component image including only the foreground component. In addition, it is possible to output a background component image including only the background component. Next, adjustment of the amount of motion blur of the foreground component image will be described.
  • FIG. 55 is a block diagram illustrating an example of the configuration of the motion blur adjustment unit 106.
  • the motion vector and its position information supplied from the motion detecting unit 102 are supplied to the processing unit determining unit 801, the modeling unit 802, and the arithmetic unit 805.
  • the area information supplied from the area specifying unit 103 is supplied to the processing unit determining unit 801.
  • the foreground component image supplied from the foreground / background separation unit 105 is supplied to the adding unit 804.
  • the processing unit determination unit 8001 generates a processing unit based on the motion vector, its position information, and area information, and supplies the generated processing unit to the modeling unit 800 and the adding unit 800. I do.
  • the processing unit generated by the processing unit determination unit 8001 starts from the pixel corresponding to the covered background area of the foreground component image, as shown by an example A in FIG. 56.
  • the pixel corresponding to the uncovered background area It indicates continuous pixels arranged in the motion direction up to the pixel corresponding to the uncovered background area or continuous pixels arranged in the motion direction up to the pixel corresponding to the covered background area.
  • the processing unit is, for example, two data, an upper left point (the pixel specified by the processing unit and the position of the pixel located at the leftmost or uppermost position on the image) and a lower right point. Hawk, et al.
  • the modeling unit 802 performs modeling based on the processing unit input as the motion vector. More specifically, for example, the modeling unit 802 includes a plurality of models corresponding to the number of pixels included in a processing unit, the number of virtual divisions of pixel values in the time direction, and the number of foreground components for each pixel. Is stored in advance, and a model that specifies the correspondence between pixel values and foreground components, as shown in Fig. 57, is selected based on the processing unit and the number of virtual divisions of pixel values in the time direction. .
  • the modeling unit 8002 sets the number of virtual divisions to 5 and is positioned at the leftmost position.
  • the pixel contains one foreground component
  • the second pixel from the left contains two foreground components
  • the third pixel from the left contains three foreground components
  • the fourth pixel from the left contains four foreground components.
  • the fifth pixel from the left contains five foreground components
  • the sixth pixel from the left contains five foreground components
  • the seventh pixel from the left contains five foreground components.
  • the eighth pixel from the left contains five foreground components
  • the ninth pixel from the left contains four foreground components
  • the tenth pixel from the left contains three foreground components
  • 1 The first pixel contains two foreground components
  • the second pixel from the left contains one foreground component
  • modeling unit 8002 generates a model based on the motion vector and the processing unit when the motion vector and the processing unit are supplied instead of selecting from the model stored in advance. You may make it.
  • the modeling unit 802 supplies the selected model to the equation generation unit 803.
  • the equation generation unit 803 generates an equation based on the model supplied from the modeling unit 802. Referring to the model of the foreground component image shown in Fig. 57, the number of foreground components is 8, the number of pixels corresponding to the processing unit is 12, the motion amount V is 5, and the The equation generated by the equation generator 803 when the value is 5 will be described.
  • the foreground component corresponding to the shutter time / V included in the foreground component image is FOl / v to F08 / v
  • the relationship between FOl / v to F08 / v and the pixel values C01 to C12 is expressed by Equation (74). And expressed by Equation (85).
  • C06 F06 / v + F05 / v + F04 / v + F03 / v + F02 / v (7 9)
  • C07 F07 / v + F06 / v + F05 / v + F04 / v + F03 / v (80)
  • Equations (86) to (97) show the equations generated by the equation generator 803.
  • C05 lFOl / v + 1-F02 / v + l-F03 / v + l-F04 / v + l F05 / v
  • C06 0-FOl / v + 1F02 / v + l-F03 / v + l-F04 / v + l-F05 / v
  • Equations (86) to (97) can also be expressed as Equation (98).
  • j indicates the position of the pixel.
  • j has a value of any one of 1 to 12.
  • I indicates the position of the foreground value.
  • i has a value of any one of 1 to 8.
  • aij has a value of 0 or 1 corresponding to the values of i and j.
  • equation (98) can be expressed as equation (99).
  • ej is an error included in the target pixel Cj.
  • Equation (99) can be rewritten as equation (100).
  • equation (1 0 2) since the amount of movement v is a fixed value, equation (1 0 3) can be derived.
  • the error contained in the pixel C can be dispersed.
  • the equation generating section 803 supplies the normal equation generated in this way to the adding section 804.
  • the adding unit 804 converts the pixel value C included in the foreground component image into an equation of a matrix supplied from the equation generating unit 803 based on the processing unit supplied from the processing unit determining unit 801. Set.
  • the adding unit 804 supplies the matrix in which the pixel values C are set to the arithmetic unit 805.
  • the arithmetic unit 805 calculates the foreground component Fi / v from which the motion blur has been removed by a processing based on a solution method such as a sweeping-out method (Gauss-Jordan elimination), and calculates the foreground pixel from which the motion blur has been removed. Calculate the Fi corresponding to any one of the integers from 0 to 8, i.e., the value of Fi, which is the pixel value from which the motion blur has been removed, as shown in FIG. 58.
  • the foreground component image is output to the motion blur adding unit 806 and the selecting unit 807.
  • each of FIO to F08 is set for each CIO is to keep the position of the foreground component image on the screen unchanged, and can correspond to any position.
  • the motion blur adding unit 806 includes a motion blur adjustment amount v ′ having a value different from the motion amount V, for example, a motion blur adjustment amount v ′ having a half value of the motion amount V, and a value irrelevant to the motion amount V.
  • the motion blur adding unit 806 divides the pixel value Fi of the foreground from which the motion blur has been removed by the motion blur adjustment amount v ′ to obtain the foreground component Fi / v, Is calculated, and the sum of the foreground components Fi / v is calculated to generate a pixel value in which the amount of motion blur is adjusted.
  • the pixel value C02 is (FO l) / v' motion blurring adjustment quantity v is the pixel value C03 is set to (F01 + F0 2) / ⁇ ', the pixel value C04 is , (F01 + F02 + F03) / ⁇ ′, and the pixel value C05 is (F02 + F03 + F04) / ⁇ ′.
  • the motion blur adding unit 806 supplies the foreground component image in which the amount of motion blur has been adjusted to the selecting unit 807.
  • the selection unit 807 supplies, for example, a foreground component image from which motion blur has been removed supplied from the calculation unit 805 and a motion blur addition unit 806 based on a selection signal corresponding to the user's selection.
  • One of the selected foreground component images with the adjusted amount of motion blur is selected, and the selected foreground component image is output.
  • the motion blur adjustment unit 106 can adjust the amount of motion blur based on the selection signal and the motion blur adjustment amount V.
  • the motion-blur adjusting unit 106 calculates the equation (10 6) Generate an expression for the matrix shown.
  • the motion-blur adjusting unit 106 sets an expression corresponding to the length of the processing unit in this way, and calculates Fi, which is a pixel value in which the amount of motion blur has been adjusted. Similarly, for example, when the number of pixels included in the processing unit is 100, an equation corresponding to 100 pixels is generated, and Fi is calculated.
  • FIG. 61 is a diagram illustrating another configuration of the motion-blur adjusting unit 106.
  • the same parts as those in the case shown in FIG. 55 are denoted by the same reference numerals, and description thereof will be omitted.
  • the selection unit 8221 supplies the input motion vector and its position signal to the processing unit determination unit 8101 and the modeling unit 8102 as they are, or the motion vector Is replaced by the motion blur adjustment amount v ', and the motion vector whose size has been replaced by the motion blur adjustment amount and its position signal are supplied to the processing unit determination unit 801 and the modeling unit 802. I do.
  • the processing unit determination unit 801 to the calculation unit 805 of the motion blur adjustment unit 106 in FIG. 61 can handle the motion amount V and the motion blur adjustment amount V according to the values.
  • the amount of motion blur can be adjusted.
  • the result of the motion blur adding unit 806 includes the motion amount V and the motion blur adjustment amount v ′.
  • the meaning of the relationship is Attention must be paid to the differences.
  • the motion-blur adjusting unit 106 generates an equation corresponding to the motion amount V and the processing unit, sets the pixel value of the foreground component image in the generated equation, and reduces the amount of motion blur. An adjusted foreground component image is calculated.
  • step S801 the processing unit determination unit 801 of the motion blur adjustment unit 106 generates a processing unit based on the motion vector and the area information, and the generated processing unit is modeled by the modeling unit 8. 0 to 2
  • step S802 the modeling unit 802 of the motion-blur adjusting unit 106 selects or generates a model according to the motion amount V and the processing unit.
  • step S803 the equation generator 803 creates a normal equation based on the selected model.
  • step S804 the adding unit 804 sets the pixel value of the foreground component image in the created normal equation.
  • step S805 the adding unit 804 determines whether or not the pixel values of all the pixels corresponding to the processing unit have been set, and determines whether the pixel values of all the pixels corresponding to the processing unit have been set. If it is determined that the setting has not been performed, the process returns to step S804, and the process of setting the pixel value to the normal equation is repeated.
  • step S805 If it is determined in step S805 that the pixel values of all the pixels in the processing unit have been set, the process proceeds to step S806, and the arithmetic unit 805 is supplied from the adding unit 804. Based on the normal equation in which the pixel value is set, the pixel value of the foreground with the amount of motion blur adjusted is calculated, and the process ends.
  • the motion blur adjustment unit 106 can adjust the amount of motion blur from the foreground image including the motion blur based on the motion vector and the area information.
  • FIG. 63 is a block diagram illustrating another example of the configuration of the motion-blur adjusting unit 106.
  • the motion vector and its position information supplied from the motion detection unit 102 are supplied to the processing unit determination unit 901 and the correction unit 905, and the region information supplied from the region identification unit 103 is The processing unit is supplied to the processing unit determining unit 901.
  • the foreground component image supplied from the foreground / background separator 105 is supplied to the calculator 904.
  • the processing unit determination unit 901 generates a processing unit based on the motion vector, its position information, and area information, and supplies the generated processing unit to the modeling unit 902 together with the motion vector.
  • the modeling unit 902 performs modeling based on the motion vector and the input processing unit. More specifically, for example, the modeling unit 92 includes a plurality of models corresponding to the number of pixels included in the processing unit, the number of virtual divisions of pixel values in the time direction, and the number of foreground components for each pixel. Is stored in advance, and a model that specifies the correspondence between pixel values and foreground components, as shown in Fig. 64, is selected based on the processing unit and the number of virtual divisions of pixel values in the time direction. .
  • the modeling unit 902 sets the number of virtual divisions to 5, and the leftmost pixel is one. Contains the foreground component, the second pixel from the left contains two foreground components, the third pixel from the left contains three foreground components, and the fourth pixel from the left contains four foreground components. The fifth pixel from the left contains five foreground components, the sixth pixel from the left contains five foreground components, the seventh pixel from the left contains five foreground components, and the eighth from the left.
  • Pixel contains five foreground components
  • the ninth pixel from the left contains four foreground components
  • the 10th pixel from the left contains three foreground components
  • the 11th pixel from the left Contains two foreground components
  • the second pixel from the left contains one foreground component, for a total of eight foreground components.
  • the modeling unit 902 does not select a model from the models stored in advance, but when the motion vector and the processing unit are supplied, the model is formed based on the motion vector and the processing unit. You may make it generate
  • the equation generator 903 uses the model supplied from the modeling unit 902 to Generate an expression.
  • the pixel value C12 includes only the foreground component F08 / v, as shown in equation (107), and the pixel value C11 includes the foreground component F08 / v and the foreground component Consists of the sum of products of F07 / v. Therefore, the foreground component F07 / v can be obtained by equation (108).
  • the foreground components F06 / v to FOl / v can be obtained by Expressions (109) to (114). .
  • the equation generation unit 903 generates an equation for calculating a foreground component based on a difference between pixel values, as shown in Expressions (107) to (114).
  • the equation generator 903 supplies the generated equation to the calculator 904.
  • the calculation unit 904 sets the pixel value of the foreground component image to the equation supplied from the equation generation unit 903, and calculates the foreground component based on the equation in which the pixel value is set. Performance For example, when the equations (107) to (111) are supplied from the equation generator 903, the arithmetic unit 904 calculates the equations (107) to (114) as follows. Set the pixel values C05 to C12.
  • the calculation unit 904 calculates a foreground component based on the equation in which the pixel value is set. For example, the calculating unit 904 calculates the foreground component FOl / as shown in FIG. 65 by performing calculations based on equations (107) to (114) in which pixel values C05 to C12 are set. Calculate v to F08 / v. The calculation unit 904 supplies the foreground components FO l / v to F08 / v to the correction unit 905.
  • the correction unit 905 removes motion blur by multiplying the foreground component supplied from the calculation unit 904 by the motion amount v included in the motion vector supplied from the processing unit determination unit 901. Calculate the pixel value of the foreground. For example, when the foreground components FO l / v to F08 / supplied from the arithmetic unit 904 are supplied, the capturing unit 905 may generate, for each of the foreground components FO l / v to F08 / v, By multiplying by the motion amount V of 5, foreground pixel values F01 to F08 from which motion blur has been removed are calculated as shown in FIG.
  • the correcting unit 905 supplies the foreground component image composed of the pixel values of the foreground, from which the motion blur has been removed, calculated as described above, to the motion blur adding unit 906 and the selecting unit 907.
  • the motion-blur adding unit 906 includes a motion-blur adjustment amount v ′ having a value different from the motion amount V, for example, a motion-blur adjustment amount having a half value of the motion amount V, and a motion-portion adjustment value having a value irrelevant to the motion amount V.
  • the amount of motion blur can be adjusted with the blur adjustment amount v '. For example, as shown in FIG.
  • the motion blur adding unit 906 calculates the foreground component Fi / v by dividing the foreground pixel value Fi from which the motion blur has been removed by the motion blur adjustment amount. Then, the sum of the foreground components Fi / v 'is calculated to generate a pixel value with the amount of motion blur adjusted. For example, when the motion blur adjustment amount v 'is 3, the pixel value C02 is (F01) / v', the pixel value C03 is (F01 + F02) / v ', and the pixel value C04 is (F01 + F02 + F03) / v ', and the pixel value C05 is (F02 + F03 + F04) / v'.
  • the motion blur adding unit 906 supplies the foreground component image in which the amount of motion blur has been adjusted to the selecting unit 907.
  • the selection unit 907 supplies the foreground component image from which the motion blur has been removed supplied from the correction unit 905 and the motion blur addition unit 906 based on a selection signal corresponding to the user's selection, for example.
  • One of the selected foreground component images with the adjusted amount of motion blur is selected, and the selected foreground component image is output.
  • the motion blur adjustment unit 106 can adjust the amount of motion blur based on the selection signal and the motion blur adjustment amount V.
  • step S901 the processing unit determination unit 901 of the motion blur adjustment unit 106 generates a processing unit based on the motion vector and the area information, and the generated processing unit is modeled by the modeling unit 9. 0 2 and the correction unit 9 05.
  • step S902 the modeling unit 902 of the motion-blur adjusting unit 106 selects or generates a model according to the motion amount V and the processing unit.
  • step S903 the equation generation unit 903 generates an equation for calculating a foreground component from a difference between pixel values of the foreground component image based on the selected or generated model.
  • step S904 the arithmetic unit 904 sets the pixel value of the foreground component image in the created equation, and calculates the foreground component from the pixel value difference based on the equation in which the pixel value is set. Extract.
  • step S905 the arithmetic unit 904 determines whether all foreground components corresponding to the processing unit have been extracted, and has not extracted all foreground components corresponding to the processing unit. If the judgment is made, the process returns to step S904, and the process of extracting the foreground component is repeated.
  • step S905 If it is determined in step S905 that all the foreground components corresponding to the processing unit have been extracted, the process proceeds to step S906, where the correction unit 905 determines the operation unit based on the motion amount V. By correcting each of the foreground components FO l / v to F08 / v supplied from 904, the foreground pixel values F01 to F08 from which motion blur has been removed are calculated.
  • step S907 the motion-blur adding unit 906 calculates the pixel value of the foreground with the amount of the motion blur adjusted, and the selecting unit 907 selects the image or the motion-blurred image.
  • the user selects one of the images in which the amount of motion blur has been adjusted, outputs the selected image, and ends the processing.
  • the motion blur adjusting unit 106 having the configuration shown in FIG. 63 can adjust the motion blur from the foreground image including the motion blur faster and with a simpler operation.
  • the motion blur adjustment unit 106 shown in Fig. 63 also has a sufficient effect on the actual image that has been quantized and contains noise, enabling accurate motion blur removal. Becomes
  • the image processing apparatus having the configuration shown in FIG. 2 can adjust the amount of motion blur included in the input image.
  • FIG. 68 is a block diagram illustrating another configuration of the functions of the image processing apparatus.
  • the region specifying unit 103 supplies the region information to the mixture ratio calculating unit 104 and the combining unit 1001.
  • the mixture ratio calculation unit 104 supplies the mixture ratio to the foreground / background separation unit 105 and the synthesis unit 1001.
  • the foreground / background separation unit 105 supplies the foreground component image to the synthesis unit 1001.
  • the synthesizing unit 1001 performs an arbitrary background image and a foreground / background separation unit 10 based on the mixture ratio supplied from the mixture ratio calculation unit 104 and the region information supplied from the region identification unit 103.
  • the foreground component image supplied from 5 is synthesized, and a synthesized image in which an arbitrary background image and a foreground component image are synthesized is output.
  • FIG. 69 is a diagram illustrating a configuration of the combining unit 1001.
  • the background component generation unit 1021 generates a background component image based on the mixture ratio ⁇ and an arbitrary background image, and supplies the background component image to the mixed region image synthesis unit 102.
  • the mixed area image synthesizing unit 1 0 2 2 outputs the background supplied from the background component generation unit 1 0 2 1. By combining the component image and the foreground component image, a mixed region combined image is generated. The generated mixed region combined image is supplied to the image combining unit 102.
  • the image combining unit 1023 combines the foreground component image, the mixed region combined image supplied from the mixed region image combining unit 1022, and an arbitrary background image based on the region information to form a combined image. Generate and output.
  • the synthesizing unit 1001 can synthesize the foreground component image with an arbitrary background image.
  • An image obtained by synthesizing a foreground component image with an arbitrary background image based on the mixture ratio, which is a feature quantity, is more natural than an image obtained by simply synthesizing pixels.
  • FIG. 70 is a block diagram showing still another configuration of the function of the image processing apparatus for adjusting the amount of motion blur. While the image processing apparatus shown in FIG. 2 sequentially performs the area specification and the calculation of the mixture ratio, the image processing apparatus shown in FIG. 70 performs the area specification and the calculation of the mixture ratio in parallel.
  • the input image is supplied to a mixture ratio calculation unit 1101, a foreground / background separation unit 1102, an area identification unit 103, and an object extraction unit 101.
  • the mixing ratio calculation unit 1101 calculates the estimated mixing ratio when the pixel belongs to the covered background area and the estimated mixing ratio when the pixel belongs to the uncovered background area. Is calculated for each of the pixels contained in the input image, and the estimated mixture ratio when the calculated pixels belong to the covered background area, and the estimated mixture ratio when the pixels belong to the uncovered background area The estimated mixture ratio is supplied to the foreground / background separation unit 1102.
  • FIG. 71 is a block diagram illustrating an example of the configuration of the mixture ratio calculation unit 1101.
  • the estimated mixture ratio processing unit 401 shown in FIG. 71 is the same as the estimated mixture ratio processing unit 401 shown in FIG.
  • the estimated mixing ratio processing unit 402 shown in FIG. This is the same as the comparison processing unit 402.
  • the estimated mixture ratio processing unit 401 calculates the estimated mixture ratio for each pixel by an operation corresponding to the model of the covered background area based on the input image, and outputs the calculated estimated mixture ratio.
  • the estimated mixture ratio processing unit 402 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered background area based on the input image, and outputs the calculated estimated mixture ratio.
  • the foreground / background separation unit 1102 calculates the estimated mixture ratio supplied from the mixture ratio calculation unit 1101, assuming that the pixel belongs to the power background area, and the uncovered pixel.
  • a foreground component image is generated from the input image based on the estimated mixture ratio when it is assumed to belong to the ground area and the area information supplied from the area specifying unit 103, and the generated foreground component image is subjected to motion blur. It is supplied to the adjustment unit 106 and the selection unit 107.
  • FIG. 72 is a block diagram illustrating an example of the configuration of the foreground / background separation unit 1102.
  • Parts similar to those of the foreground / background separation unit 105 shown in FIG. 47 are denoted by the same reference numerals, and description thereof will be omitted.
  • the selection unit 1 121 is based on the region information supplied from the region identification unit 103, and based on the region information supplied from the mixture ratio calculation unit 1101, it is assumed that the pixels belong to the covered background region. Either the estimated mixture ratio or the estimated mixture ratio when the pixel belongs to the anchored background region is selected, and the selected estimated mixture ratio is supplied to the separation unit 601 as the mixture ratio.
  • the separation unit 6001 extracts a foreground component and a background component from the pixel values of the pixels belonging to the mixed region based on the mixture ratio ⁇ and the region information supplied from the selection unit 1 121, and extracts the extracted foreground. Is supplied to the synthesizing unit 603, and the background component is supplied to the synthesizing unit 605.
  • Separating section 600 can have the same configuration as the configuration shown in FIG.
  • the combining unit 603 combines the foreground component images and outputs the combined image.
  • the synthesis unit 6 05 The component images are combined and output.
  • the motion blur adjustment unit 106 shown in FIG. 70 can have the same configuration as that shown in FIG. 2, and is provided from the foreground / background separation unit 1102 based on the area information and the motion vector. The amount of motion blur included in the supplied foreground component image is adjusted, and the foreground component image in which the amount of motion blur is adjusted is output.
  • the selection unit 107 shown in FIG. 70 includes, for example, a foreground component image supplied from the foreground / background separation unit 1102 and a motion blur adjustment unit 106 based on a selection signal corresponding to the user's selection. And selects one of the foreground component images supplied with the adjusted amount of motion blur, and outputs the selected foreground component image.
  • the image processing device having the configuration shown in FIG. 70 can output the image corresponding to the foreground object included in the input image by adjusting the amount of motion blur included in the image. .
  • the image processing device having the configuration shown in FIG. 70 can calculate the mixture ratio buried information and output the calculated mixture ratio similarly to the first embodiment.
  • FIG. 73 is a block diagram illustrating another configuration of the function of the image processing apparatus that combines the foreground component image with an arbitrary background image.
  • the image processing apparatus shown in FIG. 68 serially performs the area specification and the calculation of the mixture ratio a, whereas the image processing apparatus shown in FIG. 73 performs the area specification and the calculation of the mixture ratio in parallel.
  • the mixture ratio calculator 1101 shown in FIG. 73 calculates the estimated mixture ratio when pixels are assumed to belong to the covered background area based on the input image, and the pixels belong to the covered background area. Is calculated for each of the pixels included in the input image, and the estimated mixture ratio when the calculated pixels are assumed to belong to the covered background area, and when the pixels are in the uncovered packed ground area Are supplied to the foreground / background separation unit 1102 and the synthesis unit 1221, respectively.
  • the 73 calculates the estimated mixture ratio supplied from the mixture ratio calculation unit 111 when the pixel belongs to the covered background area, and the pixel A foreground component image is generated from the input image based on the estimated mixture ratio assuming that the image belongs to the covered background area and the area information supplied from the area specifying unit 103, and the generated foreground component image is synthesized.
  • the synthesizing unit 1221 the estimated mixing ratio supplied from the mixing ratio calculating unit 1101, when the pixel belongs to the covered background area, and assumed that the pixel belongs to the uncovered background area
  • the arbitrary background image and the foreground component image supplied from the foreground / background separation unit 1102 are synthesized based on the estimated mixture ratio in the case and the region information supplied from the region identification unit 103, and And outputs a composite image in which the background image and the foreground component image are combined.
  • FIG. 74 is a diagram showing a configuration of the synthesizing unit 1221. Parts similar to the functions shown in the block diagram of FIG. 69 are denoted by the same reference numerals, and description thereof will be omitted.
  • the selection unit 1221 determines whether the pixel supplied from the mixture ratio calculation unit 1101, belonging to the covered background region, Either the estimated mixture ratio or the estimated mixture ratio when the pixel is assumed to belong to the uncovered background area is selected, and the selected estimated mixture ratio is used as the mixture ratio. To supply.
  • the background component generation unit 1021 shown in FIG. 74 generates a background component image based on the mixing ratio 0? Supplied from the selection unit 1221 and an arbitrary background image, and Supply to component 102
  • the mixed area image synthesizing section 102 shown in FIG. 74 generates a mixed area synthesized image by synthesizing the background component image supplied from the background component generating section 102 and the foreground component image. Then, the generated mixed area synthesized image is supplied to the image synthesizing unit 102.
  • the image combining unit 1023 combines the foreground component image, the mixed region combined image supplied from the mixed region image combining unit 1022, and an arbitrary background image based on the region information, Generate and output a composite image.
  • the synthesizing unit 1221 can synthesize the foreground component image with an arbitrary background image.
  • the mixture ratio has been described as the ratio of the background component included in the pixel value, the mixture ratio may be the ratio of the foreground component included in the pixel value.
  • an example is given in which an image of the real space having the three-dimensional space and the time axis information is projected onto the two-dimensional space and the time and space having the time axis information using the video camera. Corrects the distortion caused by the projection of more first information in the first dimension onto the second information in the smaller second dimension, without falling into this example. It can be used to extract significant information, or to synthesize images more naturally.
  • the sensor is not limited to a CCD, but is a solid-state image sensor.
  • the sensor may be a sensor in which the detection elements are arranged in a matrix, but may be a sensor in which the detection elements are arranged in a line.
  • the recording medium on which the program for performing the signal processing of the present invention is recorded is a magnetic disk 51 on which the program is recorded, which is distributed in order to provide the program to the user separately from the computer.
  • a magnetic disk 51 on which the program is recorded which is distributed in order to provide the program to the user separately from the computer.
  • optical disk 52 CD-ROM (Compact Disc-Read Only Memory)
  • DVD including Digital Versatile Disc
  • magneto-optical disk 53 including MD (Mini-Disc) (trademark)
  • semiconductor memory 54 It is composed of an R0M 22 in which programs are recorded and provided to the user in a state in which the program is stored in advance, a hard disk included in the storage unit 28, and the like.
  • steps for describing a program to be recorded on a recording medium are not only performed in chronological order according to the order described, but are not necessarily performed in chronological order. Alternatively, it also includes processes that are individually executed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Description

明細書
画像処理装置および方法、 並びに撮像装置 技術分野
本発明は、 画像処理装置および方法、 並びに撮像装置に関し、 特に、 センサに より検出した信号と現実世界との違いを考慮した画像処理装置および方法、 並び に撮像装置に関する。 背景技術
現実世界における事象をセンサで検出し、 画像センサが出力するサンプリング データを処理する技術が広く利用されている。
例えば、 静止している所定の背景の前で移動する物体をビデオカメラで撮像し て得られる画像には、 物体の移動速度が比較的速い場合、 動きボケが生じること になる。
しかしながら、 静止している背景の前で物体が移動するとき、 移動する物体の 画像自身の混ざり合いによる動きボケのみならず、 背景の画像と移動する物体の 画像との混ざり合いが生じる。 従来は、 背景の画像と移動する物体の画像との混 ざり合いの状態に対応する処理は、 考えられていなかった。 発明の開示
本発明はこのような状況に鑑みてなされたものであり、 混ざり合いの状態に対 応して、 背景の画像と物体の画像とを分離することができるようにすることを目 的とする。
本発明の画像処理装置は、 1つの画面に対応する第 1の時間において、 画像デ ータの注目フレームの前景オブジェクトを構成する前景オブジェクト成分と背景 ォブジェクトを構成する背景オブジェクト成分とが混合されてなる、 前景ォブジ ェタ トの動き方向の後端側に形成されるアンカバードバックグラウンド領域を特 定し、 第 1の時間の後の、 1つの画面に対応する第 2の時間において、 前景ォブ ジェクト成分のみからなる前景領域、 および背景オブジェク ト成分のみからなる 背景領域を特定し、 第 2の時間の後の、 1つの画面に対応する第 3の時間におい て、 前景オブジェク ト成分と背景オブジェク ト成分とが混合されてなる、 前景ォ ブジェク トの動き方向の先端側に形成される力パードバックグラウンド領域を特 定する領域特定手段と、 アンカバードバックグラウンド領域および力バードバッ クグラウンド領域における、 前景オブジェクト成分と背景オブジェクト成分との 混合の比率を示す混合比を検出する混合比検出手段と、 混合比に基づいて、 アン カバードバックダラゥンド領域およびカバードバックダラゥンド領域に属する画 素の画素データを、 前景オブジェクト成分と背景オブジェク ト成分とに分離し、 注目フレームにおける、 前景ォブジェクト成分のみからなる前景成分画像と背景 オブジェグト成分のみからなる背景成分画像とを生成する前景背景分離手段とを 含むことを特徴とする。
領域特定手段は、 連続して入力される 3つのフレームを一時記憶し、 第 1の時 間において、 注目フレームの 2つ前のフレームと注目フレームの 1つ前のフレー ムとの間で動きと判定され、 注目フレームの 1つ前のフレームと注目フレームと の間で静止と判定される領域を注目フレームに対応するアンカバードバックダラ ゥンド領域と特定し、 第 2の時間において、 注目フレームの 1つ前のフレームと 注目フレームとの間で動きと判定され、 注目フレームと注目フレームの 1つ後の フレームとの間で動きと判定される領域を注目フレームに対応する前景領域と特 定し、 第 2の時間において、 注目フレームの 1つ前のフレームと注目フレームと の間で静止と判定され、 注目フレームと注目フレームの 1つ後のフレームとの間 で静止と判定される領域を注目フレームに対応する背景領域と特定し、 第 3の時 間において、 注目フレームと注目フレームの 1つ後のフレームとの間で動きと判 定され、 注目フレームの 1つ後のフレームと注目フレームの 2つ後のフレームと の間で静止と判定される領域を注目フレームに対応するカバードバックグラウン ド領域と特定するようにすることができる。 本発明の画像処理方法は、 1つの画面に対応する第 1の時間において、 画像デ ータの注目フレームの前景ォブジェクトを構成する前景オブジェクト成分と背景 オブジェクトを構成する背景オブジェクト成分とが混合されてなる、 前景ォプジ ェク トの動き方向の後端側に形成されるァンカバードバックグラウンド領域を特 定し、 第 1の時間の後の、 1つの画面に対応する第 2の時間において、 前景ォブ ジェクト成分のみからなる前景領域、 および背景オブジェクト成分のみからなる 背景領域を特定し、 第 2の時間の後の、 1つの画面に対応する第 3の時間におい て、 前景オブジェクト成分と背景ォブジェク ト成分とが混合されてなる、 前景ォ プジ タトの動き方向の先端側に形成されるカバードバックグラウンド領域を特 定する領域特定ステツプと、 アンカバードバックグラウンド領域および力パード パックグラウンド領域における、 前景ォブジェクト成分と背景オブジェクト成分 との混合の比率を示す混合比を検出する混合比検出ステップと、 混合比に基づい て、 アンカバードバックグラウンド領域およびカバードバックグラウンド領域に 属する画素の画素データを、 前景オブジェク ト成分と背景オブジェクト成分とに 分離し、 注目フレームにおける、 前景オブジェクト成分のみからなる前景成分画 像と背景オブジェク ト成分のみからなる背景成分画像とを生成する前景背景分離 ステップとを含むことを特徴とする。
領域特定ステップは、 連続して入力される 3つのフレームを一時記憶し、 第 1 の時間において、 注目フレームの 2つ前のフレームと注目フレームの 1つ前のフ レームとの間で動きと判定され、 注目フレームの 1つ前のフレームと注目フレー ムとの間で静止と判定される領域を注目フレームに対応するアンカバードバック グラウンド領域と特定し、 第 2の時間において、 注目フレームの 1つ前のフレー ムと注目フレームとの間で動きと判定され、 注目フレームと注目フレームの 1つ 後のフレームとの間で動きと判定される領域を注目フレームに対応する前景領域 と特定し、 第 2の時間において、 注目フレームの 1つ前のフレームと注目フレー ムとの間で静止と判定され、 注目フレームと注目フレームの 1つ後のフレームと の間で静止と判定される領域を注目フレームに対応する背景領域と特定し、 第 3 の時間において、 注目フレームと注目フレームの 1つ後のフレームとの間で動き と判定され、 注目フレームの 1つ後のフレームと注目フレームの 2つ後のフレー ムとの間で静止と判定される領域を注目フレームに対応するカバードバックグラ ゥンド領域と特定するようにすることができる。
本発明の記録媒体のプログラムは、 1つの画面に対応する第 1の時間において、 画像データの注目フレームの前景オブジェクトを構成する前景オブジェクト成分 と背景オブジェクトを構成する背景オブジェク ト成分とが混合されてなる、 前景 オブジェク トの動き方向の後端側に形成されるアンカバードバックグラウンド領 域を特定し、 第 1の時間の後の、 1つの画面に対応する第 2の時間において、 前 景ォブジェクト成分のみからなる前景領域、 および背景ォプジヱクト成分のみか らなる背景領域を特定し、 第 2の時間の後の、 1つの画面に対応する第 3の時間 において、 前景オブジェクト成分と背景オブジェクト成分とが混合されてなる、 前景ォブジェク トの動き方向の先端側に形成されるカバードバックグラウンド領 域を特定する領域特定ステツプと、 アンカバードバックグラウンド領域およぴカ バードバックグラウンド領域における、 前景オブジェタト成分と背景オブジェク ト成分との混合の比率を示す混合比を検出する混合比検出ステップと、 混合比に 基づいて、 アンカバードバックグラウンド領域およぴカバードバックグラウンド 領域に属する画素の画素データを、 前景オブジェクト成分と背景オブジェク ト成 分とに分離し、 注目フレームにおける、 前景オブジェクト成分のみからなる前景 成分画像と背景オブジェクト成分のみからなる背景成分画像とを生成する前景背 景分離ステップとを含むことを特徴とする。
領域特定ステップは、 連続して入力される 3つのフレームを一時記憶し、 第 1 の時間において、 注目フレームの 2つ前のフレームと注目フレームの 1つ前のフ レームとの間で動きと判定され、 注目フレームの 1つ前のフレームと注目フレー ムとの間で静止と判定される領域を注目フレームに対応するアンカバードパック グラウンド領域と特定し、 第 2の時間において、 注目フレームの 1つ前のフレー ムと注目フレームとの間で動きと判定され、 注目フレームと注目フレームの 1つ 後のフレームとの間で動きと判定される領域を注目フレームに対応する前景領域 と特定し、 第 2の時間において、 注目フレームの 1つ前のフレームと注目フレー ムとの間で静止と判定され、 注目フレームと注目フレームの 1つ後のフレームと の間で静止と判定される領域を注目フレームに対応する背景領域と特定し、 第 3 の時間において、 注目フレームと注目フレームの 1つ後のフレームとの間で動き と判定され、 注目フレームの 1つ後のフレームと注目フレームの 2つ後のフレー ムとの間で静止と判定される領域を注目フレームに対応するカバードバックダラ ゥンド領域と特定するようにすることができる。
本発明のプログラムは、 コンピュータに、 1つの画面に対応する第 1の時間に おいて、 画像データの注目フレームの前景オブジェクトを構成する前景オブジェ クト成分と背景オブジェクトを構成する背景オブジェクト成分とが混合されてな る、 前景オブジェクトの動き方向の後端側に形成されるアンカバードバックダラ ゥンド領域を特定し、 第 1の時間の後の、 1つの画面に対応する第 2の時間にお いて、 前景オブジェクト成分のみからなる前景領域、 および背景オブジェクト成 分のみからなる背景領域を特定し、 第 2の時間の後の、 1つの画面に対応する第 3の時間において、 前景ォブジェクト成分と背景オブジェクト成分とが混合され てなる、 前景オブジェクトの動き方向の先端側に形成されるカバードバックダラ ゥンド領域を特定する領域特定ステップと、 アンカバードバックグラウンド領域 およびカバードバックグラウンド領域における、 前景オブジェクト成分と背景ォ ブジェクト成分との混合の比率を示す混合比を検出する混合比検出ステップと、 混合比に基づいて、 アンカバードバックグラウンド領域および力バ一ドバックグ ラウンド領域に属する画素の画素データを、 前景ォブジェクト成分と背景ォプジ エタ ト成分とに分離し、 注目フレームにおける、 前景オブジェクト成分のみから なる前景成分画像と背景オブジェクト成分のみからなる背景成分画像とを生成す る前景背景分離ステツプとを実行させることを特徴とする。
領域特定ステップは、 連続して入力される 3つのフレームを一時記憶し、 第 1 の時間において、 注目フレームの 2つ前のフレームと注目フレームの 1つ前のフ レームとの間で動きと判定され、 注目フレームの 1つ前のフレームと注目フレー ムとの間で静止と判定される領域を注目フレームに対応するアンカバードバック グラウンド領域'と特定し、 第 2の時間において、 注目フレームの 1つ前のフレー ムと注目フレームとの間で動きと判定され、 注目フレームと注目フレームの 1つ 後のフレームとの間で動きと判定される領域を注目フレームに対応する前景領域 と特定し、 第 2の時間において、 注目フレームの 1つ前のフレームと注目フレー ムとの間で静止と判定され、 注目フレームと注目フレームの 1つ後のフレームと の間で静止と判定される領域を注目フレームに対応する背景領域と特定し、 第 3 の時間において、 注目フレームと注目フレームの 1つ後のフレームとの間で動き と判定され、 注目フレームの 1つ後のフレームと注目フレームの 2つ後のフレー ムとの間で静止と判定される領域を注目フレームに対応するカバードバックダラ ゥンド領域と特定するようにすることができる。
本発明の撮像装置は、 時間積分効果を有する所定数の画素を有する撮像素子に よって撮像された被写体画像を、 所定数の画素データからなる画像データとして 出力する撮像手段と、 1つの画面に対応する第 1の時間において、 画像データの 注目フレームの前景オブジェクトを構成する前景オブジェクト成分と背景ォブジ エタ トを構成する背景ォブジェクト成分とが混合されてなる、 前景ォブジェクト の動き方向の後端側に形成されるアンカバ一ドバックグラウンド領域を特定し、 第 1の時間の後の、 1つの画面に対応する第 2の時間において、 前景オブジェク ト成分のみからなる前景領域、 および背景オブジェクト成分のみからなる背景領 域を特定し、 第 2の時間の後の、 1つの画面に対応する第 3の時間において、 前 景ォブジェクト成分と背景ォブジェクト成分とが混合されてなる、 前景オブジェ クトの動き方向の先端側に形成されるカバードバックグラウンド領域を特定する 領域特定手段と、 ァンカバードバックグラウンド領域および力バードバックダラ ゥンド領域における、 前景オブジェクト成分と背景オブジェクト成分との混合の 比率を示す混合比を検出する混合比検出手段と、 混合比に基づいて、 アンカバー ドバックグラゥンド領域およびカバードパックグラゥンド領域に属する画素の画 素データを、 前景ォブジェクト成分と背景オブジェクト成分とに分離し、 注目フ レームにおける、 前景オブジェクト成分のみからなる前景成分画像と背景ォブジ ェクト成分のみからなる背景成分画像とを生成する前景背景分離手段とを含むこ とを特徴とする。
領域特定手段は、 連続して入力される 3つのフレームを一時記憶し、 第 1の時 間において、 注目フレームの 2つ前のフレームと注目フレームの 1つ前のフレー ムとの間で動きと判定され、 注目フレームの 1つ前のフレームと注目フレームと の間で静止と判定される領域を注目フレームに対応するアンカバードバックダラ ゥンド領域と特定し、 第 2の時間において、 注目フレームの 1つ前のフレームと 注目フレームとの間で動きと判定され、 注目フレームと注目フレームの 1つ後の フレームとの間で動きと判定される領域を注目フレームに対応する前景領域と特 定し、 第 2の時間において、 注目フレームの 1つ前のフレームと注目フレームと の間で静止と判定され、 注目フレームと注目フレームの 1つ後のフレームとの間 で静止と判定される領域を注目フレームに対応する背景領域と特定し、 第 3の時 間において、 注目フレームと注目フレームの 1つ後のフレームとの間で動きと判 定され、 注目フレームの 1つ後のフレームと注目フレームの 2つ後のフレームと の間で静止と判定される領域を注目フレームに対応するカバードバックグラウン ド領域と特定するようにすることができる。
1つの画面に対応する第 1の時間において、 画像データの注目フレームの前景 オブジェクトを構成する前景オブジェクト成分と背景オブジェクトを構成する背 景ォブジェクト成分とが混合されてなる、 前景オブジェクトの動き方向の後端側 に形成されるアンカパードバックグラウンド領域が特定され、 第 1の時間の後の- 1つの画面に対応する第 2の時間において、 前景オブジェク ト成分のみからなる 前景領域、 および背景オブジェクト成分のみからなる背景領域が特定され、 第 2 の時間の後の、 1つの画面に対応する第 3の時間において、 前景オブジェクト成 分と背景ォブジェクト成分とが混合されてなる、 前景オブジェクトの動き方向の 先端側に形成されるカバードバックグラウンド領域が特定され、 アンカバードバ ックグラウンド領域おょぴカバードバックグラウンド領域における、 前景ォブジ ェクト成分と背景ォブジェクト成分との混合の比率を示す混合比が検出され、 混 合比に基づいて、 ァンカバードバックグラウンド領域およびカバードバックダラ ゥンド領域に属する画素の画素データが、 前景オブジェクト成分と背景オブジェ タト成分とに分離され、 注目フレームにおける、 前景オブジェクト成分のみから なる前景成分画像と背景ォブジェクト成分のみからなる背景成分画像とが生成さ れる。
これにより、 混ざり合いの状態に対応して、 背景の画像と物体の画像とを分離 することができるようになる。 図面の簡単な説明
図 1は、 本発明に係る画像処理装置の一実施の形態を示す図である。
図 2は、 画像処理装置を示すブロック図である。
図 3は、 センサによる撮像を説明する図である。
図 4は、 画素の配置を説明する図である。
図 5は、 検出素子の動作を説明する図である。
図 6 Aは、 動いている前景に対応するォブジェクトと、 静止している背景に対 応するォブジェクトとを撮像して得られる画像を説明する図である。
図 6 Bは、 動いている前景に対応するオブジェクトと、 静止している背景に対 応するオブジェクトとを撮像して得られる画像に対応するモデルを説明する図で める。
図 7は、 背景領域、 前景領域、 混合領域、 カバードバックグラウンド領域、 お よびアンカバードパックグラウンド領域を説明する図である。
図 8は、 静止している前景に対応するォブジェクトおよび静止している背景に 対応するォブジェクトを撮像した画像における、 隣接して 1列に並んでいる画素 の画素値を時間方向に展開したモデル図である。
図 9は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割した モデル図である。
図 1 0は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 1は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 2は、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示す図 である。
図 1 3は、 画素と画素値を時間方向に展開したモデルとの対応を示す図である, 図 1 4は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 5は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 6は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 7は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 8は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 9は、 動きボケの量の調整の処理を説明するフローチャートである。
図 2 0は、 領域特定部 1 0 3の構成を示すブロック図である。
図 2 1は、 前景に対応するオブジェクトが移動しているときの画像を説明する 図である。
図 2 2は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割し たモデル図である。
図 2 3は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割し たモデル図である。
図 2 4は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割し たモデル図である。
図 2 5は、 領域判定の条件を説明する図である。
図 2 6は、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。
図 2 7は、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。
図 2 8は、 領域特定の処理を説明するフローチャートである。
図 2 9は、 領域特定の処理を説明するフローチャートである。
図 3 0は、 混合比算出部 1 0 4の構成の一例を示すプロック図である。
図 3 1は、 理想的な混合比 の例を示す図である。
図 3 2は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 3 3は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 3 4は、 前景の成分の相関を利用した近似を説明する図である。
図 3 5は、 C, N および Pの関係を説明する図である。
図 3 6は、 推定混合比処理部 4 0 1の構成を示すブロック図である。
図 3 7は、 推定混合比の例を示す図である。
図 3 8は、 混合比算出部 1 0 4の他の構成を示すブロック図である。
図 3 9は、 混合比の算出の処理を説明するフローチャートである。
図 4 0は、 推定混合比の演算の処理を説明するフローチャートである。
図 4 1は、 混合比 を近似する直線を説明する図である。
図 4 2は、 混合比 を近似する平面を説明する図である。
図 4 3は、 混合比 を算出するときの複数のフレームの画素の対応を説明す る図である。
図 4 4は、 混合比推定処理部 4 0 1の他の構成を示すブロック図である。 図 4 5は、 推定混合比の例を示す図である。
図 4 6は、 カバードバックグラウンド領域に対応するモデルによる混合比推定 の処理を説明するフローチヤ一トである。 図 4 7は、 前景背景分離部 1 0 5の構成の一例を示すブロック図である。 図 4 8 Aは、 入力画像、 前景成分画像、 および背景成分画像を示す図である。 図 4 8 Bは、 入力画像、 前景成分画像、 および背景成分画像のモデルを示す図 である。
図 4 9は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 5 0は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 5 1は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 5 2は、 分離部 6 0 1の構成の一例を示すプロック図である。
図 5 3 Aは、 分離された前景成分画像の例を示す図である。
図 5 3 Bは、 分離された背景成分画像の例を示す図である。
図 5 4は、 前景と背景との分離の処理を説明するフローチャートである。 図 5 5は、 動きボケ調整部 1 0 6の構成の一例を示すプロック図である。 図 5 6は、 処理単位を説明する図である。
図 5 7は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。
図 5 8は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。
図 5 9は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。
図 6 0は、 前景成分画像の画素値を時間方向に展開し、 シャツタ時間に対応す る期間を分割したモデル図である。
図 6 1は、 動きボケ調整部 1 0 6の他の構成を示す図である。
図 6 2は、 動きボケ調整部 1 0 6による前景成分画像に含まれる動きボケの量 の調整の処理を説明するフローチヤ一トである。 図 6 3は、 動きボケ調整部 1 0 6の構成の他の一例を示すプロック図である。 図 6 4は、 画素値と前景の成分のとの対応を指定するモデルの例を示す図であ る。
図 6 5は、 前景の成分の算出を説明する図である。
図 6 6は、 前景の成分の算出を説明する図である。
図 6 7は、 前景の動きボケの除去の処理を説明するフローチャートである。 図 6 8は、 画像処理装置の機能の他の構成を示すブロック図である。
図 6 9は、 合成部 1 0 0 1の構成を示す図である。
図 7 0は、 画像処理装置の機能のさらに他の構成を示すプロック図である。 図 7 1は、 混合比算出部 1 1 0 1の構成を示すプロック図である。
図 7 2は、 前景背景分離部 1 1 0 2の構成を示すブロック図である。
図 7 3は、 画像処理装置の機能のさらに他の構成を示すプロック図である。 図 7 4は、 合成部 1 2 0 1の構成を示す図である。 発明を実施するための最良の形態
図 1は、 本発明に係る画像処理装置の一実施の形態を示す図である。 CPU (Central Processing Unit) 2 1は、 ROM (Read Only Memory) 2 2、 または 記憶部 2 8に記憶されているプログラムに従って各種の処理を実行する。 RAM (Random Access Memory) 2 3には、 CPU 2 1が実行するプログラムやデータ などが適宜記憶される。 これらの CPU 2 1、 ROM 2 2 , および RAM 2 3は、 バス 2 4により相互に接続されている。
CPU 2 1にはまた、 バス 2 4を介して入出力ィンタフェース 2 5が接続されて いる。 入出力ィンタフェース 2 5には、 キーボード、 マウス、 マイクロホンなど よりなる入力部 2 6、 ディスプレイ、 スピーカなどよりなる出力部 2 7が接続さ れている。 CPU 2 1は、 入力部 2 6から入力される指令に対応して各種の処理を 実行する。 そして、 CPU 2 1は、 処理の結果得られた画像や音声等を出力部 2 7 に出力する。 入出力インタフェース 2 5に接続されている記憶部 2 8は、 例えばハードディ スクなどで構成され、 CPU 2 1が実行するプログラムや各種のデータを記憶する c 通信部 2 9は、 インターネット、 その他のネットワークを介して外部の装置と通 信する。 この例の場合、 通信部 2 9はセンサの出力を取り込む取得部として働く c また、 通信部 2 9を介してプログラムを取得し、 記憶部 2 8に記憶してもよい c 入出力インタフェース 2 5に接続されているドライブ 3 0は、 磁気ディスク 5 1、 光ディスク 5 2、 光磁気ディスク 5 3、 或いは半導体メモリ 5 4などが装着 されたとき、 それらを駆動し、 そこに記録されているプログラムやデータなどを 取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 2 8に転送さ れ、 記憶される。
図 2は、 画像処理装置を示すプロック図である。
なお、 画像処理装置の各機能をハードウェアで実現するか、 ソフトウェアで実 現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェアのブロ ック図と考えても、 ソフトウエアによる機能プロック図と考えても良い。
この明細書では、 撮像の対象となる、 現実世界におけるオブジェクトに対応す る画像を、 画像オブジェクトと称する。
画像処理装置に供給された入力画像は、 才ブジェクト抽出部 1 0 1、 領域特定 部 1 0 3、 混合比算出部 1 0 4、 および前景背景分離部 1 0 5に供給される。
ォブジェクト抽出部 1 0 1は、 入力画像に含まれる前景のォブジェクトに対応 する画像オブジェクトを粗く抽出して、 抽出した画像ォブジェクトを動き検出部 1 0 2に供給する。 ォブジェクト抽出部 1 ◦ 1は、 例えば、 入力画像に含まれる 前景のオブジェクトに対応する画像オブジェクトの輪郭を検出することで、 前景 のォブジェクトに対応する画像オブジェクトを粗く抽出する。
オブジェクト抽出部 1 0 1は、 入力画像に含まれる背景のオブジェク トに対応 する画像オブジェクトを粗く抽出して、 抽出した画像オブジェクトを動き検出部 1 0 2に供給する。 オブジェクト抽出部 1 0 1は、 例えば、 入力画像と、 抽出さ れた前景のオブジェクトに対応する画像ォブジェクトとの差から、 背景のォプジ エタトに対応する画像オブジェクトを粗く抽出する。
また、 例えば、 オブジェクト抽出部 1 0 1は、 内部に設けられている背景メモ リに記憶されている背景の画像と、 入力画像との差から、 前景のオブジェクトに 対応する画像オブジェクト、 および背景のオブジェクトに対応する画像オブジェ タトを粗く抽出するようにしてもよい。
動き検出部 1 0 2は、 例えば、 プロックマッチング法、 勾配法、 位相相関法、 およびペルリカーシブ法などの手法により、 粗く抽出された前景のオブジェクト に対応する画像ォブジェクトの動きべクトルを算出して、 算出した動きべクトル および動きべクトルの位置情報 (動きべクトルに対応する画素の位置を特定する 情報) を動きボケ調整部 1 0 6に供給する。
動き検出部 1 0 2が出力する動きべクトルには、 動き量 Vに対応する情報が 含まれるている。
また、 例えば、 動き検出部 1 0 2は、 画像オブジェクトに画素を特定する画素 位置情報と共に、 画像オブジェクト毎の動きべクトルを動きボケ調整部 1 0 6に 出力するようにしてもよい。
動き量 Vは、 動いているオブジェクトに対応する画像の位置の変化を画素間 隔を単位として表す値である。 例えば、 前景に対応するオブジェク トの画像が、 あるフレームを基準として次のフ I ^一ムにおいて 4画素分離れた位置に表示され るように移動しているとき、 前景に対応するオブジェク トの画像の動き量 V は、 4とされる。
なお、 オブジェクト抽出部 1 0 1および動き検出部 1 0 2は、 動いているォブ ジェタトに対応した動きボケ量の調整を行う場合に必要となる。
領域特定部 1 0 3は、 入力された画像の画素のそれぞれを、 前景領域、 背景領 域、 または混合領域のいずれかに特定し、 画素毎に前景領域、 背景領域、 または 混合領域のいずれかに属するかを示す情報 (以下、 領域情報と称する) を混合比 算出部 1 0 4、 前景背景分離部 1 0 5、 および動きボケ調整部 1 0 6に供給する c 混合比算出部 1 0 4は、 入力画像、 および領域特定部 1 0 3から供給された領 域情報を基に、 混合領域に含まれる画素に対応する混合比 (以下、 混合比 と 称する) を算出して、 算出した混合比を前景背景分離部 1 0 5に供給する。
混合比 は、 後述する式 (3 ) に示されるように、 画素値における、 背景の オブジェクトに対応する画像の成分 (以下、 背景の成分とも称する) の割合を示 す値である。
前景背景分離部 1 0 5は、 領域特定部 1 0 3から供給された領域情報、 および 混合比算出部 1 0 4から供給された混合比 を基に、 前景のオブジェクトに対 応する画像の成分 (以下、 前景の成分とも称する) のみから成る前景成分画像と 背景の成分のみから成る背景成分画像とに入力画像を分離して、 前景成分画像を 動きボケ調整部 1 0 6および選択部 1 0 7に供給する。 なお、 分離された前景成 分画像を最終的な出力とすることも考えられる。 従来の混合領域を考慮しないで 前景と背景だけを特定し、 分離していた方式に比べ正確な前景と背景を得ること が出来る。
動きボケ調整部 1 0 6は、 動きべクトルからわかる動き量 Vおよび領域情報 を基に、 前景成分画像に含まれる 1以上の画素を示す処理単位を決定する。 処理 単位は、 動きボケの量の調整の処理の対象となる 1群の画素を指定するデータで ある。
動きボケ調整部 1 0 6は、 画像処理装置に入力された動きボケ調整量、 前景背 景分離部 1 0 5から供給された前景成分画像、 動き検出部 1 0 2から供給された 動きべクトルおよびその位置情報、 並びに処理単位を基に、 前景成分画像に含ま れる動きボケを除去する、 動きボケの量を減少させる、 または動きボケの量を增 加させるなど前景成分画像に含まれる動きボケの量を調整して、 動きボケの量を 調整した前景成分画像を選択部 1 0 7に出力する。 動きべクトルとその位置情報 は使わないこともある。
ここで、 動きボケとは、 撮像の対象となる、 現実世界におけるオブジェクトの 動きと、 センサの撮像の特性とにより生じる、 動いているオブジェクトに対応す る画像に含まれている歪みをいう。 選択部 1 0 7は、 例えば使用者の選択に対応した選択信号を基に、 前景背景分 離部 1 0 5から供給された前景成分画像、 および動きボケ調整部 1 0 6から供給 された動きボケの量が調整された前景成分画像のいずれか一方を選択して、 選択 した前景成分画像を出力する。
次に、 図 3乃至図 1 8を参照して、 画像処理装置に供給される入力画像につい て説明する。
図 3は、 センサによる撮像を説明する図である。 センサは、 例えば、 固体撮像 素子である CCD (Charge-Coupled Device) エリアセンサを備えた CCDビデオ力 メラなどで構成される。 現実世界における、 前景に対応するオブジェクト 1 1 1 は、 現実世界における、 背景に対応するオブジェクト 1 1 2と、 センサとの間を, 例えば、 図中の左側から右側に水平に移動する。
センサは、 前景に対応するオブジェクト 1 1 1を、 背景に対応するォブジェク ト 1 1 2と共に撮像する。 センサは、 撮像した画像を 1フレーム単位で出力する c 例えば、 センサは、 1秒間に 3 0フレームから成る画像を出力する。 センサの露 光時間は、 1ノ3 0秒とすることができる。 露光時間は、 センサが入力された光 の電荷への変換を開始してから、 入力された光の電荷への変換を終了するまでの 期間である。 以下、 露光時間をシャツタ時間とも称する。
図 4は、 画素の配置を説明する図である。 図 4中において、 A乃至 Iは、 個々 の画素を示す。 画素は、 画像に対応する平面上に配置されている。 1つの画素に 対応する 1つの検出素子は、 センサ上に配置されている。 センサが画像を撮像す るとき、 1つの検出素子は、 画像を構成する 1つの画素に対応する画素値を出力 する。 例えば、 検出素子の X方向の位置は、 画像上の横方向の位置に対応し、 検 出素子の Y方向の位置は、 画像上の縦方向の位置に対応する。
図 5に示すように、 例えば、 CCDである検出素子は、 シャツタ時間に対応する 期間、 入力された光を電荷に変換して、 変換された電荷を蓄積する。 電荷の量は、 入力された光の強さと、 光が入力されている時間にほぼ比例する。 検出素子は、 シャツタ時間に対応する期間において、 入力された光から変換された電荷を、 既 に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に対 応する期間、 入力される光を積分して、 積分された光に対応する量の電荷を蓄積 する。 検出素子は、 時間に対して、 積分効果があるとも言える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電圧 値は更にデジタルデータなどの画素値に変換されて出力される。 従って、 センサ から出力される個々の画素値は、 前景または背景に対応するォブジェクトの空間 的に広がりを有するある部分を、 シャツタ時間について積分した結果である、 1 次元の空間に射影された値を有する。
画像処理装置は、 このようなセンサの蓄積の動作により、 出力信号に埋もれて しまった有意な情報、 例えば、 混合比 を抽出する。 画像処理装置は、 前景の 画像オブジェクト自身が混ざり合うことによる生ずる歪みの量、 例えば、 動きポ ケの量などを調整する。 また、 画像処理装置は、 前景の画像オブジェクトと背景 の画像ォブジェクトとが混ざり合うことにより生ずる歪みの量を調整する。
図 6 Aは、 動いている前景に対応するオブジェクトと、 静止している背景に対 応するオブジェク トとを撮像して得られる画像を説明する図である。 図 6 Bは、 動いている前景に対応するォブジェクトと、 静止している背景に対応するォブジ エタトとを撮像して得られる画像に対応するモデルを説明する図である。
図 6 Aは、 動きを伴う前景に対応するオブジェクトと、 静止している背景に対 応するオブジェクトとを撮像して得られる画像を示している。 図 6 Aに示す例に おいて、 前景に対応するオブジェクトは、 画面に対して水平に左から右に動いて いる。
図 6 Bは、 図 6 Aに示す画像の 1つのラインに対応する画素値を時間方向に展 開したモデル図である。 図 6 Bの横方向は、 図 6 Aの空間方向 Xに対応している, 背景領域の画素は、 背景の成分、 すなわち、 背景のオブジェクトに対応する画 像の成分のみから、 その画素値が構成されている。 前景領域の画素は、 前景の成 分、 すなわち、 前景のオブジェクトに対応する画像の成分のみから、 その画素値 が構成されている。 混合領域の画素は、 背景の成分、 および前景の成分から、 その画素値が構成さ れている。 混合領域は、 背景の成分、 および前景の成分から、 その画素値が構成 されているので、 歪み領域ともいえる。 混合領域は、 更に、 カバードバックダラ ゥンド領域およぴァンカバードバックグラウンド領域に分類される。
カバードバックグラウンド領域は、 前景領域に対して、 前景のオブジェク トの 進行方向の前端部に対応する位置の混合領域であり、 時間の経過に対応して背景 成分が前景に覆い隠される領域をいう。
これに対して、 アンカバードバックグラウンド領域は、 前景領域に対して、 前 景のォブジェクトの進行方向の後端部に対応する位置の混合領域であり、 時間の 経過に対応して背景成分が現れる領域をいう。
このように、 前景領域、 背景領域、 またはカバードバックグラウンド領域若し くはアンカバードバックグラウンド領域を含む画像が、 領域特定部 1 0 3、 混合 比算出部 1 0 4、 および前景背景分離部 1 0 5に入力画像として入力される。 図 7は、 以上のような、 背景領域、 前景領域、 混合領域、 カバードバックダラ ゥンド領域、 およびアンカバードバックグラウンド領域を説明する図である。 図 6 Aに示す画像に対応する場合、 背景領域は、 静止部分であり、 前景領域は、 動 き部分であり、 混合領域のカバードバックグラウンド領域は、 背景から前景に変 化する部分であり、 混合領域のアンカバードバックグラウンド領域は、 前景から 背景に変化する部分である。
図 8は、 静止している前景に対応するオブジェクトおよび静止している背景に 対応するォブジェクトを撮像した画像における、 隣接して 1列に並んでいる画素 の画素値を時間方向に展開したモデル図である。 例えば、 隣接して 1列に並んで いる画素として、 画面の 1つのライン上に並んでいる画素を選択することができ る。
図 8に示す F01乃至 F04の画素値は、 静止している前景のオブジェクトに対 応する画素の画素値である。 図 8に示す B01乃至 B04の画素値は、 静止してい る背景のオブジェクトに対応する画素の画素値である。 図 8における縦方向は、 時間に対応し、 図中の上から下に向かって時間が経過 する。 図 8中の矩形の上辺の位置は、 センサが入力された光の電荷への変換を開 始する時刻に対応し、 図 8中の矩形の下辺の位置は、 センサが入力された光の電 荷への変換を終了する時刻に対応する。 すなわち、 図 8中の矩形の上辺から下辺 までの距離は、 シャツタ時間に対応する。
以下において、 シャツタ時間とフレーム間隔とが同一である場合を例に説明す る。
図 8における横方向は、 図 6 Aで説明した空間方向 Xに対応する。 より具体 的には、 図 8に示す例において、 図 8中の" F01 " と記載された矩形の左辺か ら" B04" と記載された矩形の右辺までの距離は、 画素のピッチの 8倍、 すなわ ち、 連続している 8つの画素の間隔に対応する。
前景のォブジェクトおよび背景のォブジェクトが静止している場合、 シャツタ 時間に対応する期間において、 センサに入力される光は変化しない。
ここで、 シャッタ時間に対応する期間を 2つ以上の同じ長さの期間に分割する, 例えば、 '仮想分割数を 4とすると、 図 8に示すモデル図は、 図 9に示すモデルと して表すことができる。 仮想分割数は、 前景に対応するオブジェク トのシャツタ 時間内での動き量 Vなどに対応して設定される。 例えば、 4である動き量 Vに 対応して、 仮想分割数は、 4とされ、 シャツタ時間に対応する期間は 4つに分割 される。
図中の最も上の行は、 シャツタが開いて最初の、 分割された期間に対応する。 図中の上から 2番目の行は、 シャツタが開いて 2番目の、 分割された期間に対応 する。 図中の上から 3番目の行は、 シャツタが開いて 3番目の、 分割された期間 に対応する。 図中の上から 4番目の行は、 シャツタが開いて 4番目の、 分割され た期間に対応する。
以下、 動き量 Vに対応して分割されたシャツタ時間をシャツタ時間/ Vとも称 する。
前景に対応するォブジェクトが静止しているとき、 センサに入力される光は変 化しないので、 前景の成分 FO l/vは、 画素値 F01を仮想分割数で除した値に等 しい。 同様に、 前景に対応するオブジェクトが静止しているとき、 前景の成分 F02/V は、 画素値 F02 を仮想分割数で除した値に等しく、 前景の成分 F03/v は、 画素値 F03を仮想分割数で除した値に等しく、 前景の成分 F04/Vは、 画素値 F04を仮想分割数で除した値に等しい。
背景に対応するオブジェクトが静止しているとき、 センサに入力される光は変 化しないので、 背景の成分 BO l/vは、 画素値 B01を仮想分割数で除した値に等 しい。 同様に、 背景に対応するオブジェクトが静止しているとき、 背景の成分 B02/vは、 画素値 B02を仮想分割数で除した値に等しく、 B03/vは、 画素値 B03 を仮想分割数で除した値に等しく、 B04/vは、 画素値 B04を仮想分割数で除した 値に等しい。
すなわち、 前景に対応するオブジェク トが静止している場合、 シャツタ時間に 対応する期間において、 センサに入力される前景のオブジェクトに対応する光が 変化しないので、 シャツタが開いて最初の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vと、 シャツタが開いて 2番目の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vと、 シャツタが開いて 3番目の、 シャツタ時間/ Vに対応する前景の 成分 FOl/vと、 シャツタが開いて 4番目の、 シャツタ時間/ Vに対応する前景の 成分 FOl/vとは、 同じ値となる。 F02/v乃至 F04/Vも、 FO l/vと同様の関係を有 する。
背景に対応するオブジェクトが静止している場合、 シャツタ時間に対応する期 間において、 センサに入力される背景のオブジェクトに対応する光は変化しない ので、 シャツタが開いて最初の、 シャツタ時間/ Vに対応する背景の成分 BO l/v と、 シャツタが開いて 2番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/v と、 シャツタが開いて 3番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/v と、 シャツタが開いて 4番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/v とは、 同じ値となる。 B02/v乃至 B04/vも、 同様の関係を有する。
次に、 前景に対応するォブジェクトが移動し、 背景に対応するオブジェクトが 静止している場合について説明する。
図 1 0は、 前景に対応するォブジェクトが図中の右側に向かって移動する場合 の、 カバードバックグラウンド領域を含む、 1つのライン上の画素の画素値を時 間方向に展開したモデル図である。 図 1 0において、 前景の動き量 Vは、 4で ある。 1フレームは短い時間なので、 前景に対応するオブジェクトが剛体であり 等速で移動していると仮定することができる。 図 1 0において、 前景に対応する オブジェクトの画像は、 あるフレームを基準として次のフレームにおいて 4画素 分右側に表示されるように移動する。
図 1 0において、 最も左側の画素乃至左から 4番目の画素は、 前景領域に属す る。 図 1 0において、 左から 5番目乃至左から 7番目の画素は、 カバードバック グラウンド領域である混合領域に属する。 図 1 0において、 最も右側の画素は、 背景領域に属する。
前景に対応するォブジェクトが時間の経過と共に背景に対応するオブジェクト を覆い隠すように移動しているので、 カバードパックグラウンド領域に属する画 素の画素値に含まれる成分は、 シャツタ時間に対応する期間のある時点で、 背景 の成分から、 前景の成分に替わる。
例えば、 図 1 0中に太線枠を付した画素値 Mは、 式 (1 ) で表される。
M=B02/v+B02/v+F07/v+F06/v ( 1 )
例えば、 左から 5番目の画素は、 1つのシャツタ時間/ Vに対応する背景の成 分を含み、 3つのシャツタ時間/ Vに対応する前景の成分を含むので、 左から 5 番目の画素の混合比 は、 1/4である。 左から 6番目の画素は、 2つのシャツ タ時間/ Vに対応する背景の成分を含み、 2つのシャツタ時間 /vに対応する前景 の成分を含むので、 左から 6番目の画素の混合比 は、 1/2である。 左から 7 番目の画素は、 3つのシャツタ時間/ Vに対応する背景の成分を含み、 1つのシ ャッタ時間/ Vに対応する前景の成分を含むので、 左から 7番目の画素の混合比 は、 3/4である。
前景に対応するオブジェクトが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 4番目の画素の、 シャツタが開いて最初の、 シャツタ時間/ V の前景の成分 F07/vは、 図 1 0中の左から 5番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vに対応する前景の成分に等しい。 同様に、 前景の成分 F07/vは、 図 1 0中の左から 6番目の画素の、 シャツタが開いて 3番目のシャツ タ時間/ Vに対応する前景の成分と、 図 1 0中の左から 7番目の画素の、 シャツ タが開いて 4番目のシャツタ時間/ Vに対応する前景の成分とに、 それぞれ等し い。
前景に対応するオブジェクトが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 3番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの 前景の成分 F06/vは、 図 1 0中の左から 4番目の画素の、 シャツタが開いて 2 番目のシャツタ時間 /vに対応する前景の成分に等しい。 同様に、 前景の成分 F06/vは、 図 1 0中の左から 5番目の画素の、 シャツタが開いて 3番目のシャツ タ時間/ Vに対応する前景の成分と、 図 1 0中の左から 6番目の画素の、 シャツ タが開いて 4番目のシャッタ時間/ Vに対応する前景の成分とに、 それぞれ等し い。
前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 2番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの 前景の成分 F05/vは、 図 1 0中の左から 3番目の画素の、 シャツタが開いて 2 番目のシャツタ時間 /vのに対応する前景の成分に等しい。 同様に、 前景の成分 F05/vは、 図 1 0中の左から 4番目の画素の、 シャツタが開いて 3番目のシャツ タ時間/ Vに対応する前景の成分と、 図 1 0中の左から 5番目の画素の、 シャツ タが開いて 4番目のシャツタ時間/ Vに対応する前景の成分とに、 それぞれ等し レ、。
前景に対応するオブジェクトが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の最も左側の画素の、 シャツタが開いて最初のシャツタ時間/ Vの前景 の成分 F04/vは、 図 1 0中の左から 2番目の画素の、 シャツタが開いて 2番目 のシャツタ時間/ Vに対応する前景の成分に等しい。 同様に、 前景の成分 F04/v は、 図 1 0中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ時間 /vに対応する前景の成分と、 図 1 0中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vに対応する前景の成分とに、 それぞれ等しい。 動いているオブジェク トに対応する前景の領域は、 このように動きボケを含む ので、 歪み領域とも言える。
図 1 1は、 前景が図中の右側に向かって移動する場合の、 アンカバードバック グラウンド領域を含む、 1つのライン上の画素の画素値を時間方向に展開したモ デル図である。 図 1 1において、 前景の動き量 Vは、 4である。 1フレームは 短い時間なので、 前景に対応するオブジェクトが剛体であり、 等速で移動してい ると仮定することができる。 図 1 1において、 前景に対応するォブジェクトの画 像は、 あるフレームを基準として次のフレームにおいて 4画素分右側に移動する 図 1 1において、 最も左側の画素乃至左から 4番目の画素は、 背景領域に属す る。 図 1 1において、 左から 5番目乃至左から 7番目の画素は、 アンカバードバ ックグラウンドである混合領域に属する。 図 1 1において、 最も右側の画素は、 前景領域に属する。
背景に対応するォブジェク トを覆っていた前景に対応するォブジェク トが時間 の経過と共に背景に対応するオブジェクトの前から取り除かれるように移動して いるので、 アンカバードパックグラウンド領域に属する画素の画素値に含まれる 成分は、 シャツタ時間に対応する期間のある時点で、 前景の成分から、 背景の成 分に替わる。
例えば、 図 1 1中に太線枠を付した画素値 M'は、 式 (2 ) で表される。
M' =F02/v+F01/v+B26/v+B26/v ( 2 )
例えば、 左から 5番目の画素は、 3つのシャツタ時間/ Vに対応する背景の成 分を含み、 1つのシャツタ時間/ Vに対応する前景の成分を含むので、 左から 5 番目の画素の混合比 は、 3/4である。 左から 6番目の画素は、 2つのシャツ タ時間/ Vに対応する背景の成分を含み、 2つのシャツタ時間 /vに対応する前景 の成分を含むので、 左から 6番目の画素の混合比 は、 1/2である。 左から 7 番目の画素は、 1つのシャツタ時間/ Vに対応する背景の成分を含み、 3つのシ ャッタ時間/ Vに対応する前景の成分を含むので、 左から 7番目の画素の混合比 aは、 1/4である。
式 (1 ) および式 (2 ) をより一般化すると、 画素値 Mは、 式 (3 ) で表さ れる。
M= - B +∑Fi/v (3)
ここで、 は、 混合比である。 Bは、 背景の画素値であり、 Fi/vは、 前景の 成分である。
前景に対応するォブジェク トが剛体であり、 等速で動くと仮定でき、 かつ、 動 き量 Vが 4であるので、 例えば、 図 1 1中の左から 5番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 FOl/vは、 図 1 1中の左から 6 番目の画素の、 シャッタが開いて 2番目のシャッタ時間/ Vに対応する前景の成 分に等しい ς 同様に、 FOl/vは、 図 1 1中の左から 7番目の画素の、 シャツタが 開いて 3番目のシャッタ時間/ Vに対応する前景の成分と、 図 1 1中の左から 8 番目の画素の、 シャッタが開いて 4番目のシャッタ時間/ Vに対応する前景の成 分とに、 それぞれ等しい。
前景に対応するオブジェクトが剛体であり、 等速で動くと仮定でき、 かつ、 仮 想、分割数が 4であるので、 例えば、 図 1 1中の左から 6番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 F02/vは、 図 1 1中の左から 7 番目の画素の、 シャッタが開いて 2番目のシャッタ時間/ Vに対応する前景の成 分に等しい。 同様に、 前景の成分 F02/v は、 図 1 1中の左から 8番目の画素の、 シャツタが開いて 3番目のシャツタ時間/ Vに対応する前景の成分に等しい。
前景に対応するオブジェクトが剛体であり、 等速で動くと仮定でき、 かつ、 動 き量 vが 4であるので、 例えば、 図 1 1中の左から 7番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 F03/vは、 図 1 1中の左から 8 番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vに対応する前景の成 分に等しい。
図 9乃至図 1 1の説明において、 仮想分割数は、 4であるとして説明したが、 仮想分割数は、 動き量 Vに対応する。 動き量 Vは、 一般に、 前景に対応するォ ブジエタトの移動速度に対応する。 例えば、 前景に対応するォブジ タトが、 あ るフレームを基準として次のフレームにおいて 4画素分右側に表示されるように 移動しているとき、 動き量 Vは、 4とされる。 動き量 Vに対応し、 仮想分割数 は、 4とされる。 同様に、 例えば、 前景に対応するオブジェク トが、 あるフレー ムを基準として次のフレームにおいて 6画素分左側に表示されるように移動して いるとき、 動き量 Vは、 6とされ、 仮想分割数は、 6とされる。
図 1 2および図 1 3に、 以上で説明した、 前景領域、 背景領域、 カバードバッ クグラウンド領域若しくはアンカバードバックグラウンド領域から成る混合領域 と、 分割されたシャツタ時間に対応する前景の成分および背景の成分との関係を 示す。
図 1 2は、 静止している背景の前を移動しているオブジェク トに対応する前景 を含む画像から、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示 す。 図 1 2に示す例において、 Aで示す、 前景に対応するオブジェクトは、 画面 に対して水平に移動している。
フレーム #n+l は、 フレーム #nの次のフレームであり、 フレーム #n+2は、 フレ ーム #n+lの次のフレームである。
フレーム #n 乃至フレーム #n+2 のいずれかから抽出した、 前景領域、 背景領域、 および混合領域の画素を抽出して、 動き量 Vを 4として、 抽出された画素の画 素値を時間方向に展開したモデルを図 1 3に示す。
前景領域の画素値は、 前景に対応するオブジェクトが移動するので、 シャツタ 時間/ Vの期間に対応する、 4つの異なる前景の成分から構成される。 例えば、 図 1 3に示す前景領域の画素のうち最も左側に位置する画素は、
F01/v,F02A^ F03/v、ぉょびF04/vから構成される。 すなわち、 前景領域の画素 は、 動きボケを含んでいる。
背景に対応するォブジェクトが静止しているので、 シャツタ時間に対応する期 間において、 センサに入力される背景に対応する光は変化しない。 この場合、 背 景領域の画素値は、 動きボケを含まない。
力バードバックグラウンド領域若しくはァンカバードバックグラウンド領域か ら成る混合領域に属する画素の画素値は、 前景の成分と、 背景の成分とから構成 される。
次に、 オブジェク トに対応する画像が動いているとき、 複数のフレームにおけ る、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画素の 画素値を時間方向に展開したモデルについて説明する。 例えば、 オブジェクトに 対応する画像が画面に対して水平に動いているとき、 隣接して 1列に並んでいる 画素として、 画面の 1つのライン上に並んでいる画素を選択することができる。 図 1 4は、 静止している背景に対応するォブジェクトを撮像した画像の 3つの フレームの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置 の画素の画素値を時間方向に展開したモデル図である。 フレーム #nは、 フレー ム #n- 1の次のフレームであり、 フレーム #n+lは、 フレーム #nの次のフレームで ある。 他のフレームも同様に称する。
図 1 4に示す B01乃至 B12の画素値は、 静止している背景のオブジェク トに 対応する画素の画素値である。 背景に対応するオブジェクトが静止しているので、 フレーム #n - 1乃至フレーム n+lにおいて、 対応する画素の画素値は、 変化しな レ、。 例えば、 フレーム #n-lにおける B05の画素値を有する画素の位置に対応す る、 フレーム における画素、 およびフレーム #n+l における画素は、 それぞれ、 B05の画素値を有する。
図 1 5は、 静止している背景に対応するオブジェクトと共に図中の右側に移動 する前景に対応するオブジェクトを撮像した画像の 3つのフレームの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画素の画素値を時間 方向に展開したモデル図である。 図 1 5に示すモデルは、 カバードバックグラウ ンド領域を含む。
図 1 5において、 前景に対応するオブジェクトが、 剛体であり、 等速で移動す ると仮定でき、 前景の画像が次のフレームにおいて 4画素右側に表示されるよう に移動するので、 前景の動き量 Vは、 4であり、 仮想分割数は、 4である。
例えば、 図 1 5中のフレーム #n-lの最も左側の画素の、 シャツタが開いて最 初のシャツタ時間/ Vの前景の成分は、 F12/vとなり、 図 1 5中の左から 2番目 の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F12/v となる。 図 1 5中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ 時間/ Vの前景の成分、 および図 1 5中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F12/vとなる。
図 1 5中のフレーム #n-lの最も左側の画素の、 シャツタが開いて 2番目のシ ャッタ時間/ Vの前景の成分は、 Fl l/vとなり、 図 1 5中の左から 2番目の画素 の、 シャツタが開いて 3番目のシャツタ時間/ V の前景の成分も、 Fl l /v となる, 図 1 5中の左から 3番目の画素の、 シャツタが開いて 4番目のシャツタ時間/ V の前景の成分は、 Fl l/vとなる。
図 1 5中のフレーム #n_lの最も左側の画素の、 シャツタが開いて 3番目のシ ャッタ時間/ Vの前景の成分は、 FlO/vとなり、 図 1 5中の左から 2番目の画素 の、 シャツタが開いて 4番目のシャツタ時間/ V の前景の成分も、 FlO/v となる, 図 1 5中のフレーム #n-lの最も左側の画素の、 シャツタが開いて 4番目のシャ ッタ時間/ Vの前景の成分は、 F09/vとなる。
背景に対応するォブジェクトが静止しているので、 図 1 5中のフレーム #n- 1 の左から 2番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの背景の成 分は、 BO l/vとなる。 図 1 5中のフレーム #n-lの左から 3番目の画素の、 シャ ッタが開いて最初おょぴ 2番目のシャツタ時間/ Vの背景の成分は、 B02/vとな る。 図 1 5中のフレーム #n-lの左から 4番目の画素の、 シャツタが開いて最初 乃至 3番目のシャツタ時間/ vの背景の成分は、 B03/vとなる。
図 1 5中のフレーム #n- 1において、 最も左側の画素は、 前景領域に属し、 左 側から 2番目乃至 4番目の画素は、 力バードバックグラウンド領域である混合領 域に属する。
図 1 5中のフレーム #n-lの左から 5番目の画素乃至 1 2番目の画素は、 背景 領域に属し、 その画素値は、 それぞれ、 B04乃至 B11となる。 . 図 1 5中のフレーム の左から 1番目の画素乃至 5番目の画素は、 前景領域 に属する。 フレーム #nの前景領域における、 シャツタ時間/ Vの前景の成分は、
F05/v乃至 F12/vのいずれかである。
前景に対応するオブジェクトが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 5中のフレーム #ηの左から 5番目の画素の、 シャツタが開いて最初のシャ ッタ時間/ V の前景の成分は、 F12/v となり、 図 1 5中の左から 6番目の画素の, シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F12/vとなる。 図 1 5中の左から 7番目の画素の、 シャツタが開いて 3番目のシャツタ時間/ Vの 前景の成分、 および図 1 5中の左から 8番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F12/vとなる。
図 1 5中のフレーム #nの左から 5番目の画素の、 シャッタが開いて 2番目の シャツタ時間/ Vの前景の成分は、 Fl l/vとなり、 図 1 5中の左から 6番目の画 素の、 シャツタが開いて 3番目のシャツタ時間/ Vの前景の成分も、 Fl l/vとな る。 図 1 5中の左から 7番目の画素の、 シャツタが開いて 4番目のシャツタ時間
/vの前景の成分は、 Fl l/vとなる。
図 1 5中のフレーム #nの左から 5番目の画素の、 シャツタが開いて 3番目の シャツタ時間/ Vの前景の成分は、 FlO/vとなり、 図 1 5中の左から 6番目の画 素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分も、 FlO/vとな る。 図 1 5中のフレーム #nの左から 5番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F09/vとなる。 背景に対応するォブジェクトが静止しているので、 図 1 5中のフレーム #nの 左から 6番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの背景の成分 は、 B05/vとなる。 図 1 5中のフレーム #nの左から 7番目の画素の、 シャツタ が開いて最初および 2番目のシャツタ時間 /vの背景の成分は、 B06/vとなる。 図 1 5中のフレーム #nの左から 8番目の画素の、 シャツタが開いて最初乃至 3 番目の、 シャツタ時間/ Vの背景の成分は、 B07/vとなる。
図 1 5中のフレーム #nにおいて、 左側から 6番目乃至 8番目の画素は、 カバ 一ドバックダラゥンド領域である混合領域に属する。
図 1 5中のフレーム #nの左から 9番目の画素乃至 1 2番目の画素は、 背景領 域に属し、 画素値は、 それぞれ、 B08乃至 B 11となる。
図 1 5中のフレーム #η+ 1の左から 1番目の画素乃至 9番目の画素は、 前景領 域に属する。 フレーム #η+1の前景領域における、 シャツタ時間 /νの前景の成分 は、 FO l/v乃至 F12/vのいずれかである。
前景に対応するオブジェクトが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 5中のフレーム #n+ lの左から 9番目の画素の、 シャッタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F12/vとなり、 図 1 5中の左から 1 0番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F12/vとな る。 図 1 5中の左から 1 1番目の画素の、 シャツタが開いて 3番目のシャツタ時 間/ Vの前景の成分、 および図 1 5中の左から 1 2番目の画素の、 シャツタが開 いて 4番目のシャッタ時間/ Vの前景の成分は、 F12/vとなる。
図 1 5中のフレーム #n+lの左から 9番目の画素の、 シャッタが開いて 2番目 のシャツタ時間/ Vの期間の前景の成分は、 Fl l/vとなり、 図 1 5中の左から 1 0番目の画素の、 シャッタが開いて 3番目のシャッタ時間/ Vの前景の成分も、 Fl l /v となる。 図 1 5中の左から 1 1番目の画素の、 シャツタが開いて 4番目の. シャツタ時間/ Vの前景の成分は、 Fl l/vとなる。
図 1 5中のフレーム #η+1の左から 9番目の画素の、 シャツタが開いて 3番目 の、 シャツタ時間/ vの前景の成分は、 FlO/vとなり、 図 1 5中の左から 1 0番 目の画素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分も、 FlO/v となる。 図 1 5中のフレーム #n+lの左から 9番目の画素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分は、 F09/vとなる。
背景に対応するオブジェクトが静止しているので、 図 1 5中のフレーム #n+l の左から 1 0番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの背景の 成分は、 B09/vとなる。 図 1 5中のフレーム #n+lの左から 1 1番目の画素の、 シャッタが開いて最初および 2番目のシャッタ時間/ Vの背景の成分は、 B lO/v となる。 図 1 5中のフレーム #n+lの左から 1 2番目の画素の、 シャツタが開い て最初乃至 3番目の、 シャツタ時間/ Vの背景の成分は、 Bl l/vとなる。
図 1 5中のフレーム #n+l において、 左側から 1 0番目乃至 1 2番目の画素は、 カバードバックグラウンド領域である混合領域に対応する。
図 1 6は、 図 1 5に示す画素値から前景の成分を抽出した画像のモデル図であ る。
図 1 7は、 静止している背景と共に図中の右側に移動するオブジェクトに対応 する前景を撮像した画像の 3つのフレームの、 隣接して 1列に並んでいる画素で あって、 フレーム上で同'一の位置の画素の画素値を時間方向に展開したモデル図 である。 図 1 7において、 アンカバードバックグラウンド領域が含まれている。 図 1 7において、 前景に対応するオブジェクトは、 剛体であり、 かつ等速で移 動していると仮定できる。 前景に対応するオブジェク トが、 次のフレームにおい て 4画素分右側に表示されるように移動しているので、 動き量 V は、 4である c 例えば、 図 1 7中のフレーム #n-lの最も左側の画素の、 シャツタが開いて最 初の、 シャツタ時間/ Vの前景の成分は、 F13/vとなり、 図 1 7中の左から 2番 目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F13/v となる。 図 1 7中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ 時間/ Vの前景の成分、 およぴ図 1 7中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間 /vの前景の成分は、 F13/vとなる。 図 1 7中のフレーム -1の左から 2番目の画素の、 シャツタが開いて最初の シャツタ時間/ Vの前景の成分は、 F14/vとなり、 図 1 7中の左から 3番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F14/vとな る。 図 1 7中の左から 3番目の画素の、 シャツタが開いて最初の、 シャツタ時間 /vの前景の成分は、 F15/vとなる。
背景に対応するオブジェクトが静止しているので、 図 1 7中のフレーム #n - 1 の最も左側の画素の、 シャツタが開いて 2番目乃至 4番目の、 シャツタ時間/ の背景の成分は、 B25/vとなる。 図 1 7中のフレーム #n-lの左から 2番目の画 素の、 シャツタが開いて 3番目および 4番目の、 シャツタ時間/ Vの背景の成分 は、 B26/vとなる。 図 1 7中のフレーム #n - 1の左から 3番目の画素の、 シャツ タが開いて 4番目のシャツタ時間/ Vの背景の成分は、 B27/vとなる。
図 1 7中のフレーム #n- 1において、 最も左側の画素乃至 3番目の画素は、 ァ ンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム #n-lの左から 4番目の画素乃至 1 2番目の画素は、 前景 領域に属する。 フレームの前景の成分は、 F13/v乃至 F24/vのいずれかである。 図 1 7中のフレーム #nの最も左側の画素乃至左から 4番目の画素は、 背景領 域に属し、 画素値は、 それぞれ、 B25乃至 B28となる。
前景に対応するオブジェクトが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 7中のフレーム #nの左から 5番目の画素の、 シャツタが開いて最初のシャ ッタ時間/ V の前景の成分は、 F13/v となり、 図 1 7中の左から 6番目の画素の, シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F13/vとなる。 図 1 7中の左から 7番目の画素の、 シャツタが開いて 3番目のシャツタ時間/ Vの 前景の成分、 および図 1 7中の左から 8番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F13/vとなる。
図 1 7中のフレーム #nの左から 6番目の画素の、 シャッタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F14/vとなり、 図 1 7中の左から 7番目の画素 の、 シャツタが開いて 2番目のシャツタ時間/ v の前景の成分も、 F14/v となる , 図 1 7中の左から 8番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの 前景の成分は、 F15/vとなる。
背景に対応するオブジェクトが静止しているので、 図 1 7中のフレーム の 左から 5番目の画素の、 シャツタが開いて 2番目乃至 4番目のシャツタ時間 /v の背景の成分は、 B29/vとなる。 図 1 7中のフレーム #nの左から 6番目の画素 の、 シャッタが開いて 3番目おょぴ 4番目のシャッタ時間/ Vの背景の成分は、 B30/vとなる。 図 1 7中のフレーム #nの左から 7番目の画素の、 シャツタが開 いて 4番目のシャッタ時間/ Vの背景の成分は、 B31/vとなる。
図 1 7中のフレーム #nにおいて、 左から 5番目の画素乃至 7番目の画素は、 アンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム #nの左から 8番目の画素乃至 1 2番目の画素は、 前景領 域に属する。 フレーム #ηの前景領域における、 シャツタ時間 /νの期間に対応す る値は、 F13/v乃至 F20/vのいずれかである。
図 1 7中のフレーム #η+1の最も左側の画素乃至左から 8番目の画素は、 背景 領域に属し、 画素値は、 それぞれ、 Β25乃至 Β32となる。
前景に対応するオブジェクトが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 7中のフレーム +1の左から 9番目の画素の、 シャッタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F13/vとなり、 図 1 7中の左から 1 0番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F13/vとな る。 図 1 7中の左から 1 1番目の画素の、 シャツタが開いて 3番目のシャツタ時 間/ Vの前景の成分、 および図 1 7中の左から 1 2番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F13/vとなる。
図 1 7中のフレーム #η+1の左から 1 0番目の画素の、 シャツタが開いて最初 のシャツタ時間/ Vの前景の成分は、 F14/vとなり、 図 1 7中の左から 1 1番目 の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F14/v となる。 図 1 7中の左から 1 2番目の画素の、 シャツタが開いて最初のシャツタ 時間/ Vの前景の成分は、 F15/vとなる。
背景に対応するォブジェクトが静止しているので、 図 1 7中のフレーム #n+l の左から 9番目の画素の、 シャツタが開いて 2番目乃至 4番目の、 シャツタ時間 /vの背景の成分は、 B33/vとなる。 図 1 7中のフレーム #n+lの左から 1 0番目 の画素の、 シャッタが開いて 3番目および 4番目のシャツタ時間/ Vの背景の成 分は、 B34/vとなる。 図 1 7中のフレーム #n+lの左から 1 1番目の画素の、 シ ャッタが開いて 4番目のシャッタ時間/ Vの背景の成分は、 B35/vとなる。
図 1 7中のフレーム ίίη+lにおいて、 左から 9番目の画素乃至 1 1番目の画素 は、 アンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム #η+1の左から 1 2番目の画素は、 前景領域に属する。 フ レーム #η+1の前景領域における、 シャツタ時間/ Vの前景の成分は、 F13/v乃至 F16/vのいずれかである。
図 1 8は、 図 1 7に示す画素値から前景の成分を抽出した画像のモデル図であ る。
図 2に戻り、 領域特定部 1 0 3は、 複数のフレームの画素値を用いて、 前景領 域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバックダラ ゥンド領域に属することを示すフラグを画素毎に対応付けて、 領域情報として、 混合比算出部 1 0 4および動きボケ調整部 1 0 6に供給する。
混合比算出部 1 0 4は、 複数のフレームの画素値、 および領域情報を基に、 混 合領域に含まれる画素について画素毎に混合比 を算出し、 算出した混合比 を前景背景分離部 1 0 5に供給する。
前景背景分離部 1 0 5は、 複数のフレームの画素値、 領域情報、 および混合比 を基に、 前景の成分のみからなる前景成分画像を抽出して、 動きボケ調整部 1 0 6に供給する。
動きボケ調整部 1 0 6は、 前景背景分離部 1 0 5から供給された前景成分画像、 動き検出部 1 ◦ 2から供給された動きべクトル、 および領域特定部 1 0 3から供 給された領域情報を基に、 前景成分画像に含まれる動きボケの量を調整して、 動 きボケの量を調整した前景成分画像を出力する。
図 1 9のフローチャートを参照して、 画像処理装置による動きボケの量の調整 の処理を説明する。 ステップ S 1 1において、 領域特定部 1 0 3は、 入力画像を 基に、 入力画像の画素毎に前景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバックグラウンド領域のいずれかに属するかを示す領域情報 を生成する領域特定の処理を実行する。 領域特定の処理の詳細は、 後述する。 領 域特定部 1 0 3は、 生成した領域情報を混合比算出部 1 0 4に供給する。
なお、 ステップ S 1 1において、 領域特定部 1 0 3は、 入力画像を基に、 入力 画像の画素毎に前景領域、 背景領域、 または混合領域 (カバードバックグラウン ド領域、 またはアンカバードバックグラウンド領域の区別をしない) のいずれか に属するかを示す領域情報を生成するようにしてもよい。 この場合において、 前 景背景分離部 1 0 5および動きボケ調整部 1 0 6は、 動きべクトルの方向を基に、 混合領域が力バードバックグラウンド領域である力 \ またはァンカバードバック グラウンド領域であるかを判定する。 例えば、 動きベク トルの方向に対応して、 前景領域、 混合領域、 および背景領域と順に並んでいるとき、 その混合領域は、 力バードバックグラウンド領域と判定され、 動きべク トルの方向に対応して、 背 景領域、 混合領域、 および前景領域と順に並んでいるとき、 その混合領域は、 ァ ンカバードバックグラウンド領域と判定される。
ステップ S 1 2において、 混合比算出部 1 0 4は、 入力画像および領域情報を 基に、 混合領域に含まれる画素毎に、 混合比 を算出する。 混合比算出の処理 の詳細は、 後述する。 混合比算出部 1ひ 4は、 算出した混合比 を前景背景分 離部 1 0 5に供給する。
ステップ S 1 3において、 前景背景分離部 1 0 5は、 領域情報、 および混合比 aを基に、 入力画像から前景の成分を抽出して、 前景成分画像として動きボケ 調整部 1 0 6に供給する。
ステップ S 1 4において、 動きボケ調整部 1 0 6は、 動きべクトルおよび領域 情報を基に、 動き方向に並ぶ連続した画素であって、 アンカバードバックグラウ ンド領域、 前景領域、 およびカバードバックグラウンド領域のいずれかに属する ものの画像上の位置を示す処理単位を生成し、 処理単位に対応する前景成分に含 まれる動きボケの量を調整する。 動きボケの量の調整の処理の詳細については、 後述する。
ステップ S 1 5において、 画像処理装置は、 画面全体について処理を終了した か否かを判定し、 画面全体について処理を終了していないと判定された場合、 ス テツプ S 1 4に進み、 処理単位に対応する前景の成分を対象とした動きボケの量 の調整の処理を繰り返す。
ステップ S 1 5において、 画面全体について処理を終了したと判定された場合、 処理は終了する。
このように、 画像処理装置は、 前景と背景を分離して、 前景に含まれる動きポ ケの量を調整することができる。 すなわち、 画像処理装置は、 前景の画素の画素 値であるサンプルデータに含まれる動きボケの量を調整することができる。
以下、 領域特定部 1 0 3、 混合比算出部 1 0 4、 前景背景分離部 1 0 5、 およ び動きボケ調整部 1 0 6のそれぞれの構成について説明する。
図 2 0は、 領域特定部 1 0 3の構成を示すプロック図である。
フレームメモリ 2 0 1は、 入力された画像をフレーム単位で記憶する。 フレー ムメモリ 2 0 1は、 フレーム #nの 1つ前のフレームであるフレーム #n- 1、 フレ ーム #n、 およびフレーム #η の 1つ後のフレームであるフレーム #n+l を記憶する。 静動判定部 2 0 2— 1は、 領域特定の対象であるフレーム #n の画素の画素値、 および領域特定の対象であるフレーム toの画素の画像上の位置と同一の位置に あるフレーム #n_lの画素の画素値をフレームメモリ 2 0 1から読み出して、 画 素値の差の絶対値を算出する。 静動判定部 2 0 2— 1は、 フレーム の画素値 とフレーム - 1の画素値との差の絶対値が、 予め設定している閾値 Thより大き いか否かを判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場 合、 動きを示す静動判定を領域判定部 2 0 3に供給する。 フレーム #nの画素の 画素値とフレーム to- 1の画素の画素値との差の絶対値が、 閾値 Th以下であると 判定された場合、 静動判定部 2 0 2— 1は、 静止を示す静動判定を領域判定部 2 0 3に供給する。
静動判定部 2 0 2— 2は、 領域特定の対象であるフレーム #nの画素の画像上 の位置と同一の位置にあるフレーム #n+lの画素の画素値、 およびフレーム #nの 対象となる画素の画素値をフレームメモリ 2 0 1から読み出して、 画素値の差の 絶対値を算出する。 静動判定部 2 0 2— 2は、 フレーム #n+lの画素値とフレー ム¾の画素値との差の絶対値が、 予め設定している閾値 Thより大きいか否かを 判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場合、 動きを 示す静動判定を領域判定部 2 0 3に供給する。 フレーム #n+lの画素の画素値と フレーム #nの画素の画素値との差の絶対値が、 閾値 Th以下であると判定された 場合、 静動判定部 2 0 2— 2は、 静止を示す静動判定を領域判定部 2 0 3に供給 する。
領域判定部 2 0 3は、 静動判定部 2 0 2— 1から供給された静動判定が静止を 示し、 かつ、 静動判定部 2 0 2— 2から供給された静動判定が静止を示している とき、 フレーム toにおける領域特定の対象である画素が静止領域に属すると判 定し、 判定フラグ格納フレームメモリ 2 0 4のフレーム #nの、 領域の判定され る画素に対応するアドレスに、 静止領域に属することを示すフラグを設定する。 領域判定部 2 0 3は、 静動判定部 2 0 2— 1から供給された静動判定が動きを 示し、 かつ、 静動判定部 2 0 2— 2から供給された静動判定が動きを示している とき、 フレーム #nにおける領域特定の対象である画素が動き領域に属すると判 定し、 判定フラグ格納フレームメモリ 2 0 4のフレーム toの、 領域の判定され る画素に対応するァドレスに、 動き領域に属することを示すフラグを設定する。 領域判定部 2 0 3は、 静動判定部 2 0 2— 1から供給された静動判定が静止を 示し、 かつ、 静動判定部 2 0 2— 2から供給された静動判定が動きを示している とき、 フレーム #n+lにおける領域特定の対象である画素がカバードバックグラ ゥンド領域に属すると判定し、 判定フラグ格納フレームメモリ 2 0 4のフレーム #n+lの、 領域の判定される画素に対応するアドレスに、 カバードバックグラウ ンド領域に属することを示すフラグを設定する。
領域判定部 2 0 3は、 静動判定部 2 0 2— 1から供給された静動判定が動きを 示し、 かつ、 静動判定部 2 0 2— 2から供給された静動判定が静止を示している とき、 フレーム #n〜lにおける領域特定の対象である画素がアンカバードバック グラウンド領域に属すると判定し、 判定フラグ格納フレームメモリ 2 0 4のフレ ーム #n_lの、 領域の判定される画素に対応するアドレスに、 アンカバードバッ クグラウンド領域に属することを示すフラグを設定する。
領域判定部 2 0 3が判定フラグ格納フレームメモリ 2 0 4に設定するフラグは、 例えば、 2bitのフラグであり、 " 0 0 " であるとき、 静止領域を示し、 " 0
1 " であるとき、 アンカバードバックグラウンド領域を示し、 " 1 0 " であると き、 カバードバックグラウンド領域を示し、 " 1 1 " であるとき、 動き領域を示 す。
判定フラグ格納フレームメモリ 2 0 4は、 各画素に対応して 2bi tのフラグで ある、 フレーム #n - 1の領域判定されたフラグ、 フレーム #nの領域判定されたフ ラグ、 およびフレーム #n+lの領域判定されたフラグを個々に記憶する。
判定フラグ格納フレームメモリ 2 0 4は、 領域特定部 1 0 3が 1つのフレーム について領域の判定を終了したとき、 アンカバードバックグラウンド領域、 動き 領域、 静止領域、 および力パードバックグラウンド領域を示すフラグが設定され ている、 フレーム #n+lのフラグを領域情報として出力する。
判定フラグ格納フレームメモリ 2 0 4は、 領域特定部 1 0 3が 1つのフレーム について領域の判定を終了したとき、 アンカバードバックグラウンド領域、 動き 領域、 およぴ諍止領域を示すフラグが設定されている、 フレーム #nのフラグを フレーム に移動する。
判定フラグ格納フレームメモリ 2 0 4は、 領域特定部 1 0 3が 1つのフレーム について領域の判定を終了したとき、 アンカバードバックグラウンド領域を示す フラグが設定されている、 フレーム #n_lのフラグをフレーム #nに移動する。 判定フラグ格納フレームメモリ 2 0 4は、 領域特定部 1 0 3が 1つのフレーム について領域の判定を終了したとき、 フレーム #n- 1を初期化する。
すなわち、 領域特定部 1 0 3が 1つのフレームについて領域の判定を開始する とき、 判定フラグ格納フレームメモリ 2 0 4が記憶するフレーム ttn- 1は、 フラ グが設定されていない。
領域特定部 1 0 3が 1つのフレームについて領域の判定を開始するとき、 判定 フラグ格納フレームメモリ 2 0 4が記憶するフレーム #ιιは、 アンカバードバッ クグラウンド領域を示すフラグが設定されている。
領域特定部 1 0 3が 1つのフレームについて領域の判定を開始するとき、 判定 フラグ格納フレームメモリ 2 0 4が記憶するフレーム #n+lは、 アンカバードバ ックグラウンド領域を示すフラグ、 静止領域を示すフラグ、 および動き領域を示 すフラグが設定されている。
従って、 領域判定部 2 0 3は、 判定フラグ格納フレームメモリ 2 0 4が記憶し ている、 アンカバードバックグラウンド領域を示すフラグが設定されている、 フ レーム #nに、 静止領域または動き領域を示すフラグを設定する。
領域判定部 2 0 3は、 フレーム t の対応するァドレスにアンカバードバック グラウンド領域を示すフラグまたはカバードバックグラウンド領域を示すフラグ が既に設定されているとき、 動き領域を示すフラグを設定しない。
領域判定部 2 0 3は、 判定フラグ格納フレームメモリ 2 0 4が記憶している、 アンカバードバックグラウンド領域を示すフラグ、 静止領域を示すフラグ、 およ び動き領域を示すフラグが設定されている、 フレーム #n+lに、 カバードバック グラウンド領域を示すフラグを設定する。
次に、 領域特定部 1 0 3の処理の例を図 2 1乃至図 2 5を参照して説明する。 前景に対応するオブジェクトが移動しているとき、 オブジェクトに対応する画 像の画面上の位置は、 フレーム毎に変化する。 図 2 1に示すように、 フレーム
#nにおいて、 Yn (x,y)で示される位置に位置するォブジェクトに対応する画像は、 次のフレームであるフレーム #n+lにおいて、 Yn+l (x,y)に位置する。 前景のオブジェクトに対応する画像の動き方向に隣接して 1列に並ぶ画素の画 素値を時間方向に展開したモデル図を図 2 2に示す。 例えば、 前景のオブジェク トに対応する画像の動き方向が画面に対して水平であるとき、 図 2 2におけるモ デル図は、 1つのライン上の隣接する画素の画素値を時間方向に展開したモデル を示す。
図 2 2において、 フレーム #nにおけるラインは、 フレーム ίίη+lにおけるライ ンと同一である。
フレーム #ηにおいて、 左から 2番目の画素乃至 1 3番目の画素に含まれてい るオブジェクトに対応する前景の成分は、 フレーム #η+1において、 左から 6番 目乃至 1 7番目の画素に含まれる。
フレーム #ηにおいて、 カバードパックグラウンド領域に属する画素は、 左か ら 1 1番目乃至 1 3番目の画素であり、 アンカバードバックグラウンド領域に属 する画素は、 左から 2番目乃至 4番目の画素である。 フレーム #η+1において、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番目の 画素であり、 アンカバードバックグラウンド領域に属する画素は、 左から 6番目 乃至 8番目の画素である。
図 2 2に示す例において、 フレーム #ηに含まれる前景の成分が、 フレーム
#η+1 において 4画素移動しているので、 動き量 V は、 4である。 仮想分割数は、 動き量 Vに対応し、 4である。
次に、 注目しているフレームの前後における混合領域に属する画素の画素値の 変化について説明する。
図 2 3に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム #η+1にお いて、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7 番目の画素である。 動き量 Vが 4であるので、 1つ前のフレーム #ηにおいて、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分のみを含み、 背景領域に属す る。 また、 更に 1つ前のフレーム to - 1において、 左から 1 5番目乃至 1 7番目 の画素は、 背景の成分のみを含み、 背景領域に属する。 ここで、 背景に対応するオブジェクトが静止しているので、 フレーム #nの左 から 1 5番目の画素の画素値は、 フレーム #n - 1の左から 1 5番目の画素の画素 値から変化しない。 同様に、 フレーム #nの左から 1 6番目の画素の画素値は、 フレーム #n_lの左から 1 6番目の画素の画素値から変化せず、 フレーム の左 から 1 7番目の画素の画素値は、 フレーム #n- 1の左から 1 7番目の画素の画素 値から変化しない。
すなわち、 フレーム #n+lにおけるカバードバックグラウンド領域に属する画 素に対応する、 フレーム #nおよびフレーム #n- 1の画素は、 背景の成分のみから 成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従って、 フレーム #n+l におけるカバードバックグラウンド領域に属する画素に対応する、 フレーム #ηおよびフレーム fo-1の画素に対する静動判定は、 静動判定部 2 0 2 一 1により、 静止と判定される。
フレーム #n+lにおけるカバードバックグラウンド領域に属する画素は、 前景 の成分を含むので、 フレーム #nにおける背景の成分のみから成る場合と、 画素 値が異.なる。 従って、 フレーム #η+1における混合領域に属する画素、 および対 応するフレーム #ηの画素に対する静動判定は、 静動判定部 2 0 2— 2により、 動きと判定される。
このように、 領域判定部 2 0 3は、 静動判定部 2 0 2— 2から動きを示す静動 判定の結果が供給され、 静動判定部 2 0 2 - 1から静止を示す静動判定の結果が 供給されたとき、 フレーム #η+1の対応する画素がカバードバックグラウンド領 域に属すると判定する。
図 2 4に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム #η-1にお いて、 アンカバードバックグラウンド領域に含まれる画素は、 左から 2番目乃至 4番目の画素である。 動き量 V が 4であるので、 1つ後のフレーム #η において、 左から 2番目乃至 4番目の画素は、 背景の成分のみを含み、 背景領域に属する。 また、 更に 1つ後のフレーム #η+1 において、 左から 2番目乃至 4番目の画素は、 背景の成分のみを含み、 背景領域に属する。 ここで、 背景に対応するオブジェクトが静止しているので、 フレーム #n+lの 左から 2番目の画素の画素値は、 フレーム の左から 2番目の画素の画素値か ら変化しない。 同様に、 フレーム #n+lの左から 3番目の画素の画素値は、 フレ 一ム#11の左から 3番目の画素の画素値から変化せず、 フレーム ίίη+lの左から 4 番目の画素の画素値は、 フレーム #ηの左から 4番目の画素の画素値から変化し ない。
すなわち、 フレーム #η-1におけるアンカバードパックグラウンド領域に属す る画素に対応する、 フレーム #ηおよびフレーム #η+1の画素は、 背景の成分のみ から成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従 つて、 フレーム #ηにおけるアンカバードバックグラウンド領域に属する画素に 対応する、 フレーム およびフレーム #η+1の画素に対する静動判定は、 静動判 定部 2 0 2— 2により、 静止と判定される。
フレーム #η- 1におけるアンカバードバックグラウンド領域に属する画素は、 前景の成分を含むので、 フレーム #ηにおける背景の成分のみから成る場合と、 画素値が異なる。 従って、 フレーム to- 1における混合領域に属する画素、 およ び対応するフレーム toの画素に対する静動判定は、 静動判定部 2 0 2— 1によ り、 動きと判定される。
このように、 領域判定部 2 0 3は、 静動判定部 2 0 2— 1から動きを示す静動 判定の結果が供給され、 静動判定部 2 0 2— 2から静止を示す静動判定の結果が 供給されたとき、 フレーム林 n - 1の対応する画素がアンカバードバックグラウン ド領域に属すると判定する。
図 2 5は、 領域特定部 1 0 3の判定条件を示す図である。 フレーム #n+lの判 定の対象となる画素の画像上の位置と同一の位置にあるフレーム to - 1 の画素と フレーム #n+lの判定の対象となる画素の画像上の位置と同一の位置にあるフレ ーム #nの画素とが静止と判定され、 フレーム #n+lの判定の対象となる画素の画 像上の位置と同一の位置にあるフレーム #nの画素と、 フレーム #n+lの画素とが 動きと判定されたとき、 領域特定部 1 0 3は、 フレーム #n+lの判定の対象とな る画素がカバードバックグラウンド領域に属すると判定する。
フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフレ 一ム#11- 1の画素と、 フレーム #nの画素とが静止と判定され、 フレーム #nの画素 と、 フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム #n+ lの画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判定の対象となる画素が静止領域に属すると判定する。
フレーム の判定の対象となる画素の画像上の位置と同一の位置にあるフレ ーム #n - 1の画素と、 フレーム #nの画素とが動きと判定され、 フレーム #nの画素 と、 フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム to+ 1の画素とが動きと判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判定の対象となる画素が動き領域に属すると判定する。
フレーム #n - 1の画素と、 フレーム #n-lの判定の対象となる画素の画像上の位 置と同一の位置にあるフレーム #nの画素とが動きと判定され、 フレーム #n - 1の 判定の対象となる画素の画像上の位置と同一の位置にあるフレーム #n の画素と フレーム #n-lの判定の対象となる画素の画像上の位置と同一の位置にあるフレ ーム #n+ lの画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フレーム to- 1の判定の対象となる画素がアンカバードバックグラウンド領域に属すると判定 する。
このように、 領域特定部 1 0 3は、 前景領域、 背景領域、 カバードバックダラ ゥンド領域、 およびアンカバ一ドバックグラウンド領域を特定する。 領域特定部 1 0 3は、 1つのフレームについて、 前景領域、 背景領域、 カバ一ドバックグラ ゥンド領域、 およびアンカパードパックグラウンド領域を特定するために、 3フ レームに対応する時間を必要とする。
図 2 6は、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 2 6 に示す結果に対応する入力画像において、 前景のオブジェクトは、 図面の左側か ら右側に向かって、 移動している。
前景のオブジェクトの進行方向側 (図中の右側) において、 カバードバックグ ラウンド領域が判定され、 前景のオブジェクトの進行方向の反対側 (図中の左 側) において、 アンカバードバックグラウンド領域が判定されていることがわか る。
図 2 7は、 図 2 6の判定結果のうち、 前景のオブジェクトの左上側に対応する 部分を拡大して示す図である。 '
前景のオブジェク トが図中の右側に向かって移動しているので、 図中において Aで示すカバードバックグラウンド領域は、 図中において Bで示す前景領域の右 側に位置し、 図中において Cで示すアンカバードバックグラウンド領域は、 前景 領域の左側に位置することがわかる。 図 2 7において、 Dは、 背景領域を示す。 次に、 図 2 8および図 2 9のフローチャートを参照して、 領域特定部 1 ◦ 3の 領域特定の処理を説明する。 ステップ S 2 0 1において、 フレームメモリ 2 0 1 は、 判定の対象となるフレーム #n - 1乃至フレーム #n+lの画像を取得する。
ステップ S 2 0 2において、 静動判定部 2 0 2— 1は、 フレーム #n- 1の画素 とフレーム #nの同一位置の画素とで、 静止か否かを判定し、 静止と判定された 場合、 ステップ S 2 0 3に進み、 静動判定部 2 0 2— 2は、 フレーム #nの画素 とフレーム #n+lの同一位置の画素とで、 静止か否かを判定する。
ステップ S 2 0 3において、 フレーム #nの画素とフレーム #η+1の同一位置の 画素とで、 静止と判定された場合、 ステップ S 2 0 4に進み、 領域判定部 2 0 3 は、 判定フラグ格納フレームメモリ 2 0 4に記憶されているフレーム #ηの対応 するアドレスに、 静止領域に属することを示す" 0 0 " を設定し、 手続きは、 ス テツプ S 2 0 5に進む。
ステップ S 2 0 2において、 フレーム #η- 1の画素とフレーム の同一位置の 画素とで、 動きと判定された場合、 または、 ステップ S 2 0 3において、 フレー ム #ηの画素とフレーム #η+1の同一位置の画素とで、 動きと判定された場合、 フ レーム #ηの画素が静止領域には属さないので、 ステップ S 2 0 4の処理はスキ ップされ、 手続きは、 ステップ S 2 0 5に進む。
ステップ S 2 0 5において、 静動判定部 2 0 2— 1は、 フレーム #η- 1の画素 とフレーム #nの同一位置の画素とで、 動きか否かを判定し、 動きと判定された 場合、 ステップ S 2 0 6に進み、 静動判定部 2 0 2— 2は、 フレーム toの画素 とフレーム #n+lの同一位置の画素とで、 動きか否かを判定する。
ステップ S 2 0 6において、 フレーム #nの画素とフレーム #n+lの同一位置の 画素とで、 動きと判定された場合、 ステップ S 2 0 7に進み、 領域判定部 2 0 3 は、 判定フラグ格納フレームメモリ 2 0 4に記憶されているフレーム #nのフラ グを基に、 対応する画素が、 既に、 アンカバードバックグラウンド領域であると 判定されているか否かを判定し、 対応する画素が、 既に、 アンカバードバックグ ラウンド領域であると判定されていないと判定された場合、 ステップ S 2 0 8に 進む。
ステップ S 2 0 8において、 領域判定部 2 0 3は、 判定フラグ格納フレームメ モリ 2 0 4に記憶されているフレーム #nの対応するァドレスに、 動き領域に属 することを示す" 1 1 " を設定し、 手続きは、 ステップ S 2 0 9に進む。
ステップ S 2 0 5において、 フレーム #n- 1の画素とフレーム #nの同一位置の 画素とで、 静止と判定された場合、 ステップ S 2 0 6において、 フレームでの 画素とフレーム の同一位置の画素とで、 静止と判定された場合、 または、 ステップ S 2 0 7において、 対応する画素が、 既に、 アンカバードバックグラウ ンド領域であると判定されていると判定された場合、 フレーム の画素が動き 領域には属さないので、 ステップ S 2 0 8の処理はスキップされ、 手続きは、 ス テツプ S 2 0 9に進む。
ステップ S 2 0 9において、 静動判定部 2 0 2— 1は、 フレーム #n- 1の画素 とフレーム #nの同一位置の画素とで、 静止か否かを判定し、 静止と判定された 場合、 ステップ S 2 1 0に進み、 静動判定部 2 0 2— 2は、 フレーム #nの画素 とフレーム #n+lの同一位置の画素とで、 動きか否かを判定する。
ステップ S 2 1 0において、 フレーム #nの画素とフレーム の同一位置の 画素とで、 動きと判定された場合、 ステップ S 2 1 1に進み、 領域判定部 2 0 3 は、 判定フラグ格納フレームメモリ 2 0 4に記憶されているフレーム #η+1の対 応するアドレスに、 カバードバックグラウンド領域に属することを示す" 1 0 " を設定し、 手続きは、 ステップ S 2 1 2に進む。
ステップ S 2 0 9において、 フレーム #n- 1の画素とフレーム #nの同一位置の 画素とで、 動きと判定された場合、 または、 ステップ S 2 1 0において、 フレー ム #nの画素とフレーム #n+lの同一位置の画素とで、 静止と判定された場合、 フ レーム #n+lの画素がカバードバックグラウンド領域には属さないので、 ステツ プ S 2 1 1の処理はスキップされ、 手続きは、 ステップ S 2 1 2に進む。
ステップ S 2 1 2において、 静動判定部 2 0 2— 1は、 フレーム #n_lの画素 とフレーム #nの同一位置の画素とで、 動きか否かを判定し、 動きと判定された 場合、 ステップ S 2 1 3に進み、 静動判定部 2 0 2— 2は、 フレーム #nの画素 とフレーム #n+lの同一位置の画素とで、 静止か否かを判定する。
ステップ S 2 1 3において、 フレーム ίίηの画素とフレーム #η+1の同一位置の 画素とで、 静止と判定された場合、 ステップ S 2 1 4に進み、 領域判定部 2 0 3 は、 判定フラグ格納フレームメモリ 2◦ 4に記憶されているフレーム #η - 1の対 応するアドレスに、 アンカバードバックグラウンド領域に属することを示す" 0 1 " を設定し、 手続きは、 ステップ S 2 1 5に進む。
ステップ S 2 1 2において、 フレーム #η_1の画素とフレーム の同一位置の 画素とで、 静止と判定された場合、 または、 ステップ S 2 1 3において、 フレー ム の画素とフレーム #η+1の同一位置の画素とで、 動きと判定された場合、 フ レーム #η-1の画素がアンカバードバックグラウンド領域には属さないので、 ス テツプ S 2 1 4の処理はスキップされ、 手続きは、 ステップ S 2 1 5に進む。 ステップ S 2 1 5において、 領域特定部 1 0 3は、 全ての画素について領域を 特定したか否かを判定し、 全ての画素について領域を特定していないと判定され た場合、 手続きは、 ステップ S 2 0 2に戻り、 他の画素について、 領域特定の処 理を繰り返す。
ステップ S 2 1 5において、 全ての画素について領域を特定したと判定された 場合、 ステップ S 2 1 6に進み、 判定フラグ格納フレームメモリ 2 0 4は、 前景 領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバックグ ラウンド領塽を示す、 フレーム のフラグを領域情報として出力する。
ステップ S 2 1 7において、 判定フラグ格納フレームメモリ 2 0 4は、 フレー ム #nのフラグをフレーム #n+lに移動する。
ステップ S 2 1 8において、 判定フラグ格納フレームメモリ 2 0 4は、 フレー ム #n-lのフラグをフレーム #nに移動する。
ステップ S 2 1 9において、 判定フラグ格納フレームメモリ 2 0 4は、 フレー ム to- 1を初期化して、 処理は終了する。
このように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれぞれに ついて、 動き領域、 静止領域、 アンカバードバックグラウンド領域、 またはカバ 一ドバックグラウンド領域に属することを示す領域情報を生成することができる, なお、 領域特定部 1 0 3は、 ァンカバードバックグラウンド領域および力バー ドバックグラウンド領域に対応する領域情報に論理和を適用することにより、 混 合領域に対応する領域情報を生成して、 フレームに含まれている画素のそれぞれ について、 動き領域、 静止領域、 または混合領域に属することを示すフラグから 成る領域情報を生成するようにしてもよい。
前景に対応するォブジェクトがテクスチャを有す場合、 領域特定部 1 0 3は、 より正確に動き領域を特定することができる。
領域特定部 1 0 3は、 動き領域を示す領域情報を前景領域を示す領域情報とし て、 また、 静止領域を示す領域情報を背景領域を示す領域情報として出力するこ とができる。
以上のように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれぞれ について、 動き領域、 静止領域、 アンカバードパックグラウンド領域、 または力 バードバックグラウンド領域に属することを示す領域情報を生成することができ る。 領域特定部 1 0 3は、 比較的少ないメモリ空間で、 領域情報を生成すること ができる。
図 3 0は、 混合比算出部 1 0 4の構成の一例を示すブロック図である。 推定混 合比処理部 4 0 1は、 入力画像を基に、 カバードバックグラウンド領域のモデル に対応ずる演算により、 画素毎に推定混合比を算出して、 算出した推定混合比を 混合比決定部 4 0 3に供給する。
推定混合比処理部 4 0 2は、 入力画像を基に、 ァンカバードパックダラゥンド 領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した 推定混合比を混合比決定部 4 0 3に供給する。
前景に対応するオブジェクトがシャツタ時間内に等速で動いていると仮定でき るので、 混合領域に属する画素の混合比 Qf は、 以下の性質を有する。 すなわち、 混合比 は、 画素の位置の変化に対応して、 直線的に変化する。 画素の位置の 変化を 1次元とすれば、 混合比 の変化は、 直線で表現することができ、 画素 の位置の変化を 2次元とすれば、 混合比 αの変化は、 平面で表現することがで きる。
なお、 1フレームの期間は短いので、 前景に対応するオブジェクトが剛体であ り、 等速で移動していると仮定が成り立つ。
この場合、 混合比 の傾きは、 前景のシャツタ時間内での動き量 Vの逆比と なる。
理想的な混合比 の例を図 3 1に示す。 理想的な混合比 の混合領域におけ る傾き 1は、 動き量 Vの逆数として表すことができる。
図 3 1に示すように、 理想的な混合比 は、 背景領域において、 1の値を有 し、 前景領域において、 0の値を有し、 混合領域において、 0を越え 1未満の値 を有する。
図 3 2の例において、 フレーム #ηの左から 7番目の画素の画素値 C06は、 フ レーム #η - 1の左から 7番目の画素の画素値 Ρ06を用いて、 式 (4 ) で表すこと ができる。
C06 = B06/v + B06/V + FOllv + F02/v
= P06lv + P06/V + FOllv + F02/v
= 2/vP06 +∑Filv (4) 式 (4 ) において、 画素値 C06を混合領域の画素の画素値 Mと、 画素値 P06 を背景領域の画素の画素値 Bと表現する。 すなわち、 混合領域の画素の画素値 M および背景領域の画素の画素値 Bは、 それぞれ、 式 (5 ) および式 (6 ) のよ うに表現することができる。
M=C06 ( 5 )
B=P06 ( 6 )
式 (4 ) 中の 2/vは、 混合比 に対応する。 動き量 Vが 4なので、 フレーム #nの左から 7番目の画素の混合比 は、 0. 5となる。
以上のように、 注目しているフレーム #nの画素値 Cを混合領域の画素値と見 なし、 フレーム #nの前のフレーム #n_lの画素値 Pを背景領域の画素値と見なす ことで、 混合比 を示す式 (3 ) は、 式 (7 ) のように書き換えられる。
C= - P+f ( 7 )
式 (7 ) の f は、 注目している画素に含まれる前景の成分の和 ∑iFi/vである。 式 (7 ) に含まれる変数は、 混合比 および前景の成分の和 f の 2つである。 同様に、 アンカバードバックグラウンド領域における、 動き量 V が 4であり 時間方向の仮想分割数が 4である、 画素値を時間方向に展開したモデルを図 3 3 に示す。
アンカバードバックグラウンド領域において、 上述したカバードバックグラウ ンド領域における表現と同様に、 注目しているフレーム #nの画素値 Cを混合領 域の画素値と見なし、 フレーム の後のフレーム ίίη+lの画素値 Nを背景領域の 画素値と見なすことで、 混合比 を示す式 (3 ) は、 式 (8 ) のように表現す ることができる。
C= a - N+f ( 8 )
なお、 背景のオブジェク トが静止しているとして説明したが、 背景のオブジェ タトが動いている場合においても、 背景の動き量 Vに対応させた位置の画素の 画素値を利用することにより、 式 (4 ) 乃至式 (8 ) を適用することができる。 例えば、 図 3 2において、 背景に対応するォブジェクトの動き量 V が 2であり 仮想分割数が 2であるとき、 背景に対応するオブジェクトが図中の右側に動いて いるとき、 式 (6) における背景領域の画素の画素値 Bは、 画素値 P04とされ る。
式 (7) およぴ式 (8) は、 それぞれ 2つの変数を含むので、 そのままでは混 合比 を求めることができない。 ここで、 画像は一般的に空間的に相関が強い ので近接する画素同士でほぼ同じ画素値となる。
そこで、 前景成分は、 空間的に相関が強いので、 前景の成分の和 f を前また は後のフレームから導き出せるように式を変形して、 混合比ひを求める。
図 34のフレーム #nの左から 7番目の画素の画素値 Mcは、 式 (9) で表すこ とができる。
Mc= -'B06 + Filv (9)
V i= 式 (9) の右辺第 1項の 2/vは、 混合比 に相当する。 式 (9) の右辺第 2 項は、 後のフレーム #n+lの画素値を利用して、 式 (10) のように表すことと する。
Figure imgf000051_0001
ここで、 前景の成分の空間相関を利用して、 式 (1 1) が成立するとする。
F=F05=F06=F07=F08=F09=F10=F11=F12 (1 1) 式 (10) は、 式 (1 1) を利用して、 式 (1 2) のように置き換えることがで きる。
12
∑ Filv = ^ F
1-11
=β· . F (I 結果として、 は、 式 (1 3) で表すことができる。
β =2/4 (1 3)
一般的に、 式 (1 1) に示すように混合領域に関係する前景の成分が等しいと 仮定すると、 混合領域の全ての画素について、 内分比の関係から式 (14) が成 立する。
β=ΐ-α (14)
式 (14) が成立するとすれば、 式 (7) は、 式 (1 5) に示すように展開す ることができる。
C = -P+f
Figure imgf000052_0001
= α·Ρ + (ΐ-α)·Ν (is) 同様に、 式 (14) が成立するとすれば、 式 (8) は、 式 (1 6) に示すよう に展開することができる。
C = -N+f
Figure imgf000052_0002
= -N+(l- )-p (16) 式 (1 5) および式 (1 6) において、 C, N、 および Pは、 既知の画素値な ので、 式 (1 5) および式 (1 6) に含まれる変数は、 混合比 のみである。 式 ( 1 5) および式 (1 6) における、 C, N、 および P の関係を図 3 5に示す c Cは、 混合比 を算出する、 フレーム #nの注目している画素の画素値である。 Nは、 注目している画素と空間方向の位置が対応する、 フレーム #n+lの画素の 画素値である。 Pは、 注目している画素と空間方向の位置が対応する、 フレーム #n - 1の画素の画素値である。
従って、 式 (1 5) およぴ式 (1 6) のそれぞれに 1つの変数が含まれること となるので、 3つのフレームの画素の画素値を利用して、 混合比 を算出する ことができる。 式 (1 5) および式 (1 6) を解くことにより、 正しい混合比 Qf が算出されるための条件は、 混合領域に関係する前景の成分が等しい、 すな わち、 前景のォブジェクトが静止しているとき撮像された前景の画像オブジェク トにおいて、 前景のオブジェクトの動きの方向に対応する、 画像オブジェク トの 境界に位置する画素であって、 動き量 Vの 2倍の数の連続している画素の画素 値が、 一定であることである。
以上のように、 カバードバックグラウンド領域に属する画素の混合比 は、 式 (1 7 ) により算出され、 アンカバードバックグラウンド領域に属する画素の 混合比 は、 式 (1 8 ) により算出される。
a = (C-N) / (P-N) ( 1 7 )
= (C—P) / (N—P) ( 1 8 )
図 3 6は、 推定混合比処理部 4 0 1の構成を示すブロック図である。 フレーム メモリ 4 2 1は、 入力された画像をフレーム単位で記憶し、 入力画像として入力 されているフレームから 1つ後のフレームをフレームメモリ 4 2 2および混合比 演算部 4 2 3に供給する。
フレームメモリ 4 2 2は、 入力された画像をフレーム単位で記憶し、 フレーム メモリ 4 2 1から供給されているフレームから 1つ後のフレームを混合比演算部 4 2 3に供給する。
従って、 入力画像としてフレーム #η+1が混合比演算部 4 2 3に入力されてい るとき、 フレームメモリ 4 2 1は、 フレーム to を混合比演算部 4 2 3に供給し、 フレームメモリ 4 2 2は、 フレーム #n-lを混合比演算部 4 2 3に供給する。
混合比演算部 4 2 3は、 式 (1 7 ) に示す演算により、 フレーム #nの注目し ている画素の画素値 C、 注目している画素と空間的位置が対応する、 フレーム #n+lの画素の画素値 N、 および注目している画素と空間的位置が対応する、 フ レーム #n - 1の画素の画素値 Pを基に、 注目している画素の推定混合比を算出し て、 算出した推定混合比を出力する。 例えば、 背景が静止しているとき、 混合比 演算部 4 2 3は、 フレーム #nの注目している画素の画素値 C、 注目している画 素とフレーム内の位置が同じ、 フレーム #n+lの画素の画素値 N、 および注目し ている画素とフレーム内の位置が同じ、 フレーム #n- 1 の画素の画素値 P を基に、 注目している画素の推定混合比を算出して、 算出した推定混合比を出力する。 このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を算出 して、 混合比決定部 4 0 3に供給することができる。
なお、 推定混合比処理部 4 0 2は、 推定混合比処理部 4 0 1が式 (1 7 ) に示 す演算により、 注目している画素の推定混合比を算出するのに対して、 式 (1 8 ) に示す演算により、 注目している画素の推定混合比を算出する部分が異なる ことを除き、 推定混合比処理部 4 0 1と同様なので、 その説明は省略する。
図 3 7は、 推定混合比処理部 4 0 1により算出された推定混合比の例を示す図 である。 図 3 7に示す推定混合比は、 等速で動いているオブジェクトに対応する 前景の動き量 V が 1 1である場合の結果を、 1ラインに対して示すものである, 推定混合比は、 混合領域において、 図 3 1に示すように、 ほぼ直線的に変化し ていることがわかる。
図 3 0に戻り、 混合比決定部 4 0 3は、 領域特定部 1 0 3から供給された、 混 合比 の算出の対象となる画素が、 前景領域、 背景領域、 カバードバックグラ ゥンド領域、 またはアンカバードバックグラウンド領域のいずれかに属するかを 示す領域情報を基に、 混合比ひを設定する。 混合比決定部 4 0 3は、 対象とな る画素が前景領域に属する場合、 0を混合比 に設定し、 対象となる画素が背 景領域に属する場合、 1を混合比 に設定し、 対象となる画素がカバードパッ クグラウンド領域に属する場合、 推定混合比処理部 4 0 1から供給された推定混 合比を混合比 に設定し、 対象となる画素がアンカバードバックグラウンド領 域に属する場合、 推定混合比処理部 4 0 2から供給された推定混合比を混合比 aに設定する。 混合比決定部 4 0 3は、 領域情報を基に設定した混合比ひ を出 力する。
図 3 8は、 混合比算出部 1 0 4の他の構成を示すブロック図である。 選択部 4 4 1は、 領域特定部 1 0 3から供給された領域情報を基に、 カバードバックグラ ゥンド領域に属する画素および、 これに対応する前おょぴ後のフレームの画素を 推定混合比処理部 4 4 2に供給する。 選択部 4 4 1は、 領域特定部 1 0 3から供 給された領域情報を基に、 アンカバードバックグラウンド領域に属する画素およ び、 これに対応する前および後のフレームの画素を推定混合比処理部 4 4 3に供 給する。
推定混合比処理部 4 4 2は、 選択部 4 4 1から入力された画素値を基に、 式
( 1 7 ) に示す演算により、 カバードバックグラウンド領域に属する、 注目して いる画素の推定混合比を算出して、 算出した推定混合比を選択部 4 4 4に供給す る。
推定混合比処理部 4 4 3は、 選択部 4 4 1から入力された画素値を基に、 式
( 1 8 ) に示す演算により、 アンカパードバックグラウンド領域に属する、 注目 している画素の推定混合比を算出して、 算出した推定混合比を選択部 4 4 4に供 給する。
選択部 4 4 4は、 領域特定部 1 0 3から供給された領域情報を基に、 対象とな る画素が前景領域に属する場合、 0である推定混合比を選択して、 混合比 に 設定し、 対象となる画素が背景領域に属する場合、 1である推定混合比を選択し て、 混合比 に設定する。 選択部 4 4 4は、 対象となる画素が力パードバック グラウンド領域に属する場合、 推定混合比処理部 4 4 2から供給された推定混合 比を選択して混合比 に設定し、 対象となる画素がアンカバードバックグラウ ンド領域に属する場合、 推定混合比処理部 4 4 3から供給された推定混合比を選 択して混合比 αに設定する。 選択部 4 4 4は、 領域情報を基に選択して設定し た混合比 を出力する。
このように、 図 3 8に示す他の構成を有する混合比算出部 1 0 4は、 画像の含 まれる画素毎に混合比 を算出して、 算出した混合比 を出力することができ る。
図 3 9のフローチャートを参照して、 図 3 0に構成を示す混合比算出部 1 0 4 の混合比 の算出の処理を説明する。 ステップ S 4 0 1において、 混合比算出 部 1 0 4は、 領域特定部 1 0 3から供給された領域情報を取得する。 ステップ S 4 0 2において、 推定混合比処理部 4 0 1は、 カバードバックグラウンド領域に 対応するモデルにより推定混合比の演算の処理を実行し、 算出した推定混合比を 混合比決定部 4 0 3に供給する。 混合比推定の演算の処理の詳細は、 図 4 0のフ ローチャートを参照して、 後述する。
ステップ S 4 0 3において、 推定混合比処理部 4 0 2は、 アンカバードバック グラウンド領域に対応するモデルにより推定混合比の演算の処理を実行し、 算出 した推定混合比を混合比決定部 4 0 3に供給する。
ステップ S 4 0 4において、 混合比算出部 1 0 4は、 フレーム全体について、 混合比 を推定したか否かを判定し、 フレーム全体について、 混合比 を推定 していないと判定された場合、 ステップ S 4 0 2に戻り、 次の画素について混合 比 α を推定する処理を実行する。
ステップ S 4 0 4において、 フレーム全体について、 混合比 を推定したと 判定された場合、 ステップ S 4 0 5に進み、 混合比決定部 4 0 3は、 画素が、 前 景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバック グラウンド領域のいずれかに属するかを示す、 領域特定部 1 0 3から供給された 領域情報を基に、 混合比 を設定する。 混合比決定部 4 0 3は、 対象となる画 素が前景領域に属する場合、 0を混合比 に設定し、 対象となる画素が背景領 域に属する場合、 1を混合比 αに設定し、 対象となる画素がカバードバックグ ラウンド領域に属する場合、 推定混合比処理部 4 0 1から供給された推定混合比 を混合比 に設定し、 対象となる画素がアンカバードバックダラゥンド領域に 属する場合、 推定玲合比処理部 4 0 2から供給された推定混合比を混合比 に 設定し、 処理は終了する。
このように、 混合比算出部 1 0 4は、 領域特定部 1 0 3から供給された領域情 報、 および入力画像を基に、 各画素に対応する特徴量である混合比 を算出す ることができる。
図 3 8に構成を示す混合比算出部 1 0 4の混合比 の算出の処理は、 図 3 9 のフ口 チャートで説明した処理と同様なので、 その説明は省略する。
次に、 図 3 9のステップ S 4 0 2に対応する、 カバードバックグラウンド領域 に対応するモデルによる混合比推定の処理を図 4 0のフローチャートを参照して 説明する。
ステップ S 4 2 1において、 混合比演算部 4 2 3は、 フレームメモリ 4 2 1力、 ら、 フレーム #ηの注目画素の画素値 Cを取得する。
ステップ S 4 2 2において、 混合比演算部 4 2 3は、 フレームメモリ 4 2 2力 ら、 注目画素に対応する、 フレーム #n-lの画素の画素値 Pを取得する。
ステップ S 4 2 3において、 混合比演算部 4 2 3は、 入力画像に含まれる注目 画素に対応する、 フレーム #n+lの画素の画素値 Nを取得する。
ステップ S 4 2 4において、 混合比演算部 4 2 3は、 フレーム #nの注目画素 の画素値 (:、 フレーム #n- 1の画素の画素値 P、 およびフレーム #n+lの画素の画 素値 Nを基に、 推定混合比を演算する。
ステップ S 4 2 5において、 混合比演算部 4 2 3は、 フレーム全体について、 推定混合比を演算する処理を終了したか否かを判定し、 フレーム全体について、 推定混合比を演算する処理を終了していないと判定された場合、 ステップ S 4 2 1に戻り、 次の画素について推定混合比を算出する処理を繰り返す。
ステップ S 4 2 5において、 フレーム全体について、 推定混合比を演算する処 理を終了したと判定された場合、 処理は終了する。
このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を演算 することができる。
図 3 9のステップ S 4 0 3におけるアンカバ一ドバックグラウンド領域に対応 するモデルによる混合比推定の処理は、 アンカバードバックグラウンド領域のモ デルに対応する式を利用した、 図 4 0のフローチャートに示す処理と同様なので、 その説明は省略する。
なお、 図 3 8に示す推定混合比処理部 4 4 2および推定混合比処理部 4 4 3は、 図 4 0に示すフローチヤ一トと同様の処理を実行して推定混合比を演算するので、 その説明は省略する。
また、 背景に対応するオブジェクトが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した混合比 を求める処理を適用 することができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 推定混合比処理部 4 0 1は、 背景の動きに対応して画像全体をシフトさせ、 背景 に対応するオブジェクトが静止している場合と同様に処理する。 また、 背景領域 に対応する画像が局所毎に異なる背景の動きを含んでいるとき、 推定混合比処理 部 4 0 1は、 混合領域に属する画素に対応する画素として、 背景の動きに対応し た画素を選択して、 上述の処理を実行する。
また、 混合比算出部 1 0 4は、 全ての画素について、 カバードバックグラウン ド領域に対応するモデルによる混合比推定の処理のみを実行して、 算出された推 定混合比を混合比 として出力するようにしてもよい。 この場合において、 混 合比 は、 カバードバックグラウンド領域に属する画素について、 背景の成分 の割合を示し、 アンカバードバックグラウンド領域に属する画素について、 前景 の成分の割合を示す。 アンカバードバックグラウンド領域に属する画素について、 このように算出された混合比ひ と 1との差分の絶対値を算出して、 算出した絶 対値を混合比 に設定すれば、 画像処理装置は、 アンカバードバックグラウン ド領域に属する画素について、 背景の成分の割合を示す混合比 αを求めること ができる。
なお、 同様に、 混合比算出部 1 0 4は、 全ての画素について、 アンカバードバ ックグラウンド領域に対応するモデルによる混合比推定の処理のみを実行して、 算出された推定混合比を混合比 として出力するようにしてもよい。
次に、 混合比 αが直線的に変化する性質を利用して混合比 を算出する混合 比算出部 1 0 4について説明する。
上述したように、'式 (7 ) および式 (8 ) は、 それぞれ 2つの変数を含むので、 そのままでは混合比 を求めることができない。
そこで、 シャツタ時間内において、 前景に対応するオブジェクトが等速で動く ことによる、 画素の位置の変化に対応して、 混合比 αが直線的に変化する性質 を利用して、 空間方向に、 混合比 と前景の成分の和 f とを近似した式を立て る。 混合領域に属する画素の画素値おょぴ背景領域に属する画素の画素値の組の 複数を利用して、 混合比 と前景の成分の和 f とを近似した式を解く。
混合比 の変化を、 直線として近似すると、 混合比ひは、 式 (1 9) で表さ れる。
=il+p (1 9)
式 (1 9) において、 iは、 注目している画素の位置を 0とした空間方向のイン デッタスである。 1は、 混合比 の直線の傾きである。 pは、 混合比 の直線 の切片である共に、 注目している画素の混合比 である。 式 (1 9) において、 インデックス iは、 既知であるが、 傾き 1および切片 pは、 未知である。
インデックス i、 傾き 1、 および切片 pの関係を図 4 1に示す。 図 4 1におい て、 白丸は、 注目画素を示し、 黒丸は、 近傍画素を示す。
混合比 を式 (1 9) のように近似することにより、 複数の画素に対して複 数の異なる混合比ひは、 2つの変数で表現される。 図 4 1に示す例において、 5つの画素に対する 5つの混合比は、 2つの変数である傾き 1および切片 pに より表現される。
図 4 2に示す平面で混合比 を近似すると、 画像の水平方向および垂直方向 の 2つの方向に対応する動き V を考慮したとき、 式 (1 9) を平面に拡張して、 混合比 は、 式 (20) で表される。 図 4 2において、 白丸は、 注目画素を示 す。
=jm+kq+p (2 0)
式 (2 0) において、 jは、 注目している画素の位置を 0とした水平方向のイン デッタスであり、 kは、 垂直方向のインデックスである。 mは、 混合比 の面 の水平方向の傾きであり、 q は、 混合比 の面の垂直方向の傾きである。 p は、 混合比 の面の切片である。
例えば、 図 3 2に示すフレーム #nにおいて、 C05乃至 C07について、 それぞ れ、 式 (2 1 ) 乃至式 (2 3) が成立する。
Figure imgf000059_0001
C06= a 06 · B06/v+f06 (2 2) C07= 07'B07/v+f07 (2 3)
前景の成分が近傍で一致する、 すなわち、 F01乃至 F03が等しいとして、 F01 乃至 F03を Fcに置き換えると式 (24) が成立する。
f(x) = (l-a (X) ) · Fc (24)
式 (24) において、 Xは、 空間方向の位置を表す。
(x) を式 (2 0) で置き換えると、 式 (24) は、 式 (2 5) として表す ことができる。
f (x) = (l-(jm+kq+p)) · Fc
=j · (- ra · Fc) +k■ (- q · Fc) +((l_p) ■ Fc)
=js+kt+u (2 5)
式 (2 5) において、 (- m■ Fc) 、 (- q■ Fc) 、 および(l-p) ' Fcは、 式 (2 6) 乃至式 (2 8) に示すように置き換えられている。
s= - m · Fc (2 6)
t=-q · Fc (2 7)
u=(l-p) ■ Fc (2 8)
式 (2 5) において、 jは、 注目している画素の位置を 0とした水平方向のィ ンデックスであり、 kは、 垂直方向のインデックスである。
このように、 前景に対応するオブジェクトがシャツタ時間内において等速に移 動し、 前景に対応する成分が近傍において一定であるという仮定が成立するので、 前景の成分の和は、 式 (2 5) で近似される。
なお、 混合比 を直線で近似する場合、 前景の成分の和は、 式 (2 9) で表 すことができる。
f (x)=is+u (2 9)
式 (9) の混合比 および前景成分の和を、 式 (20) および式 (2 5) を 利用して置き換えると、 画素値 Mは、 式 (3 0) で表される。
M二 (jm+kq+p) - B+js+kt+u
=jB · m+kB ■ q+B · p+j - s+k - t+u (3 0) 式 (3 0) において、 未知の変数は、 混合比 の面の水平方向の傾き m、 混 合比 の面の垂直方向の傾き q、 混合比 の面の切片 p、 s、 t、 および uの 6 つである。
注目している画素の近傍の画素に対応させて、 式 (3 0) に示す正規方程式に. 画素値 Mまたは画素値 Bを設定し、 画素値 Mまたは画素値 Bが設定された複数 の正規方程式を最小自乗法で解いて、 混合比 を算出する。
例えば、 注目している画素の水平方向のインデックス jを 0とし、 垂直方向 のィンデッタス k を 0とし、 注目している画素の近傍の 3 X 3の画素について. 式 (3 0) に示す正規方程式に画素値 Mまたは画素値 Bを設定すると、 式 (3 1) 乃至式 (3 9) を得る。
M^.^ (-1) · B— —丄 · m+(-l) ■ B. ^■ q+B—丄,— L · p+(— 1) . s+ (一 1) - t+u (3 1) M0,-!= (0) · ■ m+ (- 1) · Bo,^ · q+B0,一丄 · ρ+(θ) · s+ (- 1) - t+u (3 2)
Figure imgf000061_0001
· ■ m+(-l) ■ B+1,_! · · p+(+l) . s+ (一 1) - t+u (3 3)
Μ_!,0=(-1) ■ B_li0■ m+(0) ■ B_li0 · q+B.li0 - p+(_l) ■ s+(0) - t+u (34) M。,。=(0) ■ B。,。■ m+(0) ■ B。,。■ q+B。,。■ p+(0) · s+(0) ■ t+u (3 5)
M+li0=(+l) · B+li0 · ra+(0) · B ,0 ■ q+B+li0 · p+(+l) ■ s+(0) - t+u (3 6)
M.li+1=(-1) · B.1;+1■ m+(+l) ■ B.li+1■ q+B_li+1 · p+ (一 1) ■ s+(+l) - t+u (3 7) M0,+1=(0) · B0,+1 ' m+(+l) ■ B0,+1■ q+B0i+1■ p+(0) ■ s+(+l) - t+u (3 8)
M+li+1= (+1) · B+1+1■ m+(+l) ■ B+li+1 · q+B+1>+1■ p+(+l) · s+(+l) - t+u (3 9) 注目している画素の水平方向のインデックス jが 0であり、 垂直方向のイン デッタス kが 0であるので、 注目している画素の混合比 は、 式 (20) より. j=0および k=0のときの値、 すなわち、 切片 pに等しい。
従って、 式 (3 1) 乃至式 (3 9) の 9つの式を基に、 最小自乗法により、 水 平方向の傾き m、 垂直方向の傾き q、 切片 p、 s、 t、 および uのそれぞれの値を 算出し、 切片 pを混合比 として出力すればよい。
次に、 最小自乗法を適用して混合比 を算出するより具体的な手順を説明す る。 ィンデックス i およびィンデックス k を 1つのィンデックス Xで表現すると インデックス i、 インデックス およびインデックス Xの関係は、 式 (40) で表される。
x=(j+l) ■ 3+(k+l) (40)
水平方向の傾き m、 垂直方向の傾き q、 切片 p、 s、 および uをそれぞれ変 数 w0, wl, w2,w3, w4、 および W5と表現し、 jB, kB,B,j,k、 および 1をそれぞれ a0,al,a2, a3, a4, および a5と表現する。 誤差 exを考慮すると、 式 (3 1) 乃 至式 (3 9) は、 式 (4 1) に書き換えることができる。
Figure imgf000062_0001
式 (4 1) において、 Xは、 0乃至 8の整数のいずれかの値である。
式 (4 1) から、 式 (4 2) を導くことができる。
5
ex = Mx-∑,av-Wy (42)
y = o ここで、 最小自乗法を適用するため、 誤差の自乗和 Eを式 (4 3) に示すよ うに定義する。
S
Ε =∑ (43)
χ = ο
誤差が最小になるためには、 誤差の自乗和 Εに対する、 変数 の偏微分が 0 になればよい。 ここで、 Vは、 0乃至 5の整数のいずれかの値である。 従って、 式 (44) を満たすように wyを求める。
Figure imgf000062_0002
式 (44) に式 (4 2) を代入すると、 式 (4 5) を得る。
S 5 S
∑ ( V ·∑ · =∑ · M (45)
x~0 y =0 x~o 式 (4 5) の vに 0乃至 5の整数のいずれか 1つを代入して得られる 6つの 式に、 例えば、 掃き出し法 (Gauss- Jordanの消去法) などを適用して、 wyを算 出する。 上述したように、 w0は水平方向の傾き mであり、 ¾rlは垂直方向の傾き qであり、 w2は切片 pであり、 w3は sであり、 w4は tであり、 w5は uである, 以上のように、 画素値 Mおよび画素値 Bを設定した式に、 最小自乗法を適用 することにより、 水平方向の傾き m、 垂直方向の傾き q、 切片 p、 s、 t、 および uを求めることができる。
式 (3 1) 乃至式 (3 9) に対応する説明において、 混合領域に含まれる画素 の画素値を Mとし、 背景領域に含まれる画素の画素値を Bとして説明したが、 注目している画素が、 カバードバックグラウンド領域に含まれる場合、 またはァ ンカバードバックグラウンド領域に含まれる場合のそれぞれに対して、 正規方程 式を立てる必要がある。
例えば、 図 3 2に示す、 フレーム #nのカバードバックグラウンド領域に含ま れる画素の混合比 を求める場合、 フレーム #nの画素の C04乃至 C08、 および フレーム #n- 1の画素の画素値 P04乃至 P08が、 正規方程式に設定される。
図 3 3に示す、 フレーム #η·のアンカバードバックグラウンド領域に含まれる 画素の混合比 を求める場合、 フレーム #ηの画素の C28乃至 C32、 およびフレ 一ム^+1の画素の画素値 N28乃至 N32が、 正規方程式に設定される。
また、 例えば、 図 4 3に示す、 力バードバックグラウンド領域に含まれる画素 の混合比ひ を算出するとき、 以下の式 (4 6) 乃至式 (54) が立てられる。 図 4 3において、 白丸は、 背景と見なす画素を示し、 黒丸は、 混合領域の画素と 見なす画素を示す。 混合比 を算出する画素の画素値は、 Mc5である。
Mcl=(-1) - Bel - m+(-l) · Bel - q+Bcl - p+(_l) - s+ (- 1) · t+u (4 6)
Mc2=(0) · Bc2 - m+ (- 1) - Bc2 - q+Bc2 · p+(0) ■ s+ (- 1) - t+u (4 7) Mc3=(+1) - Bc3 - m+ (- 1) - Bc3 - q+Bc3 - p+(+l) - s+ (- 1) - t+u (4 8)
Mc4=(-1) - Bc4 - m+(0) - Bc4 - q+Bc4 - p+ (- 1) · s+(0) - t+u (4 9)
Mc5= (0) · Bc5 · m+ (0) - Bc5 - q+Bc5 · p+ (0) - s+ (0) - t+u (5 0) Mc6= (+1) - Bc6 · m+ (0) · Bc6 · q+Bc6 · p+ (+1) · s+ (0) · t+u (5 1) Mc7= (-1) - Bc7 · m+ (+1) - Bc7 - q+Bc7 · p+ (-1) ■ s+ (+1) - t+u (5 2)
Mc8= (0) ' Bc8 · m+ (+1) · Bc8 - q+Bc8 · p+ (0) · s+ (+1) - t+u (5 3) Mc9= (+1) · Bc9 - m+ (+1) · Bc9 · q+Bc9 - p+ (+1) · s+ (+1) - t+u (5 4) フレーム #nのカバードバックグラウンド領域に含まれる画素の混合比 を算 出するとき、 式 (4 6) 乃至式 (54) において、 フレーム #nの画素に対応す る、 フレーム #n - 1 の画素の背景領域の画素の画素値 Bel乃至 Bc9が使用される, 図 4 3に示す、 アンカバードバックグラウンド領域に含まれる画素の混合比 a を算出するとき、 以下の式 (5 5) 乃至式 (6 3) が立てられる。 混合比 を算出する画素の画素値は、 Mu5である。
Mul= (- 1) - Bui - m+(-l) · Bui - q+Bul - p+ (- 1) - s+ (- 1) - t+u (5 5)
Mu2=(0) - Bu2 - m+ (- 1) · Bu2 - q+Bu2 - p+ (0) · s+ (- 1) - t+u (5 6) Mu3=(+1) · Bu3 - m+ (- 1) - Bu3 · q+Bu3 - p+(+l) · s+(- 1) - t+u (5 7)
Mu4=(-1) · Bu4 - m+(0) · Bu4 - q+Bu4 · p+ (- 1) · s+(0) - t+u (5 8) Mu5= (0) · Bu5 · m+ (0) · Bu5 - q+Bu5 - p+ (0) - s+ (0) - t+u (5 9) Mu6= (+1) - Bu6 · m+ (0) - Bu6 · q+Bu6 · p+ (+1) · s+ (0) - t+u (6 0)
Mu7= (-1) ■ Bu7 · m+ (+1) · Bu7 · q+Bu7 ■ p+ (-1) ■ s+ (+1) - t+u (6 1)
Mu8=(0) · Bu8 - ra+(+l) - Bu8 - q+Bu8■ p+(0) ■ s+(+l) - t+u (6 2)
Mu9=(+1) - Bu9 ■ m+(+l) - Bu9 - q+Bu9 - p+(+l) - s+(+l) - t+u (6 3) フレーム #nのアンカバードバックグラウンド領域に含まれる画素の混合比 を算出するとき、 式 (5 5) 乃至式 (6 3) において、 フレーム #nの画素に対 応する、 フレーム #n+lの画素の背景領域の画素の画素値 Bui乃至 Bu9が使用さ れる。
図 44は、 推定混合比処理部 4◦ 1の構成を示すプロック図である。 推定混合 比処理部 40 1に入力された画像は、 遅延回路 5 0 1および足し込み部 5 0 2に 供給される。
遅延回路 5 0 1は、 入力画像を 1フレーム遅延させ、 足し込み部 5 0 2に供給 する。 足し込み部 5 0 2に、 入力画像としてフレーム が入力されているとき 遅延回路 5 0 1は、 フレーム #η_1を足し込み部 5 0 2に供給する。
足し込み部 5 0 2は、 混合比 を算出する画素の近傍の画素の画素値、 およ びフレーム #η - 1の画素値を、 正規方程式に設定する。 例えば、 足し込み部 5 0 2は、 式 (4 6 ) 乃至式 (5 4 ) に基づいて、 正規方程式に画素値 Mc l乃至 Mc9 および画素値 Be l乃至 Bc9を設定する。 足し込み部 5 0 2は、 画素値が設定さ れた正規方程式を演算部 5 0 3に供給する。
演算部 5 0 3は、 足し込み部 5 0 2から供給された正規方程式を掃き出し法な どにより解いて推定混合比を求め、 求められた推定混合比を出力する。
このように、 推定混合比処理部 4 0 1は、 入力画像を基に、 推定混合比を算出 して、 混合比決定部 4 0 3に供給することができる。
なお、 推定混合比処理部 4 0 2は、 推定混合比処理部 4 0 1と同様の構成を有 するので、 その説明は省略する。
図 4 5は、 推定混合比処理部 4 0 1により算出された推定混合比の例を示す図 である。 図 4 5に示す推定混合比は、 等速で動いているオブジェクトに対応する 前景の動き Vが 1 1であり、 7 X 7画素のブロックを単位として方程式を生成 して算出された結果を、 1ラインに対して示すものである。
推定混合比は、 混合領域において、 図 4 4に示すように、 ほぼ直線的に変化し ていることがわかる。
次に、 図 4 4に構成を示す推定混合比処理部 4 0 1による、 カバードバックグ ラウンド領域に対応するモデルによる混合比推定の処理を図 4 6のフローチヤ一 トを参照して説明する。
ステップ S 5 2 1において、 足し込み部 5 0 2は、 入力された画像に含まれる 画素値、 および遅延回路 5 0 1から供給される画像に含まれる画素値を、 カバー ドバックグラウンド領域のモデルに対応する正規方程式に設定する。
ステップ S 5 2 2において、 推定混合比処理部 4 0 1は、 対象となる画素につ いての設定が終了したか否かを判定し、 対象となる画素についての設定が終了し ていないと判定された場合、 ステップ S 5 2 1に戻り、 正規方程式への画素値の 設定の処理を繰り返す。
ステップ S 5 2 2において、 対象となる画素についての画素値の設定が終了し たと判定された場合、 ステップ S 5 2 3に進み、 演算部 5 0 3は、 画素値が設定 された正規方程式を基に、 推定混合比を演算して、 求められた推定混合比を出力 する。
このように、 図 4 4に構成を示す推定混合比処理部 4 0 1は、 入力画像を基に 推定混合比を演算することができる。
ァンカバードバックグラウンド領域に対応するモデルによる混合比推定の処理 は、 アンカバードバックグラウンド領域のモデルに対応する正規方程式を利用し た、 図 4 6のフローチャートに示す処理と同様なので、 その説明は省略する。 なお、 背景に対応するオブジェクトが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した混合比を求める処理を適用する ことができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 推定 混合比処理部 4 0 1は、 この動きに対応して画像全体をシフトさせ、 背景に対応 するオブジェクトが静止している場合と同様に処理する。 また、 背景領域に対応 する画像が局所毎に異なる動きを含んでいるとき、 推定混合比処理部 4 0 1は、 混合領域に属する画素に対応する画素として、 動きに対応した画素を選択して、 上述の処理を実行する。
このように、 混合比算出部 1 0 2は、 領域特定部 1 0 1から供給された領域情 報、 および入力画像を基に、 各画素に対応する特徴量である混合比 ひを算出す ることができる。
混合比 を利用することにより、 動いているオブジェクトに対応する画像に 含まれる動きボケの情報を残したままで、 画素値に含まれる前景の成分と背景の 成分とを分離することが可能になる。
また、 混合比 に基づいて画像を合成すれば、 実世界を実際に撮影し直した ような動いているォブジェクトのスピードに合わせた正しい動きボケを含む画像 を作ることが可能になる。
次に、 前景背景分離部 1 0 5について説明する。 図 4 7は、 前景背景分離部 1 0 5の構成の一例を示すブロック図である。 前景背景分離部 1 0 5に供給された 入力画像は、 分離部 6 0 1、 スィッチ 6 0 2、 およびスィッチ 6 0 4に供給され る。 カバードバックグラウンド領域を示す情報、 およびアンカバードバックグラ ゥンド領域を示す、 領域特定部 1 0 3から供給された領域情報は、 分離部 6 0 1 に供給される。 前景領域を示す領域情報は、 スィッチ 6 0 2に供給される。 背景 領域を示す領域情報は、 スィッチ 6 0 4に供給される。
混合比算出部 1 0 4から供給された混合比 は、 分離部 6 0 1に供給される ( 分離部 6 0 1は、 カバードバックグラウンド領域を示す領域情報、 アンカバー ドバックグラウンド領域を示す領域情報、 および混合比 を基に、 入力画像か ら前景の成分を分離して、 分離した前景の成分を合成部 6 0 3に供給するととも に、 入力画像から背景の成分を分離して、 分離した背景の成分を合成部 6 0 5に 供給する。
スィツチ 6 0 2は、 前景領域を示す領域情報を基に、 前景に対応する画素が入 力されたとき、 閉じられ、 入力画像に含まれる前景に対応する画素のみを合成部 6 0 3に供給する。
スィッチ 6 0 4は、 背景領域を示す領域情報を基に、 背景に対応する画素が入 力されたとき、 閉じられ、 入力画像に含まれる背景に対応する画素のみを合成部 6 0 5に供給する。
合成部 6 0 3は、 分離部 6 0 1から供給された前景に対応する成分、 スィッチ 6 0 2から供給された前景に対応する画素を基に、 前景成分画像を合成し、 合成 した前景成分画像を出力する。 前景領域と混合領域とは重複しないので、 合成部 6 0 3は、 例えば、 前景に対応する成分と、 前景に対応する画素とに論理和の演 算を適用して、 前景成分画像を合成する。
合成部 6 0 3は、 前景成分画像の合成の処理の最初に実行される初期化の処理 において、 内蔵しているフレームメモリに全ての画素値が 0である画像を格納し、 前景成分画像の合成の処理において、 前景成分画像を格納 (上書き) する。 従つ て、 合成部 6 0 3が出力する前景成分画像の内、 背景領域に対応する画素には、 画素値として 0が格納されている。
合成部 6 0 5は、 分離部 6 0 1から供給された背景に対応する成分、 スィッチ 6 0 4から供給された背景に対応する画素を基に、 背景成分画像を合成して、 合 成した背景成分画像を出力する。 背景領域と混合領域とは重複しないので、 合成 部 6 0 5は、 例えば、 背景に対応する成分と、 背景に対応する画素とに論理和の 演算を適用して、 背景成分画像を合成する。
合成部 6 0 5は、 背景成分画像の合成の処理の最初に実行される初期化の処理 において、 内蔵しているフレームメモリに全ての画素値が 0である画像を格納し、 背景成分画像の合成の処理において、 背景成分画像を格納 (上書き) する。 従つ て、 合成部 6 0 5が出力する背景成分画像の内、 前景領域に対応する画素には、 画素値として 0が格納されている。
図 4 8 Aは、 前景背景分離部 1 0 5に入力される入力画像、 並びに前景背景分 離部 1 0 5から出力される前景成分画像および背景成分画像を示す図である。 図 4 8 Bは、 前景背景分離部 1 0 5に入力される入力画像、 並びに前景背景分離部 1 0 5から出力される前景成分画像および背景成分画像のモデルを示す図である c 図 4 8 Aは、 表示される画像の模式図であり、 図 4 8 Bは、 図 4 8 Aに対応す る前景領域に属する画素、 背景領域に属する画素、 および混合領域に属する画素 を含む 1ラインの画素を時間方向に展開したモデル図を示す。
図 4 8 Aおよぴ図 4 8 Bに示すように、 前景背景分離部 1 0 5から出力される 背景成分画像は、 背景領域に属する画素、 および混合領域の画素に含まれる背景 の成分から構成される。
図 4 8 Aおよび図 4 8 Bに示すように、 前景背景分離部 1 0 5から出力される 前景成分画像は、 前景領域に属する画素、 および混合領域の画素に含まれる前景 の成分から構成される。
混合領域の画素の画素値は、 前景背景分離部 1 0 5により、 背景の成分と、 前 景の成分とに分離される。 分離された背景の成分は、 背景領域に属する画素と共 に、 背景成分画像を構成する。 分離された前景の成分は、 前景領域に属する画素 と共に、 前景成分画像を構成する。
このように、 前景成分画像は、 背景領域に対応する画素の画素値が 0とされ、 前景領域に対応する画素および混合領域に対応する画素に意味のある画素値が設 定される。 同様に、 背景成分画像は、 前景領域に対応する画素の画素値が 0とさ れ、 背景領域に対応する画素および混合領域に対応する画素に意味のある画素値 が設定される。
次に、 分離部 6 0 1が実行する、 混合領域に属する画素から前景の成分、 およ び背景の成分を分離する処理について説明する。
図 4 9は、 図中の左から右に移動するオブジェクトに対応する前景を含む、 2 つのフレームの前景の成分および背景の成分を示す画像のモデルである。 図 4 9 に示す画像のモデルにおいて、 前景の動き量 Vは 4であり、 仮想分割数は、 4 とされている。
フレーム #nにおいて、 最も左の画素、 および左から 1 4番目乃至 1 8番目の 画素は、 背景の成分のみから成り、 背景領域に属する。 フレーム #nにおいて、 左から 2番目乃至 4番目の画素は、 背景の成分および前景の成分を含み、 アンカ バードバックグラウンド領域に属する。 フレーム #nにおいて、 左から 1 1番目 乃至 1 3番目の画素は、 背景の成分および前景の成分を含み、 カバードパックグ ラウンド領域に属する。 フレーム toにおいて、 左から 5番目乃至 1 0番目の画 素は、 前景の成分のみから成り、 前景領域に属する。
フレーム #n+lにおいて、 左から 1番目乃至 5番目の画素、 および左から 1 8 番目の画素は、 背景の成分のみから成り、 背景領域に属する。 フレーム #n+lに おいて、 左から 6番目乃至 8番目の画素は、 背景の成分おょぴ前景の成分を含み、 アンカバードバックグラウンド領域に属する。 フレーム #n+lにおいて、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分および前景の成分を含み、 カバード バックグラウンド領域に属する。 フレーム #n+lにおいて、 左から 9番目乃至 1 4番目の画素は、 前景の成分のみから成り、 前景領域に属する。
図 5 0は、 カバードバックグラウンド領域に属する画素から前景の成分を分離 する処理を説明する図である。 図 5 0において、 1乃至 1 8は、 フレーム #nにおける画素のぞれぞれに対応する混合比である。 図 5 0において、 左から 1 5番目乃至 1 7番目の画素は、 カバードバックグラウンド領域に属する。
フレーム #n の左から 1 5番目の画素の画素値 C15 は、 式 (64) で表される c C15=B15/v+F09/v+F08/v+F07/v
=Qf 15-B15+F09/v+F08/v+F07/v
= Q?15-P15+F09/v+F08/v+F07/v (64)
ここで、 15 は、 フレーム #nの左から 1 5番目の画素の混合比である。 P15 は、 フレーム #n_lの左から 1 5番目の画素の画素値である。
式 (6 4) を基に、 フレーム #ηの左から 1 5番目の画素の前景の成分の和 Π5は、 式 (6 5) で表される。
fl5=F09/v+F08/v+F07/v
=C15-Qf 15-P15 (6 5)
同様に、 フレーム ¾の左から 1 6番目の画素の前景の成分の和 f 16は、 式 (6 6) で表され、 フレーム #nの左から 1 7番目の画素の前景の成分の和 Π7 は、 式 (6 7) で表される。
fl6=C16 - 16·Ρ16 (6 6)
fl7=C17—ひ 17·Ρ17 (6 7)
このように、 カバードバックグラウンド領域に属する画素の画素値 Cに含ま れる前景の成分 fcは、 式 (6 8) で計算される。
fc=C-a ·Ρ (6 8)
Ρは、 1つ前のフレームの、 対応する画素の画素値である。
図 5 1は、 アンカバードバックグラウンド領域に属する画素から前景の成分を 分離する処理を説明する図である。 図 5 1において、 1乃至 1 8は、 フレ ーム #ηにおける画素のぞれぞれに対応する混合比である。 図 5 1において、 左 から 2番目乃至 4番目の画素は、 アンカバードバックグラウンド領域に属する。 フレーム #nの左から 2番目の画素の画素値 C02は、 式 (6 9) で表される。
C02=B02/v+B02/v+B02/v+F01/v
Figure imgf000071_0001
=Of 2-N02+F01/v (6 9)
ここで、 ひ 2は、 フレーム #nの左から 2番目の画素の混合比である。 N02は、 フ レーム #n+lの左から 2番目の画素の画素値である。
式 (6 9) を基に、 フレーム #nの左から 2番目の画素の前景の成分の和 f02 は、 式 (70) で表される。 .
f02=F01/v
=C02— 2·Ν02 ( 70)
同様に、 フレーム #ηの左から 3番目の画素の前景の成分の和 f03は、 式 (7 1) で表され、 フレーム の左から 4番目の画素の前景の成分の和 f04は、 式 (7 2) で表される。
f03=C03 - 3·Ν03 (7 1)
f04=C04 - 4·謝 (7 2)
このように、 アンカバードバックグラウンド領域に属する画素の画素値 Cに 含まれる前景の成分 fuは、 式 (7 3) で計算される。
fu=C-or ·Ν (7 3)
Νは、 1つ後のフレームの、 対応する画素の画素値である。
このように、 分離部 6 0 1は、 領域情報に含まれる、 カバードバックグラウン ド領域を示す情報、 およびァンカバードバックグラウンド領域を示す情報、 並ぴ に画素毎の混合比 を基に、 混合領域に属する画素から前景の成分、 および背 景の成分を分離することができる。
図 5 2は、 以上で説明した処理を実行する分離部 6 0 1の構成の一例を示すブ ロック図である。 分離部 6 0 1に入力された画像は、 フレームメモリ 6 2 1に供 給され、 混合比算出部 1 04から供給されたカバードバックグラウンド領域およ びァンカバードバックグラウンド領域を示す領域情報、 並びに混合比 は、 分 離処理プロック 6 2 2に入力される。
フレームメモリ 6 2 1は、 入力された画像をフレーム単位で記憶する。 フレー ムメモリ 6 2 1は、 処理の対象がフレーム #nであるとき、 フレーム #nの 1つ前 のフレームであるフレーム #n- 1、 フレーム #n、 およびフレーム #nの 1つ後のフ レームであるフレーム #n+lを記憶する。
フレームメモリ 6 2 1は、 フレーム #n- 1、 フレーム #n、 およびフレーム #n+ l の対応する画素を分離処理プロック 6 2 2に供給する。
分離処理ブロック 6 2 2は、 カバードバックグラウンド領域おょぴアンカバー ドバックグラウンド領域を示す領域情報、 並びに混合比 aを基に、 フレームメ モリ 6 2 1から供給されたフレーム #n- 1、 フレーム #n、 およびフレーム #n+lの 対応する画素の画素値に図 5 0および図 5 1を参照して説明した演算を適用して- フレーム #nの混合領域に属する画素から前景の成分および背景の成分を分離し て、 フレームメモリ 6 2 3に供給する。
分離処理プロック 6 2 2は、 ァンカバード領域処理部 6 3 1、 カバード領域処 理部 6 3 2、 合成部 6 3 3、 および合成部 6 3 4で構成されている。
アンカバード領域処理部 6 3 1の乗算器 6 4 1は、 混合比 を、 フレームメ モリ 6 2 1から供給されたフレーム #n+lの画素の画素値に乗じて、 スィッチ 6 4 2に出力する。 スィッチ 6 4 2は、 フレームメモリ 6 2 1から供給されたフレ ーム #nの画素 (フレーム #n+ lの画素に対応する) がアンカバードバックグラウ ンド領域であるとき、 閉じられ、 乗算器 6 4 1から供給された混合比 を乗じ た画素値を演算器 6 4 3および合成部 6 3 4に供給する。 スィッチ 6 4 2から出 力されるフレーム #n+ lの画素の画素値に混合比ひ を乗じた値は、 フレーム の対応する画素の画素値の背景の成分に等しい。
演算器 6 4 3は、 フレームメモリ 6 2 1から供給されたフレーム #nの画素の 画素値から、 スィッチ 6 4 2から供給された背景の成分を減じて、 前景の成分を 求める。 演算器 6 4 3は、 アンカバードバックグラウンド領域に属する、 フレー ム #nの画素の前景の成分を合成部 6 3 3に供給する。
カバード領域処理部 6 3 2の乗算器 6 5 1は、 混合比 を、 フレームメモリ 6 2 1から供給されたフレーム #n- 1の画素の画素値に乗じて、 スィツチ 6 5 2 に出力する。 スィッチ 6 5 2は、 フレームメモリ 6 2 1から供給されたフレーム #nの画素 (フレーム の画素に対応する) がカバードバックグラウンド領域 であるとき、 閉じられ、 乗算器 6 5 1から供給された混合比 を乗じた画素値 を演算器 6 5 3および合成部 6 3 4に供給する。 スィツチ 6 5 2から出力される フレーム #n - 1の画素の画素値に混合比 を乗じた値は、 フレーム #nの対応す る画素の画素値の背景の成分に等しい。
演算器 6 5 3は、 フレームメモリ 6 2 1から供給されたフレーム #nの画素の 画素値から、 スィッチ 6 5 2から供給された背景の成分を減じて、 前景の成分を 求める。 演算器 6 5 3は、 カバードバックグラウンド領域に属する、 フレーム #nの画素の前景の成分を合成部 6 3 3に供給する。
合成部 6 3 3は、 フレーム #nの、 演算器 6 4 3から供給された、 アンカバー ドバックグラウンド領域に属する画素の前景の成分、 および演算器 6 5 3から供 給された、 力パードバックグラウンド領域に属する画素の前景の成分を合成して- フレームメモリ 6 2 3に供給する。
合成部 6 3 4は、 フレームでの、 スィッチ 6 4 2から供給された、 アンカバ ードバックグラウンド領域に属する画素の背景の成分、 およびスィッチ 6 5 2か ら供給された、 カバードバックグラウンド領域に属する画素の背景の成分を合成 して、 フレームメモリ 6 2 3に供給する。
フレームメモリ 6 2 3は、 分離処理プロック 6 2 2から供給された、 フレーム #nの混合領域の画素の前景の成分と、 背景の成分とをそれぞれに記憶する。
フレームメモリ 6 2 3は、 記憶しているフレーム #nの混合領域の画素の前景 の成分、 および記憶しているフレーム の混合領域の画素の背景の成分を出力 する。
特徴量である混合比 を利用することにより、 画素値に含まれる前景の成分 と背景の成分とを完全に分離することが可能になる。
合成部 6 0 3は、 分離部 6 0 1から出力された、 フレーム #nの混合領域の画 素の前景の成分と、 前景領域に属する画素とを合成して前景成分画像を生成する c 合成部 6 0 5は、 分離部 6 0 1から出力された、 フレーム #nの混合領域の画素 の背景の成分と、 背景領域に属する画素とを合成して背景成分画像を生成する。 図 5 3 Aは、 図 4 9のフレーム に対応する、 前景成分画像の例を示す。 最 も左の画素、 および左から 1 4番目の画素は、 前景と背景が分離される前におい て、 背景の成分のみから成っていたので、 画素値が 0とされる。
左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 ァ ンカバードバックグラウンド領域に属し、 背景の成分が 0とされ、 前景の成分が そのまま残されている。 左から 1 1番目乃至 1 3番目の画素は、 前景と背景とが 分離される前において、 カバードバックグラウンド領域に属し、 背景の成分が 0 とされ、 前景の成分がそのまま残されている。 左から 5番目乃至 1 0番目の画素 は、 前景の成分のみから成るので、 そのまま残される。
図 5 3 Bは、 図 4 9のフレーム に対応する、 背景成分画像の例を示す。 最 も左の画素、 および左から 1 4番目の画素は、 前景と背景とが分離される前にお いて、 背景の成分のみから成っていたので、 そのまま残される。
左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 ァ ンカバードバックグラウンド領域に属し、 前景の成分が 0とされ、 背景の成分が そのまま残されている。 左から 1 1番目乃至 1 3番目の画素は、 前景と背景とが 分離される前において、 カバードバックグラウンド領域に属し、 前景の成分が 0 とされ、 背景の成分がそのまま残されている。 左から 5番目乃至 1 0番目の画素 は、 前景と背景とが分離される前において、 前景の成分のみから成っていたので. 画素値が 0とされる。
次に、 図 5 4に示すフローチャートを参照して、 前景背景分離部 1 0 5による 前景と背景との分離の処理を説明する。 ステップ S 6 0 1において、 分離部 6 0 1のフレームメモリ 6 2 1は、 入力画像を取得し、 前景と背景との分離の対象と なるフレーム #nを、 その前のフレーム #n-lおよびその後のフレーム #n+lと共に 記憶する。
ステップ S 6 0 2において、 分離部 6 0 1の分離処理ブロック 6 2 2は、 混合 比算出部 1 0 4から供給された領域情報を取得する。 ステップ S 6 0 3において. 分離部 6 0 1の分離処理プロック 6 2 2は、 混合比算出部 1 0 4から供給された 混合比 を取得する。
ステップ S 6 0 4において、 アンカバード領域処理部 6 3 1は、 領域情報およ ぴ混合比 を基に、 フレームメモリ 6 2 1から供給された、 アンカバードバッ クグラウンド領域に属する画素の画素値から、 背景の成分を抽出する。
ステップ S 6 0 5において、 アンカバード領域処理部 6 3 1は、 領域情報およ び混合比ひを基に、 フレームメモリ 6 2 1から供給された、 アンカバードバッ クグラウンド領域に属する画素の画素値から、 前景の成分を抽出する。
ステップ S 6 0 6において、 カバード領域処理部 6 3 2は、 領域情報および混 合比 を基に、 フレームメモリ 6 2 1から供給された、 カバードバックダラゥ ンド領域に属する画素の画素値から、 背景の成分を抽出する。
ステップ S 6 0 7において、 カバード領域処理部 6 3 2は、 領域情報および混 合比 を基に、 フレームメモリ 6 2 1から供給された、 カバードバックダラゥ ンド領域に属する画素の画素値から、 前景の成分を抽出する。
ステップ S 6 0 8において、 合成部 6 3 3は、 ステップ S 6 0 5の処理で抽出 されたアンカパードバックグラウンド領域に属する画素の前景の成分と、 ステツ プ S 6 0 7の処理で抽出されたカバードバックグラウンド領域に属する画素の前 景の成分とを合成する。 合成された前景の成分は、 合成部 6 0 3に供給される。 更に、 合成部 6 0 3は、 スィッチ 6 0 2を介して供給された前景領域に属する画 素と、 分離部 6 0 1から供給された前景の成分とを合成して、 前景成分画像を生 成する。
ステップ S 6 0 9において、 合成部 6 3 4は、 ステップ S 6 0 4の処理で抽出 されたアンカバードバックグラウンド領域に属する画素の背景の成分と、 ステツ プ S 6 0 6の処理で抽出されたカバードバックグラウンド領域に属する画素の背 景の成分とを合成する。 合成された背景の成分は、 合成部 6 0 5に供給される。 更に、 合成部 6 0 5は、 スィッチ 6 0 4を介して供給された背景領域に属する画 素と、 分離部 6 0 1から供給された背景の成分とを合成して、 背景成分画像を生 成する。
ステップ S 6 1 0において、 合成部 6 0 3は、 前景成分画像を出力する。 ステ ップ S 6 1 1において、 合成部 6 0 5は、 背景成分画像を出力し、 処理は終了す る。
このように、 前景背景分離部 1 0 5は、 領域情報および混合比 orを基に、 入 力画像から前景の成分と、 背景の成分とを分離し、 前景の成分のみから成る前景 成分画像、 および背景の成分のみから成る背景成分画像を出力することができる, 次に、 前景成分画像の動きボケの量の調整について説明する。
図 5 5は、 動きボケ調整部 1 0 6の構成の一例を示すブロック図である。 動き 検出部 1 0 2から供給された動きべク トルとその位置情報は、 処理単位決定部 8 0 1、 モデル化部 8 0 2、 および演算部 8 0 5に供給される。 領域特定部 1 0 3 から供給された領域情報は、 処理単位決定部 8 0 1に供給される。 前景背景分離 部 1 0 5から供給された前景成分画像は、 足し込み部 8 0 4に供給される。
処理単位決定部 8 0 1は、 動きべクトルとその位置情報、 および領域情報を基 に、 処理単位を生成し、 生成した処理単位をモデル化部 8 0 2および足し込み部 8 0 4に供給する。
処理単位決定部 8 0 1が生成する処理単位は、 図 5 6において Aで例を示すよ うに、 前景成分画像のカバードバックグラウンド領域に対応する画素から始まり . アンカバードバックグラウンド領域に対応する画素までの動き方向に並ぶ連続す る画素、 またはアンカバードバックグラウンド領域に対応する画素から始まり、 カバードバックグラウンド領域に対応する画素までの動き方向に並ぶ連続する画 素を示す。 処理単位は、 例えば、 左上点 (処理単位で指定される画素であって、 画像上で最も左または最も上に位置する画素の位置) および右下点の 2つのデー タカ、ら成る。
モデル化部 8 0 2は、 動きべクトルおょぴ入力された処理単位を基に、 モデル 化を実行する。 より具体的には、 例えば、 モデル化部 8 0 2は、 処理単位に含ま れる画素の数、 画素値の時間方向の仮想分割数、 および画素毎の前景の成分の数 に対応する複数のモデルを予め記憶しておき、 処理単位、 および画素値の時間方 向の仮想分割数を基に、 図 5 7に示すような、 画素値と前景の成分との対応を指 定するモデルを選択する。
例えば、 処理単位に対応する画素の数が 1 2でありシャツタ時間内の動き量 V が 5であるときにおいては、 モデル化部 8 0 2は、 仮想分割数を 5とし、 最も左 に位置する画素が 1つの前景の成分を含み、 左から 2番目の画素が 2つの前景の 成分を含み、 左から 3番目の画素が 3つの前景の成分を含み、 左から 4番目の画 素が 4つの前景の成分を含み、 左から 5番目の画素が 5つの前景の成分を含み、 左から 6番目の画素が 5つの前景の成分を含み、 左から 7番目の画素が 5つの前 景の成分を含み、 左から 8番目の画素が 5つの前景の成分を含み、 左から 9番目 の画素が 4つの前景の成分を含み、 左から 1 0番目の画素が 3つの前景の成分を 含み、 左から 1 1番目の画素が 2つの前景の成分を含み、 左から 1 2番目の画素 が 1つの前景の成分を含み、 全体として 8つの前景の成分から成るモデルを選択 する。
なお、 モデル化部 8 0 2は、 予め記憶してあるモデルから選択するのではなく 動きべクトル、 および処理単位が供給されたとき、 動きべクトル、 および処理単 位を基に、 モデルを生成するようにしてもよい。
モデル化部 8 0 2は、 選択したモデルを方程式生成部 8 0 3に供給する。
方程式生成部 8 0 3は、 モデル化部 8 0 2から供給されたモデルを基に、 方程 式を生成する。 図 5 7に示す前景成分画像のモデルを参照して、 前景の成分の数 が 8であり、 処理単位に対応する画素の数が 1 2であり、 動き量 V が 5であり 仮想分割数が 5であるときの、 方程式生成部 8 0 3が生成する方程式について説 明する。 前景成分画像に含まれるシャッタ時間/ Vに対応する前景成分が FOl/v乃至 F08/vであるとき、 FOl/v乃至 F08/vと画素値 C01乃至 C12との関係は、 式 (7 4) 乃至式 (8 5) で表される。
C01=F01/v (74)
C02=F02/v+F01/v (7 5)
C03=F03/v+F02/v+F01/v (7 6)
C04=F04/v+F03/v+F02/v+F01/v . (7 7)
C05=F05/v+F04/v+F03/v+F02/v+F01/v (7 8)
C06=F06/v+F05/v+F04/v+F03/v+F02/v (7 9) C07=F07/v+F06/v+F05/v+F04/v+F03/v (8 0)
C08=F08/v+F07/v+F06/v+F05/v+F04/v (8 1)
C09=F08/v+F07/v+F06/v+F05/v (8 2)
C10=F08/v+F07/v+F06/v (8 3)
Cll=F08/v+F07/v (84) C12=F08/v (8 5) 方程式生成部 8 0 3は、 生成した方程式を変形して方程式を ¾成する。 方程式 生成部 8 0 3が生成する方程式を、 式 (8 6) 乃至式 (9 7) に示す。
C01=l ■ FOl/v+0 ■ F02/v+0 - F03/v+0 · F04/v+0■ F05/v
+0 · F06/v+0 · F07/v+0 - F08/v (8 6) C02=l · FOl/v+1 · F02/v+0 · F03/v+0 - F04/v+0■ F05/v
+0 - F06/v+0 - F07/v+0 - F08/v (8 7) C03=l - FOl/v+1 - F02/v+l ' F03/v+0■ F04/v+0 - F05/v
+0 - F06/v+0 - F07/v+0 · F08/v (8 8) C04=l ■ FOl/v+1 ■ F02/v+l - F03/v+l - F04/v+0 · F05/v
+0 · F06/v+0 - F07/v+0 - F08/v (8 9) C05=l · FOl/v+1 - F02/v+l - F03/v+l - F04/v+l · F05/v
+0 - F06/v+0 - F07/v+0 · F08/v (9 0) C06=0 - FOl/v+1 · F02/v+l - F03/v+l - F04/v+l - F05/v
+1 · F06/v+0■ F07/v+0 - F08/v (9 1) C07=0 - FOl/v+0 - F02/v+l - F03/v+l■ F04/v+l - F05/v
+1 · F06/v+l - F07/v+0 - F08/v (9 2) C08=0 - FOl/v+0 · F02/v+0 - F03/v+l · F04/v+l - F05/v
+1 · F06/v+l - F07/v+l · F08/v (9 3) C09=0 - FOl/v+0 · F02/v+0 - F03/v+0■ F04/v+l · F05/v
+1 · F06/v+l - F07/v+l - F08/v (94) C10=0 - FOl/v+0 - F02/v+0 - F03/v+0■ F04/v+0 - F05/v
+1■ F06/v+l - F07/v+l■ F08/v (9 5) CI 1=0■ FOl/v+0 - F02/v+0 - F03/v+0■ F04/v+0 - F05/v
+0■ F06/v+l - F07/v+l - F08/v (96) C12=0 - FOl/v+0 - F02/v+0 - F03/v+0■ F04/v+0 - F05/v
+0 · F06/v+0■ F07/v+l · F08/v (9 7) 式 (86) 乃至式 (9 7) は、 式 (98) として表すこともできる。
S
C =∑aij'Fi/v (98)
=01
式 (98) において、 jは、 画素の位置を示す。 この例において、 jは、 1乃 至 1 2のいずれか 1つの値を有する。 また、 iは、 前景値の位置を示す。 この例 において、 iは、 1乃至 8のいずれか 1つの値を有する。 aijは、 iおよび jの 値に対応して、 0または 1の値を有する。
誤差を考慮して表現すると、 式 (98) は、 式 (99) のように表すことがで さる。
08
Cj =∑aij-Fi/v + ej (99)
i=OJ
式 (99) において、 ejは、 注目画素 Cjに含まれる誤差である。
式 (99) は、 式 (1 00) に書き換えることができる。
Figure imgf000080_0001
ここで、 最小自乗法を適用するため、 誤差の自乗和 Eを式 (1 0 1) に示す ように定義する。
Figure imgf000080_0002
誤差が最小になるためには、 誤差の自乗和 Eに対する、 変数 Fkによる偏微分 の値が 0になればよい。 式 (1 0 2) を満たすように Fkを求める。 dE =2^∑ej- dFk 一 ^ dFk
12 08
= 2 '∑{(Cj一∑aiト FilvH—akjlv) = 0 (102) 式 (1 0 2) において、 動き量 vは固定値であるから、 式 (1 0 3) を導く ことができる。
12 08
akj · (Cj -∑aij-Fi/v) = o (io3)
J"101 i=01
式 (1 0 3) を展開して、 移項すると、 式 (1 04) を得る。
12 08 12
∑ {akj*∑aij'Fi) = v'∑ai、 Cj (i04)
j=01 i=01 j=01
式 (1 04) の kに 1乃至 8の整数のいずれか 1つを代入して得られる 8つ の式に展開する。 得られた 8つの式を、 行列により 1つの式により表すことがで きる。 この式を正規方程式と呼ぶ。
このような最小自乗法に基づく、 方程式生成部 8 0 3が生成する正規方程式の 例を式 (1 0 5) に示す。
Figure imgf000081_0001
式 (1 0 5 ) を A ' F=v ' Cと表すと、 C, A, vが既知であり、 Fは未知である。 ま た、 Α, νは、 モデル化の時点で既知だが、 Cは、 足し込み動作において画素値を . 入力することで既知となる。
最小自乗法に基づく正規方程式により前景成分を算出することにより、 画素 C に含まれている誤差を分散させることができる。
方程式生成部 8 0 3は、 このように生成された正規方程式を足し込み部 8 0 4 に供給する。
足し込み部 8 0 4は、 処理単位決定部 8 0 1から供給された処理単位を基に、 前景成分画像に含まれる画素値 Cを、 方程式生成部 8 0 3から供給された行列 の式に設定する。 足し込み部 8 0 4は、 画素値 Cを設定した行列を演算部 8 0 5に供給する。
演算部 8 0 5は、 掃き出し法 (Gauss-Jordanの消去法) などの解法に基づく 処理により、 動きボケが除去された前景成分 Fi/vを算出して、 動きボケが除去 された前景の画素値である、 0乃至 8の整数のいずれかの iに対応する Fiを算 出して、 図 5 8に例を示す、 動きボケが除去された画素値である Fiから成る、 動きボケが除去された前景成分画像を動きボケ付加部 8 0 6および選択部 8 0 7 に出力する。
なお、 図 5 8に示す動きボケが除去された前景成分画像において、 C03乃至 CIOのそれぞれに FO l乃至 F08のそれぞれが設定されているのは、 画面に対する 前景成分画像の位置を変化させないためであり、 任意の位置に対応させることが できる。 '
動きボケ付加部 8 0 6は、 動き量 Vとは異なる値の動きボケ調整量 v'、 例え ば、 動き量 Vの半分の値の動きボケ調整量 v'や、 動き量 Vと無関係の値の動き ボケ調整量 V'を与えることで、 動きボケの量を調整することができる。 例えば、 図 5 9に示すように、 動きボケ付加部 8 0 6は、 動きボケが除去された前景の画 素値 Fiを動きボケ調整量 v'で除すことにより、 前景成分 Fi/v,を算出して、 前 景成分 Fi/v の和を算出して、 動きボケの量が調整された画素値を生成する。 例 えば、 動きボケ調整量 v'が 3のとき、 画素値 C02は、 (FO l) /v'とされ、 画素 値 C03は、 (F01+F02) /ν'とされ、 画素値 C04は、 (F01+F02+F03) /ν'とされ、 画素値 C05は、 (F02+F03+F04) /ν'とされる。
動きボケ付加部 8 0 6は、 動きボケの量を調整した前景成分画像を選択部 8 0 7に供給する。
選択部 8 0 7は、 例えば使用者の選択に対応した選択信号を基に、 演算部 8 0 5から供給された動きボケが除去された前景成分画像、 および動きボケ付加部 8 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方を選 択して、 選択した前景成分画像を出力する。
このように、 動きボケ調整部 1 0 6は、 選択信号および動きボケ調整量 V を 基に、 動きボケの量を調整することができる。
また、 例えば、 図 6 0に示すように、 処理単位に対応する画素の数が 8であり、 動き量 Vが 4であるとき、 動きボケ調整部 1 0 6は、 式 (1 0 6 ) に示す行列 の式を生成する。
Figure imgf000083_0001
動きボケ調整部 1 0 6は、 このように処理単位の長さに対応した数の式を立て て、 動きボケの量が調整された画素値である Fiを算出する。 同様に、 例えば、 処理単位に含まれる画素の数が 1 0 0あるとき、 1 0 0個の画素に対応する式を 生成して、 Fiを算出する。
図 6 1は、 動きボケ調整部 1 0 6の他の構成を示す図である。 図 5 5に示す場 合と同様の部分には同一の番号を付してあり、 その説明は省略する。
選択部 8 2 1は、 選択信号を基に、 入力された動きべクトルとその位置信号を そのまま処理単位決定部 8 0 1およびモデル化部 8 0 2に供給する力、、 または動 きべクトルの大きさを動きボケ調整量 v'に置き換えて、 その大きさが動きボケ 調整量 に置き換えられた動きべクトルとその位置信号を処理単位決定部 8 0 1およびモデル化部 8 0 2に供給する。
このようにすることで、 図 6 1の動きボケ調整部 1 0 6の処理単位決定部 8 0 1乃至演算部 8 0 5は、 動き量 Vと動きボケ調整量 V との値に対応して、 動き ボケの量を調整することができる。 例えば、 動き量 Vが 5であり、 動きボケ調 整量 v'が 3であるとき、 図 6 1の動きボケ調整部 1 0 6の処理単位決定部 8 0 1乃至演算部 8 0 5は、 図 5 7に示す動き量 Vが 5である前景成分画像に対し て、 3である動きボケ調整量 v'対応する図 5 9に示すようなモデルに従って、 演算を実行し、 (動き量 V) I (動きボケ調整量 ν' ) = 5/3、 すなわちほぼ 1. 7 の動き量 Vに応じた動きボケを含む画像を算出する。 なお、 この場合、 算出さ れる画像は、 3である動き量 Vに対応した動きボケを含むのではないので、 動き ボケ付加部 8 0 6の結果とは動き量 Vと動きボケ調整量 v'の関係の意味合いが 異なる点に注意が必要である。
以上のように、 動きボケ調整部 1 0 6は、 動き量 Vおよび処理単位に対応し て、 式を生成し、 生成した式に前景成分画像の画素値を設定して、 動きボケの量 が調整された前景成分画像を算出する。
次に、 図 6 2のフローチャートを参照して、 動きボケ調整部 1 0 6による前景 成分画像に含まれる動きボケの量の調整の処理を説明する。
ステップ S 8 0 1において、 動きボケ調整部 1 0 6の処理単位決定部 8 0 1は、 動きベク トルおよび領域情報を基に、 処理単位を生成し、 生成した処理単位をモ デル化部 8 0 2に供給する。
ステップ S 8 0 2において、 動きボケ調整部 1 0 6のモデル化部 8 0 2は、 動 き量 Vおよび処理単位に対応して、 モデルの選択や生成を行う。 ステップ S 8 0 3において、 方程式生成部 8 0 3は、 選択されたモデルを基に、 正規方程式を 作成する。
ステップ S 8 0 4において、 足し込み部 8 0 4は、 作成された正規方程式に前 景成分画像の画素値を設定する。 ステップ S 8 0 5において、 足し込み部 8 0 4 は、 処理単位に対応する全ての画素の画素値の設定を行ったか否かを判定し、 処 理単位に対応する全ての画素の画素値の設定を行っていないと判定された場合、 ステップ S 8 0 4に戻り、 正規方程式への画素値の設定の処理を繰り返す。
ステップ S 8 0 5において、 処理単位の全ての画素の画素値の設定を行ったと 判定された場合、 ステップ S 8 0 6に進み、 演算部 8 0 5は、 足し込み部 8 0 4 から供給された画素値が設定された正規方程式を基に、 動きボケの量を調整した 前景の画素値を算出して、 処理は終了する。
このように、 動きボケ調整部 1 0 6は、 動きべクトルおよび領域情報を基に、 動きボケを含む前景画像から動きボケの量を調整することができる。
すなわち、 サンプルデータである画素値に含まれる動きボケの量を調整するこ とができる。
図 6 3は、 動きボケ調整部 1 0 6の構成の他の一例を示すブロック図である。 動き検出部 1 0 2から供給された動きべクトルとその位置情報は、 処理単位決定 部 9 0 1および補正部 9 0 5に供給され、 領域特定部 1 0 3から供給された領域 情報は、 処理単位決定部 9 0 1に供給される。 前景背景分離部 1 0 5から供給さ れた前景成分画像は、 演算部 9 0 4に供給される。
処理単位決定部 9 0 1は、 動きべクトルとその位置情報、 および領域情報を基 に、 処理単位を生成し、 動きベク トルと共に、 生成した処理単位をモデル化部 9 0 2に供給する。
モデル化部 9 0 2は、 動きべクトルおよび入力された処理単位を基に、 モデル 化を実行する。 より具体的には、 例えば、 モデル化部 9 0 2は、 処理単位に含ま れる画素の数、 画素値の時間方向の仮想分割数、 および画素毎の前景の成分の数 に対応する複数のモデルを予め記憶しておき、 処理単位、 および画素値の時間方 向の仮想分割数を基に、 図 6 4に示すような、 画素値と前景の成分との対応を指 定するモデルを選択する。
例えば、 処理単位に対応する画素の数が 1 2であり動き量 Vが 5であるとき においては、 モデル化部 9 0 2は、 仮想分割数を 5とし、 最も左に位置する画素 が 1つの前景の成分を含み、 左から 2番目の画素が 2つの前景の成分を含み、 左 から 3番目の画素が 3つの前景の成分を含み、 左から 4番目の画素が 4つの前景 の成分を含み、 左から 5番目の画素が 5つの前景の成分を含み、 左から 6番目の 画素が 5つの前景の成分を含み、 左から 7番目の画素が 5つの前景の成分を含み、 左から 8番目の画素が 5つの前景の成分を含み、 左から 9番目の画素が 4つの前 景の成分を含み、 左から 1 0番目の画素が 3つの前景の成分を含み、 左から 1 1 番目の画素が 2つの前景の成分を含み、 左から 1 2番目の画素が 1つの前景の成 分を含み、 全体として 8つの前景の成分から成るモデルを選択する。
なお、 モデル化部 9 0 2は、 予め記憶してあるモデルから選択するのではなく、 動きベク トル、 および処理単位が供給されたとき、 動きベク トル、 および処理単 位を基に、 モデルを生成するようにしてもよい。
方程式生成部 9 0 3は、 モデル化部 9 0 2から供給されたモデルを基に、 方程 式を生成する。
図 64乃至図 6 6に示す前景成分画像のモデルを参照して、 前景の成分の数が 8であり、 処理単位に対応する画素の数が 1 2であり、 動き量 Vが 5であると きの、 方程式生成部 9 0 3が生成する方程式の例について説明する。
前景成分画像に含まれるシャッタ時間/ Vに対応する前景成分が FOl/v乃至 F08/vであるとき、 FOl/v乃至 F08/vと画素値 C01乃至 C12との関係は、 上述し たように、 式 (74) 乃至式 (8 5) で表される。
画素値 C12および C11に注目すると、 画素値 C12は、 式 (1 0 7) に示すよ うに、 前景の成分 F08/vのみを含み、 画素値 C11は、 前景の成分 F08/vおよび 前景の成分 F07/vの積和から成る。 従って、 前景の成分 F07/vは、 式 (1 0 8) で求めることができる。
F08/v=C12 (1 0 7)
F07/v=Cll-C12 (1 0 8)
同様に、 画素値 C10乃至 C01に含まれる前景の成分を考慮すると、 前景の成 分 F06/v乃至 FOl/vは、 式 (1 0 9) 乃至式 (1 1 4) により求めることがで さる。
F06/v=C10-Cll ( 1 0 9)
F05/v=C09-C10 (1 1 0)
F04/v=C08-C09 (1 1 1)
F03/v=C07-C08+C12 (1 1 2)
F02/v=C06-C07+Cll-C12 ( 1 1 3)
F01/v=C05-C06+C10-Cll (1 1 4)
方程式生成部 9 0 3は、 式 (1 0 7) 乃至式 (1 1 4) に例を示す、 画素値の 差により前景の成分を算出するための方程式を生成する。 方程式生成部 9 0 3は、 生成した方程式を演算部 9 04に供給する。
演算部 9 04は、 方程式生成部 9 0 3から供給された方程式に前景成分画像の 画素値を設定して、 画素値を設定した方程式を基に、 前景の成分を算出する。 演 算部 9 0 4は、 例えば、 式 (1 0 7 ) 乃至式 (1 1 4 ) が方程式生成部 9 0 3か ら供給されたとき、 式 (1 0 7 ) 乃至式 (1 1 4 ) に画素値 C05乃至 C12を設 定する。
演算部 9 0 4は、 画素値が設定された式に基づき、 前景の成分を算出する。 例 えば、 演算部 9 0 4は、 画素値 C05乃至 C12が設定された式 (1 0 7 ) 乃至式 ( 1 1 4 ) に基づく演算により、 図 6 5に示すように、 前景の成分 FOl/v乃至 F08/vを算出する。 演算部 9 0 4は、 前景の成分 FO l/v乃至 F08/vを補正部 9 0 5に供給する。
捕正部 9 0 5は、 演算部 9 0 4から供給された前景の成分に、 処理単位決定部 9 0 1から供給された動きベクトルに含まれる動き量 vを乗じて、 動きボケを 除去した前景の画素値を算出する。 例えば、 捕正部 9 0 5は、 演算部 9 0 4から 供給された前景の成分 FO l/v乃至 F08/ が供給されたとき、 前景の成分 FO l/v 乃至 F08/vのそれぞれに、 5である動き量 Vを乗じることにより、 図 6 6に示 すように、 動きボケを除去した前景の画素値 F01乃至 F08を算出する。
補正部 9 0 5は、 以上のように算出された、 動きボケを除去した前景の画素値 から成る前景成分画像を動きボケ付加部 9 0 6および選択部 9 0 7に供給する。 動きボケ付加部 9 0 6は、 動き量 Vとは異なる値の動きボケ調整量 v'、 例え ば、 動き量 Vの半分の値の動きボケ調整量 、 動き量 Vと無関係の値の動きポ ケ調整量 v'で、 動きボケの量を調整することができる。 例えば、 図 5 9に示す ように、 動きボケ付加部 9 0 6は、 動きボケが除去された前景の画素値 Fiを動 きボケ調整量 で除すことにより、 前景成分 Fi/v,を算出して、 前景成分 Fi/v'の和を算出して、 動きボケの量が調整された画素値を生成する。 例えば、 動きボケ調整量 v'が 3のとき、 画素値 C02は、 (F01) /v'とされ、 画素値 C03 は、 (F01+F02) /v'とされ、 画素値 C04は、 (F01+F02+F03) /v'とされ、 画素 値 C05は、 (F02+F03+F04) /v'とされる。
動きボケ付加部 9 0 6は、 動きボケの量を調整した前景成分画像を選択部 9 0 7に供給する。 選択部 9 0 7は、 例えば使用者の選択に対応した選択信号を基に、 補正部 9 0 5から供給された動きボケが除去された前景成分画像、 および動きボケ付加部 9 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方を選 択して、 選択した前景成分画像を出力する。
このように、 動きボケ調整部 1 0 6は、 選択信号および動きボケ調整量 V を 基に、 動きボケの量を調整することができる。
次に、 図 6 3に構成を示す動きボケ調整部 1 0 6による前景の動きボケの量の 調整の処理を図 6 7のフローチャートを参照して説明する。
ステップ S 9 0 1において、 動きボケ調整部 1 0 6の処理単位決定部 9 0 1は、 動きべクトルおよび領域情報を基に、 処理単位を生成し、 生成した処理単位をモ デル化部 9 0 2および補正部 9 0 5に供給する。
ステップ S 9 0 2において、 動きボケ調整部 1 0 6のモデル化部 9 0 2は、 動 き量 Vおよび処理単位に対応して、 モデルの選択や生成を行う。 ステップ S 9 0 3において、 方程式生成部 9 0 3は、 選択または生成されたモデルを基に、 前 景成分画像の画素値の差により前景の成分を算出するための方程式を生成する。 ステップ S 9 0 4において、 演算部 9 0 4は、 作成された方程式に前景成分画 像の画素値を設定し、 画素値が設定された方程式を基に、 画素値の差分から前景 の成分を抽出する。 ステップ S 9 0 5において、 演算部 9 0 4は、 処理単位に対 応する全ての前景の成分を抽出したか否かを判定し、 処理単位に対応する全ての 前景の成分を抽出していないと判定された場合、 ステップ S 9 0 4に戻り、 前景 の成分を抽出の処理を繰り返す。
ステップ S 9 0 5において、 処理単位に対応する全ての前景の成分を抽出した と判定された場合、 ステップ S 9 0 6に進み、 補正部 9 0 5は、 動き量 Vを基 に、 演算部 9 0 4から供給された前景の成分 FO l/v乃至 F08/vのそれぞれを補 正して、 動きボケを除去した前景の画素値 F01乃至 F08を算出する。
ステップ S 9 0 7において、 動きボケ付加部 9 0 6は、 動きボケの量を調整し た前景の画素値を算出して、 選択部 9 0 7は、 動きボケが除去された画像または 動きボケの量が調整された画像のいずれかを選択して、 選択した画像を出力して、 処理は終了する。
このように、 図 6 3に構成を示す動きボケ調整部 1 0 6は、 より簡単な演算で、 より迅速に、 動きボケを含む前景画像から動きボケを調整することができる。
ウィナー · フィルタなど従来の動きボケを部分的に除去する手法が、 理想状態 では効果が認められるが、 量子化され、 ノイズを含んだ実際の画像に対して十分 な効果が得られないのに対し、 図 6 3に構成を示す動きボケ調整部 1 0 6におい ても、 量子化され、 ノイズを含んだ実際の画像に対しても十分な効果が認められ、 精度の良い動きボケの除去が可能となる。
以上のように、 図 2に構成を示す画像処理装置は、 入力画像に含まれる動きボ ケの量を調整することができる。
図 6 8は、 画像処理装置の機能の他の構成を示すプロック図である。
図 2に示す部分と同様の部分には同一の番号を付してあり、 その説明は適宜省 略する。
領域特定部 1 0 3は、 領域情報を混合比算出部 1 0 4および合成部 1 0 0 1に 供給する。
混合比算出部 1 0 4は、 混合比 を前景背景分離部 1 0 5および合成部 1 0 0 1に供給する。
前景背景分離部 1 0 5は、 前景成分画像を合成部 1 0 0 1に供給する。
合成部 1 0 0 1は、 混合比算出部 1 0 4から供給された混合比 、 領域特定 部 1 0 3から供給された領域情報を基に、 任意の背景画像と、 前景背景分離部 1 0 5から供給された前景成分画像とを合成して、 任意の背景画像と前景成分画像 とが合成された合成画像を出力する。
図 6 9は、 合成部 1 0 0 1の構成を示す図である。 背景成分生成部 1 0 2 1は、 混合比 αおよび任意の背景画像を基に、 背景成分画像を生成して、 混合領域画 像合成部 1 0 2 2に供給する。
混合領域画像合成部 1 0 2 2は、 背景成分生成部 1 0 2 1から供給された背景 成分画像と前景成分画像とを合成することにより、 混合領域合成画像を生成して. 生成した混合領域合成画像を画像合成部 1 0 2 3に供給する。
画像合成部 1 0 2 3は、 領域情報を基に、 前景成分画像、 混合領域画像合成部 1 0 2 2から供給された混合領域合成画像、 および任意の背景画像を合成して、 合成画像を生成して出力する。
このように、 合成部 1 0 0 1は、 前景成分画像を、 任意の背景画像に合成する ことができる。
特徴量である混合比 を基に前景成分画像を任意の背景画像と合成して得ら れた画像は、 単に画素を合成した画像に比較し、 より自然なものと成る。
図 7 0は、 動きボケの量を調整する画像処理装置の機能の更に他の構成を示す ブロック図である。 図 2に示す画像処理装置が領域特定と混合比 の算出を順 番に行うのに対して、 図 7 0に示す画像処理装置は、 領域特定と混合比ひの算 出を並行して行う。
図 2のプロック図に示す機能と同様の部分には同一の番号を付してあり、 その 説明は省略する。
入力画像は、 混合比算出部 1 1 0 1、 前景背景分離部 1 1 0 2、 領域特定部 1 0 3、 およびオブジェクト抽出部 1 0 1に供給される。
混合比算出部 1 1 0 1は、 入力画像を基に、 画素がカバードバックグラウンド 領域に属すると仮定した場合における推定混合比、 および画素がアンカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比を、 入力画像に 含まれる画素のそれぞれに対して算出し、 算出した画素がカバードバックグラウ ンド領域に属すると仮定した場合における推定混合比、 および画素がアンカバー ドバックグラウンド領域に属すると仮定した場合における推定混合比を前景背景 分離部 1 1 0 2に供給する。
図 7 1は、 混合比算出部 1 1 0 1の構成の一例を示すブロック図である。
図 7 1に示す推定混合比処理部 4 0 1は、 図 3 0に示す推定混合比処理部 4 0 1と同じである。 図 7 1に示す推定混合比処理部 4 0 2は、 図 3 0に示す推定混 合比処理部 4 0 2と同じである。
推定混合比処理部 4 0 1は、 入力画像を基に、 カバードバックグラウンド領域 のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した推定 混合比を出力する。
推定混合比処理部 4 0 2は、 入力画像を基に、 アンカバードバックグラウンド 領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した 推定混合比を出力する。
前景背景分離部 1 1 0 2は、 混合比算出部 1 1 0 1から供給された、 画素が力 バ一ドバックグラウンド領域に属すると仮定した場合における推定混合比、 およ び画素がアンカバードバックグラウンド領域に属すると仮定した場合における推 定混合比、 並びに領域特定部 1 0 3から供給された領域情報を基に、 入力画像か ら前景成分画像を生成し、 生成した前景成分画像を動きボケ調整部 1 0 6および 選択部 1 0 7に供給する。
図 7 2は、 前景背景分離部 1 1 0 2の構成の一例を示すブロック図である。
図 4 7に示す前景背景分離部 1 0 5と同様の部分には同一の番号を付してあり、 その説明は省略する。
選択部 1 1 2 1は、 領域特定部 1 0 3から供給された領域情報を基に、 混合比 算出部 1 1 0 1から供給された、 画素がカバードバックグラウンド領域に属する と仮定した場合における推定混合比、 および画素がアンカパードバックグラウン ド領域に属すると仮定した場合における推定混合比のいずれか一方を選択して、 選択した推定混合比を混合比 として分離部 6 0 1に供給する。
分離部 6 0 1は、 選択部 1 1 2 1から供給された混合比 αおよび領域情報を 基に、 混合領域に属する画素の画素値から前景の成分および背景の成分を抽出し、 抽出した前景の成分を合成部 6 0 3に供給すると共に、 背景の成分を合成部 6 0 5に供給する。
分離部 6 0 1は、 図 5 2に示す構成と同じ構成とすることができる。
合成部 6 0 3は、 前景成分画像を合成して、 出力する。 合成部 6 0 5は、 背景 成分画像を合成して出力する。
図 7 0に示す動きボケ調整部 1 0 6は、 図 2に示す場合と同様の構成とするこ とができ、 領域情報および動きべクトルを基に、 前景背景分離部 1 1 0 2から供 給された前景成分画像に含まれる動きボケの量を調整して、 動きボケの量が調整 された前景成分画像を出力する。
図 7 0に示す選択部 1 0 7は、 例えば使用者の選択に対応した選択信号を基に、 前景背景分離部 1 1 0 2から供給された前景成分画像、 および動きボケ調整部 1 0 6から供給された動きボケの量が調整された前景成分画像のいずれか一方を選 択して、 選択した前景成分画像を出力する。
このように、 図 7 0に構成を示す画像処理装置は、 入力画像に含まれる前景の オブジェクトに対応する画像に対して、 その画像に含まれる動きボケの量を調整 して出力することができる。 図 7 0に構成を示す画像処理装置は、 第 1の実施例 と同様に、 埋もれた情報である混合比 を算出して、 算出した混合比 を出力 することができる。
図 7 3は、 前景成分画像を任意の背景画像と合成する画像処理装置の機能の他 の構成を示すプロック図である。 図 6 8に示す画像処理装置が領域特定と混合比 a の算出をシリアルに行うのに対して、 図 7 3に示す画像処理装置は、 領域特 定と混合比 の算出をパラレルに行う。
図 7 0のプロック図に示す機能と同様の部分には同一の番号を付してあり、 そ の説明は省略する。
図 7 3に示す混合比算出部 1 1 0 1は、 入力画像を基に、 画素がカバードバッ クグラウンド領域に属すると仮定した場合における推定混合比、 および画素がァ ンカバードバックグラウンド領域に属すると仮定した場合における推定混合比を, 入力画像に含まれる画素のそれぞれに対して算出し、 算出した画素がカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比、 および画素が アンカバードパックグラウンド領域に属すると仮定した場合における推定混合比 を前景背景分離部 1 1 0 2および合成部 1 2 0 1に供給する。 図 7 3に示す前景背景分離部 1 1 0 2は、 混合比算出部 1 1 0 1から供給され た、 画素がカバードバックグラウンド領域に属すると仮定した場合における推定 混合比、 および画素がァンカバードバックグラウンド領域に属すると仮定した場 合における推定混合比、 並びに領域特定部 1 0 3から供給された領域情報を基に、 入力画像から前景成分画像を生成し、 生成した前景成分画像を合成部 1 2 0 1に 供給する。
合成部 1 2 0 1は、 混合比算出部 1 1 0 1から供給された、 画素がカバードバ ックグラウンド領域に属すると仮定した場合における推定混合比、 および画素が アンカバードバックグラウンド領域に属すると仮定した場合における推定混合比、 領域特定部 1 0 3から供給された領域情報を基に、 任意の背景画像と、 前景背景 分離部 1 1 0 2から供給された前景成分画像とを合成して、 任意の背景画像と前 景成分画像とが合成された合成画像を出力する。
図 7 4は、 合成部 1 2 0 1の構成を示す図である。 図 6 9のブロック図に示す 機能と同様の部分には同一の番号を付してあり、 その説明は省略する。
選択部 1 2 2 1は、 領域特定部 1 0 3から供給された領域情報を基に、 混合比 算出部 1 1 0 1から供給された、 画素がカバードバックグラウンド領域に属する と仮定した場合における推定混合比、 および画素がアンカバードバックグラウン ド領域に属すると仮定した場合における推定混合比のいずれか一方を選択して、 選択した推定混合比を混合比ひ として背景成分生成部 1 0 2 1に供給する。
図 7 4に示す背景成分生成部 1 0 2 1は、 選択部 1 2 2 1から供給された混合 比 0?および任意の背景画像を基に、 背景成分画像を生成して、 混合領域画像合 成部 1 0 2 2に供給する。
図 7 4に示す混合領域画像合成部 1 0 2 2は、 背景成分生成部 1 0 2 1から供 給された背景成分画像と前景成分画像とを合成することにより、 混合領域合成画 像を生成して、 生成した混合領域合成画像を画像合成部 1 0 2 3に供給する。 画像合成部 1 0 2 3は、 領域情報を基に、 前景成分画像、 混合領域画像合成部 1 0 2 2から供給された混合領域合成画像、 および任意の背景画像を合成して、 合成画像を生成して出力する。
このように、 合成部 1 2 0 1は、 前景成分画像を、 任意の背景画像に合成する ことができる。
なお、 混合比 は、 画素値に含まれる背景の成分の割合として説明したが、 画素値に含まれる前景の成分の割合としてもよい。
また、 前景となるオブジェクトの動きの方向は左から右として説明したが、 そ の方向に限定されないことは勿論である。
以上においては、 3次元空間と時間軸情報を有する現実空間の画像をビデオ力 メラを用いて 2次元空間と時間軸情報を有する時空間への射影を行った場合を例 としたが、 本発明は、 この例に降らず、 より多くの第 1の次元の第 1の情報を、 より少ない第 2の次元の第 2の情報に射影した場合に、 その射影によつて発生す る歪みを補正したり、 有意情報を抽出したり、 またはより自然に画像を合成する 場合に適応することが可能である。
なお、 センサは、 CCDに限らす、 固体撮像素子である、 例えば、 BBD (Bucket Brigade Devi ce) 、 CID (Charge Injection Devi ce) 、 CPD (Cnarge Priming Devi ce) 、 または CMOS (Complementary Mental Oxide Semiconductor) セン サでもよく、 また、 検出素子がマトリ ックス状に配置されているセンサに限らず、 検出素子が 1列に並んでいるセンサでもよい。
本発明の信号処理を行うプログラムを記録した記録媒体は、 図 1に示すように、 コンピュータとは別に、 ユーザにプログラムを提供するために配布される、 プロ グラムが記録されている磁気ディスク 5 1 (フロッピ (登録商標) ディスクを含 む) 、 光ディスク 5 2 (CD-ROM (Compact Di sc-Read Only Memory) ,
DVD (Digital Versat ile Di sc)を含む) 、 光磁気ディスク 5 3 (MD (Mini- Disc) (商標) を含む) 、 もしくは半導体メモリ 5 4などよりなるパッケージ メディアにより構成されるだけでなく、 コンピュータに予め組み込まれた状態で ユーザに提供される、 プログラムが記録されている R0M 2 2や、 記憶部 2 8に含 まれるハードディスクなどで構成される。 なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも含むもの である。 産業上の利用可能性
本発明によれば、 混ざり合いの状態に対応して、 背景の画像と物体の画像とを 分離することが可能となる。

Claims

請求の範囲
1 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データからなる画像データを処理する画像処理装置において、
1つの画面に対応する第 1の時間において、 前記画像データの注目フレームの 前景ォブジェク トを構成する前景オブジェクト成分と背景ォブジェクトを構成す る背景オブジェクト成分とが混合されてなる、 前記前景オブジェクトの動き方向 の後端側に形成されるァンカバードバックグラウンド領域を特定し、 前記第 1の 時間の後の、 1つの画面に対応する第 2の時間において、 前記前景オブジェクト 成分のみからなる前景領域、 および前記背景オブジェクト成分のみからなる背景 領域を特定し、 前記第 2の時間の後の、 1つの画面に対応する第 3の時間におい て、 前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混合されてなる. 前記前景オブジェクトの動き方向の先端側に形成されるカバードバックグラウン ド領域を特定する領域特定手段と、
前記ァンカバードバックグラウンド領域および前記カバードバックグラウンド 領域における、 前記前景ォブジェクト成分と前記背景オブジェクト成分との混合 の比率を示す混合比を検出する混合比検出手段と、
前記混合比に基づいて、 前記アンカバードバックグラウンド領域および前記力 バードバックグラウンド領域に属する画素の前記画素データを、 前記前景ォブジ エタト成分と前記背景オブジェク ト成分とに分離し、 前記注目フレームにおける 前記前景オブジェクト成分のみからなる前景成分画像と前記背景ォブジェクト成 分のみからなる背景成分画像とを生成する前景背景分離手段と
を含むことを特徴とする画像処理装置。
2 . 前記領域特定手段は、 連続して入力される 3つのフレームを一時記憶し、 前記第 1の時間において、 注目フレームの 2つ前のフレームと前記注目フレーム の 1つ前のフレームとの間で動きと判定され、 前記注目フレームの 1つ前のフレ ームと前記注目フレームとの間で静止と判定される領域を前記注目フレームに対 応する前記ァンカバードバックグラウンド領域と特定し、 前記第 2の時間におい て、 前記注目フレームの 1つ前のフレームと前記注目フレームとの間で動きと判 定され、 前記注目フレームと前記注目フレームの 1つ後のフレームとの間で動き と判定される領域を前記注目フレームに対応する前記前景領域と特定し、 前記第 2の時間において、 前記注目フレームの 1つ前のフレームと前記注目フレームと の間で静止と判定され、 前記注目フレームと前記注目フレームの 1つ後のフレー ムとの間で静止と判定される領域を前記注目フレームに対応する前記背景領域と 特定し、 前記第 3の時間において、 前記注目フレームと前記注目フレームの 1つ 後のフレームとの間で動きと判定され、 前記注目フレームの 1つ後のフレームと 前記注目フレームの 2つ後のフレームとの間で静止と判定される領域を前記注目 フレームに対応する前記カバードバックグラウンド領域と特定する
ことを特徴とする請求の範囲第 1項に記載の画像処理装置。
3 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データからなる画像データを処理する画像処理方法において、
1つの画面に対応する第 1の時間において、 前記画像データの注目フレームの 前景オブジェク トを構成する前景オブジェクト成分と背景オブジェクトを構成す る背景オブジェクト成分とが混合されてなる、 前記前景オブジェクトの動き方向 の後端側に形成されるアンカバードバックグラウンド領域を特定し、 前記第 1の 時間の後の、 1つの画面に対応する第 2の時間において、 前記前景オブジェクト 成分のみからなる前景領域、 および前記背景ォブジェク ト成分のみからなる背景 領域を特定し、 前記第 2の時間の後の、 1つの画面に対応する第 3の時間におい て、 前記前景オブジェク ト成分と前記背景オブジェクト成分とが混合されてなる 前記前景ォブジヱタ トの動き方向の先端側に形成されるカバードバックグラウン ド領域を特定する領域特定ステツプと、
前記ァンカバードバックグラウンド領域およぴ前記力バードバックグラウンド 領域における、 前記前景オブジェク ト成分と前記背景オブジェクト成分との混合 の比率を示す混合比を検出する混合比検出ステップと、
前記混合比に基づいて、 前記ァンカバードバックグラウンド領域および前記力 バードバックグラウンド領域に属する画素の前記画素データを、 前記前景ォブジ ェクト成分と前記背景オブジェクト成分とに分離し、 前記注目フレームにおける 前記前景ォブジェクト成分のみからなる前景成分画像と前記背景オブジェク ト成 分のみからなる背景成分画像とを生成する前景背景分離ステツプと
を含むことを特徴とする画像処理方法。
4 . 前記領域特定ステップにおいて、 連続して入力される 3つのフレームがー 時記憶され、 前記第 1の時間において、 注目フレームの 2つ前のフレームと前記 注目フレームの 1つ前のフレームとの間で動きと判定され、 前記注目フレームの 1つ前のフレームと前記注目フレームとの間で静止と判定される領域が前記注目 フレームに対応する前記アンカバードバックグラウンド領域と特定され、 前記第 2の時間において、 前記注目フレームの 1つ前のフレームと前記注目フレ^ "ムと の間で動きと判定され、 前記注目フレームと前記注目フレームの 1つ後のフレー ムとの間で動きと判定される領域が前記注目フレームに対応する前記前景領域と 特定され、 前記第 2の時間において、 前記注目フレームの 1つ前のフレームと前 記注目フレームとの間で静止と判定され、 前記注目フレームと前記注目フレーム の 1つ後のフレームとの間で静止と判定される領域が前記注目フレームに対応す る前記背景領域と特定され、 前記第 3の時間において、 前記注目フレームと前記 注目フレームの 1つ後のフレームとの間で動きと判定され、 前記注目フレームの 1つ後のフレームと前記注目フレームの 2つ後のフレームとの間で静止と判定さ れる領域が前記注目フレームに対応する前記カバードバックグラウンド領域と特 定される
ことを特徴とする請求の範囲第 3項に記載の画像処理方法。
5 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データからなる画像データを処理する画像処理用のプログラムであ つて、
1つの画面に対応する第 1の時間において、 前記画像データの注目フレームの 前景ォブジェクトを構成する前景オブジェク ト成分と背景ォブジェクトを構成す る背景オブジェクト成分とが混合されてなる、 前記前景オブジェクトの動き方向 の後端側に形成されるアンカバードパックグラウンド領域を特定し、 前記第 1の 時間の後の、 1つの画面に対応する第 2の時間において、 前記前景オブジェクト 成分のみからなる前景領域、 および前記背景ォブジェクト成分のみからなる背景 領域を特定し、 前記第 2の時間の後の、 1つの画面に対応する第 3の時間におい て、 前記前景オブジェクト成分と前記背景オブジェクト成分とが混合されてなる 前記前景オブジェクトの動き方向の先端側に形成されるカバードバックグラウン ド領域を特定する領域特定ステップと、
前記ァンカバードバックグラウンド領域および前記力バードバックグラウンド 領域における、 前記前景オブジェク ト成分と前記背景ォブジ タト成分との混合 の比率を示す混合比を検出する混合比検出ステツプと、
前記混合比に基づいて、 前記アンカバードバックグラウンド領域および前記力 バードバックグラウンド領域に属する画素の前記画素データを、 前記前景ォブジ エタ ト成分と前記背景オブジェク ト成分とに分離し、 前記注目フレームにおける 前記前景オブジェクト成分のみからなる前景成分画像と前記背景ォブジェクト成 分のみからなる背景成分画像とを生成する前景背景分離ステツプと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
6 . 前記領域特定ステップにおいて、 連続して入力される 3つのフレームがー 時記憶され、 前記第 1の時間において、 注目フレームの 2つ前のフレームと前記 注目フレームの 1つ前のフレームとの間で動きと判定され、 前記注目フレームの 1つ前のフレームと前記注目フレームとの間で静止と判定される領域が前記注目 フレームに対応する前記アンカバードバックグラウンド領域と特定され、 前記第
2の時間において、 前記注目フレームの 1つ前のフレームと前記注目フレームと の間で動きと判定され、 前記注目フレームと前記注目フレームの 1つ後のフレー ムとの間で動きと判定される領域が前記注目フレームに対応する前記前景領域と 特定され、 前記第 2の時間において、 前記注目フレームの 1つ前のフレームと前 記注目フレームとの間で静止と判定され、 前記注目フレームと前記注目フレーム の 1つ後のフレームとの間で静止と判定される領域が前記注目フレームに対応す る前記背景領域と特定され、 前記第 3の時間において、 前記注目フレームと前記 注目フレームの 1つ後のフレームとの間で動きと判定され、 前記注目フレームの 1つ後のフレームと前記注目フレームの 2つ後のフレームとの間で静止と判定さ れる領域が前記注目フレームに対応する前記カバードバックグラウンド領域と特 定される
ことを特徴とする請求の範囲第 5項に記載の記録媒体。
7 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データからなる画像データを処理するコンピュータに、
1つの画面に対応する第 1の時間において、 前記画像データの注目フレームの 前景オブジェク トを構成する前景オブジェク ト成分と背景オブジェク トを構成す る背景オブジェクト成分とが混合されてなる、 前記前景オブジェクトの動き方向 の後端側に形成されるアンカバードバックグラウンド領域を特定し、 前記第 1の 時間の後の、 1つの画面に対応する第 2の時間において、 前記前景オブジェクト 成分のみからなる前景領域、 および前記背景オブジェクト成分のみからなる背景 領域を特定し、 前記第 2の時間の後の、 1つの画面に対応する第 3の時間におい て、 前記前景ォブジェク ト成分と前記背景オブジェクト成分とが混合されてなる. 前記前景オブジェクトの動き方向の先端側に形成されるカバードバックグラウン ド領域を特定する領域特定ステツプと、
前記ァンカバードバックグラウンド領域および前記力バードバックグラウンド 領域における、 前記前景オブジェクト成分と前記背景オブジェクト成分との混合 の比率を示す混合比を検出する混合比検出ステツプと、
前記混合比に基づいて、 前記アンカバードバックグラウンド領域および前記力 バードバックグラウンド領域に属する画素の前記画素データを、 前記前景ォブジ エタ ト成分と前記背景オブジェク ト成分とに分離し、 前記注目フレームにおける 前記前景オブジェクト成分のみからなる前景成分画像と前記背景オブジェクト成 分のみからなる背景成分画像とを生成する前景背景分離ステップと
を実行させるプログラム。
8 . 前記領域特定ステップにおいて、 連続して入力される 3つのフレームが一 時記憶され、 前記第 1の時間において、 注目フレームの 2つ前のフレームと前記 注目フレームの 1つ前のフレームとの間で動きと判定され、 前記注目フレームの 1つ前のフレームと前記注目フレームとの間で静止と判定される領域が前記注目 フレームに対応する前記アンカバードパックグラウンド領域と特定され、 前記第 2の時間において、 前記注目フレームの 1つ前のフレームと前記注目フレームと の間で動きと判定され、 前記注目フレームと前記注目フレームの 1つ後のフレー ムとの間で動きと判定される領域が前記注目フレームに対応する前記前景領域と 特定され、 前記第 2の時間において、 前記注目フレームの 1つ前のフレームと前 記注目フレームとの間で静止と判定され、 前記注目フレームと前記注目フレーム の 1つ後のフレームとの間で静止と判定される領域が前記注目フレ^"ムに対応す る前記背景領域と特定され、 前記第 3の時間において、 前記注目フレームと前記 注目フレームの 1つ後のフレームとの間で動きと判定され、 前記注目フレームの 1つ後のフレームと前記注目フレームの 2つ後のフレームとの間で静止と判定さ れる領域が前記注目フレームに対応する前記カバードバックグラウンド領域と特 定される
ことを特徴とする請求の範囲第 7項に記載のプログラム。
9 . 時間積分効果を有する所定数の画素を有する撮像素子によって撮像された 被写体画像を、 所定数の画素データからなる画像デ タとして出力する撮像手段 と、
1つの画面に対応する第 1の時間において、 前記画像データの注目フレームの 前景オブジェク トを構成する前景オブジェクト成分と背景オブジェクトを構成す る背景オブジェクト成分とが混合されてなる、 前記前景オブジェクトの動き方向 の後端側に形成されるアンカバードバックグラウンド領域を特定し、 前記第 1の 時間の後の、 1つの画面に対応する第 2の時間において、 前記前景オブジェクト 成分のみからなる前景領域、 および前記背景オブジェクト成分のみからなる背景 領域を特定し、 前記第 2の時間の後の、 1つの画面に対応する第 3の時間におい て、 前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混合されてなる、 前記前景ォブジェク トの動き方向の先端側に形成されるカバードバックグラウン ド領域を特定する領域特定手段と、
前記ァンカバードバックグラウンド領域および前記力バードバックグラウンド 領域における、 前記前景オブジェクト成分と前記背景オブジェクト成分との混合 の比率を示す混合比を検出する混合比検出手段と、
前記混合比に基づいて、 前記ァンカバードバックダラゥンド領域および前記力 バードバックグラウンド領域に属する画素の前記画素データを、 前記前景ォブジ エタト成分と前記背景オブジェク ト成分とに分離し、 前記注目フレームにおける、 前記前景オブジェクト成分のみからなる前景成分画像と前記背景オブジェクト成 分のみからなる背景成分画像とを生成する前景背景分離手段と
を含むことを特徴とする撮像装置。
1 0 . 前記領域特定手段は、 連続して入力される 3つのフレームを一時記憶し、 前記第 1の時間において、 注目フレームの 2つ前のフレームと前記注目フレーム の 1つ前のフ ^一ムとの間で動きと判定され、 前記注目フレームの 1つ前のフレ ームと前記注目フレームとの間で静止と判定される領域を前記注目フレームに対 応する前記アンカバードバックグラウンド領域と特定し、 前記第 2の時間におい て、 前記注目フレームの 1つ前のフレームと前記注目フレームとの間で動きと判 定され、 前記注目フレームと前記注目フレームの 1つ後のフレームとの間で動き と判定される領域を前記注目フレームに対応する前記前景領域と特定し、 前記第 2の時間において、 前記注目フレームの 1つ前のフレームと前記注目フレームと の間で静止と判定され、 前記注目フレームと前記注目フレームの 1つ後のフレー ムとの間で静止と判定される領域を前記注目フレームに対応する前記背景領域と 特定し、 前記第 3の時間において、 前記注目フレームと前記注目フレームの 1つ 後のフレームとの間で動きと判定され、 前記注目フレームの 1つ後のフレームと 前記注目フレームの 2つ後のフレームとの間で静止と判定される領域を前記注目 フレームに対応する前記力バードバックグラウンド領域と特定する
ことを特徴とする請求の範囲第 9項に記載の撮像装置。
PCT/JP2002/006178 2001-06-25 2002-06-20 Procede et dispositif de traitement d'images et dispositif de prise de vues WO2003001453A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP02743667A EP1339021B1 (en) 2001-06-25 2002-06-20 Image processing apparatus and method, and image pickup apparatus
CA2420719A CA2420719C (en) 2001-06-25 2002-06-20 Image processing apparatus and method, and image pickup apparatus
DE60239255T DE60239255D1 (de) 2001-06-25 2002-06-20 Bildverarbeitungsvorrichtung und -verfahren und bilderfassungsvorrichtung
KR1020037002731A KR100835443B1 (ko) 2001-06-25 2002-06-20 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
US10/362,354 US7477761B2 (en) 2001-06-25 2002-06-20 Image processing apparatus and method, and image-capturing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001-191004 2001-06-25
JP2001191004A JP4596219B2 (ja) 2001-06-25 2001-06-25 画像処理装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2003001453A1 true WO2003001453A1 (fr) 2003-01-03

Family

ID=19029694

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/006178 WO2003001453A1 (fr) 2001-06-25 2002-06-20 Procede et dispositif de traitement d'images et dispositif de prise de vues

Country Status (8)

Country Link
US (1) US7477761B2 (ja)
EP (1) EP1339021B1 (ja)
JP (1) JP4596219B2 (ja)
KR (1) KR100835443B1 (ja)
CN (1) CN1267857C (ja)
CA (1) CA2420719C (ja)
DE (1) DE60239255D1 (ja)
WO (1) WO2003001453A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596225B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7440634B2 (en) * 2003-06-17 2008-10-21 The Trustees Of Columbia University In The City Of New York Method for de-blurring images of moving objects
JP4148041B2 (ja) * 2003-06-27 2008-09-10 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
US20050249429A1 (en) * 2004-04-22 2005-11-10 Fuji Photo Film Co., Ltd. Method, apparatus, and program for image processing
EP1605402A2 (en) * 2004-06-10 2005-12-14 Sony Corporation Image processing device and method, recording medium, and program for blur correction
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
JP2012215852A (ja) 2011-03-25 2012-11-08 Semiconductor Energy Lab Co Ltd 画像処理方法、表示装置
CN102254322A (zh) * 2011-06-09 2011-11-23 上海智翔信息科技股份有限公司 一种图像提取方法及装置
CN103440612B (zh) * 2013-08-27 2016-12-28 华为技术有限公司 一种gpu虚拟化中图像处理方法和装置
US8917354B2 (en) * 2013-09-30 2014-12-23 Amlogic Co., Ltd. Motion detection in video fields
JP2019207635A (ja) * 2018-05-30 2019-12-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、画像生成方法、プログラム、及び記録媒体
CN113129227A (zh) * 2021-03-29 2021-07-16 影石创新科技股份有限公司 图像处理方法、装置、计算机设备和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2279531A (en) 1993-06-24 1995-01-04 Sony Uk Ltd Motion compensated image interpolation
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) * 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
EP0933727A2 (en) 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
EP1164545A1 (en) 1999-12-28 2001-12-19 Sony Corporation Signal processing device and method, and recording medium
JP2002190028A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) * 2000-12-21 2002-07-05 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2002190016A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
EP0549681B2 (en) * 1990-09-20 2000-03-01 British Broadcasting Corporation Video image processing
FR2675002B1 (fr) * 1991-04-05 1993-06-18 Thomson Csf Procede de classification des pixels d'une image appartenant a une sequence d'images animees et procede d'interpolation temporelle d'images utilisant ladite classification.
JP3258122B2 (ja) * 1993-03-31 2002-02-18 株式会社東芝 画像処理装置
JPH08154172A (ja) * 1994-11-29 1996-06-11 Hitachi Ltd 画像処理方法、画像ファイル及び画像処理用ファイル
US5920655A (en) * 1995-02-10 1999-07-06 Canon Kabushiki Kaisha Binarization image processing for multi-level image data
JPH08221567A (ja) * 1995-02-10 1996-08-30 Fuji Photo Film Co Ltd 色領域分離方法
US6008865A (en) * 1997-02-14 1999-12-28 Eastman Kodak Company Segmentation-based method for motion-compensated frame interpolation
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
WO1999022520A2 (en) * 1997-10-29 1999-05-06 Koninklijke Philips Electronics N.V. Motion vector estimation and detection of covered/uncovered image parts
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
US6839463B1 (en) * 2000-12-22 2005-01-04 Microsoft Corporation System and method providing subpixel-edge-offset-based determination of opacity
US6741755B1 (en) * 2000-12-22 2004-05-25 Microsoft Corporation System and method providing mixture-based determination of opacity
JP4596215B2 (ja) * 2001-06-19 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596217B2 (ja) * 2001-06-22 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596218B2 (ja) * 2001-06-22 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596209B2 (ja) * 2001-06-05 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596214B2 (ja) * 2001-06-15 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4660980B2 (ja) * 2001-06-15 2011-03-30 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4660979B2 (ja) * 2001-06-15 2011-03-30 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596213B2 (ja) * 2001-06-15 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596211B2 (ja) * 2001-06-15 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596212B2 (ja) * 2001-06-15 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2279531A (en) 1993-06-24 1995-01-04 Sony Uk Ltd Motion compensated image interpolation
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) * 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
EP0933727A2 (en) 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
EP1164545A1 (en) 1999-12-28 2001-12-19 Sony Corporation Signal processing device and method, and recording medium
JP2002190028A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) * 2000-12-21 2002-07-05 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2002190016A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1339021A4

Also Published As

Publication number Publication date
DE60239255D1 (de) 2011-04-07
US20040057602A1 (en) 2004-03-25
CA2420719A1 (en) 2003-02-25
JP4596219B2 (ja) 2010-12-08
CA2420719C (en) 2010-05-25
KR20030036731A (ko) 2003-05-09
EP1339021A4 (en) 2009-01-07
KR100835443B1 (ko) 2008-06-04
US7477761B2 (en) 2009-01-13
JP2003006652A (ja) 2003-01-10
CN1471693A (zh) 2004-01-28
EP1339021A1 (en) 2003-08-27
CN1267857C (zh) 2006-08-02
EP1339021B1 (en) 2011-02-23

Similar Documents

Publication Publication Date Title
JP4596202B2 (ja) 画像処理装置および方法、並びに記録媒体
JP4596216B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596222B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596221B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596226B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4106874B2 (ja) 画像処理装置および方法、並びに記録媒体
JP4596203B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2003001453A1 (fr) Procede et dispositif de traitement d&#39;images et dispositif de prise de vues
JP4596223B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4674408B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596214B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4840630B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596215B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596217B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4150949B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596209B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596218B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596225B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596205B2 (ja) 画像処理装置および方法、並びにプログラム
WO2003001456A1 (fr) Appareil et procede de traitement de l&#39;image, et appareil de prise de vue

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2002743667

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2420719

Country of ref document: CA

Ref document number: 1020037002731

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 028027574

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020037002731

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10362354

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2002743667

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2004107997

Country of ref document: RU

Kind code of ref document: A