WO2016157299A1 - 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 - Google Patents

撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 Download PDF

Info

Publication number
WO2016157299A1
WO2016157299A1 PCT/JP2015/059635 JP2015059635W WO2016157299A1 WO 2016157299 A1 WO2016157299 A1 WO 2016157299A1 JP 2015059635 W JP2015059635 W JP 2015059635W WO 2016157299 A1 WO2016157299 A1 WO 2016157299A1
Authority
WO
WIPO (PCT)
Prior art keywords
change
texture
subject
imaging
luminance
Prior art date
Application number
PCT/JP2015/059635
Other languages
English (en)
French (fr)
Inventor
雄大 中村
智教 福田
雅志 神谷
内藤 正博
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US15/552,870 priority Critical patent/US10460195B2/en
Priority to DE112015006385.4T priority patent/DE112015006385T5/de
Priority to CN201580078223.2A priority patent/CN107408305B/zh
Priority to PCT/JP2015/059635 priority patent/WO2016157299A1/ja
Priority to JP2017508833A priority patent/JP6312924B2/ja
Publication of WO2016157299A1 publication Critical patent/WO2016157299A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to an imaging apparatus and method for extracting a subject area from a captured image.
  • the present invention particularly relates to a technique for extracting a subject region using a difference between two or more captured images obtained by imaging under different illumination conditions.
  • the present invention also relates to an operation device and method for operating an apparatus using data obtained by the imaging apparatus.
  • the present invention also relates to a program for causing a computer to execute processing in the imaging device or method or the operation device or method, and a computer-readable recording medium on which the program is recorded.
  • Patent Document 1 When shooting a person close to the camera or part of it (such as a hand) as a subject for the purpose of monitoring a person's state or movement, remove the surrounding background and extract only the area where the subject is shown. It is useful to analyze the area in detail.
  • Patent Document 1 In order to extract a subject area close to the camera, Patent Document 1 blinks illumination that illuminates a subject in a short cycle, obtains a captured image when turned on and a captured image when turned off, and uses a difference between them.
  • An imaging device is disclosed.
  • Patent Document 1 also discloses that an interpolation image that compensates for the movement of the subject and the background is generated, and a difference image that excludes a false signal region caused by the movement of the subject is also disclosed.
  • Patent Document 2 discloses an image processing apparatus that detects the amount of movement of a subject and uses the detected amount of movement for specifying a subject area.
  • Non-patent document 1 will be mentioned later.
  • Patent Document 1 when compensating for the movement of the subject or the change in the background, it is necessary that the same subject and background object appear in a plurality of images used to generate the interpolated image. However, there is no guarantee that the same subject or the same background is reflected in multiple images because the speed of change of ambient light or background change is fast inside or outside the car while driving. The influence cannot be suppressed.
  • the luminance change calculated by taking the difference is easily affected by ambient light, and it is determined whether it is a false signal inside or outside the car. It is difficult to do accurately.
  • a similar false signal is generated due to a change in the background, there is a possibility that an area where the false signal is generated is erroneously determined as a subject area.
  • the present invention solves the above-described problems, and an object of the present invention is to make it possible to extract a subject with high accuracy even when ambient light or background changes.
  • An imaging apparatus for generating an illumination condition control signal for controlling the illumination condition and an imaging condition control signal for controlling the imaging condition;
  • An illumination unit that illuminates the subject under a plurality of different illumination conditions based on the illumination condition control signal;
  • An imaging unit that captures the subject under imaging conditions controlled by the imaging condition control signal and generates a captured image;
  • a luminance change calculating unit that calculates a luminance change for each pixel between the plurality of captured images using the plurality of captured images obtained by imaging under the different illumination conditions by the imaging unit;
  • a texture change calculating unit that calculates a texture change for each pixel between the plurality of captured images using the plurality of captured images obtained by imaging at different times by the imaging unit;
  • a subject extracting unit that extracts a subject region based on the luminance change and the texture change;
  • FIG. 1 It is a block diagram which shows the structure of the imaging device of Embodiment 1 of this invention. It is a block diagram which shows the structure of the irradiation part of FIG. It is a block diagram which shows the structure of the brightness
  • FIG. 1 shows a figure which shows the division
  • block diagram which shows the structure of the to-be-photographed object extraction part of FIG.
  • FIG. shows the relationship between the change of a lighting condition, the change of a background, the movement of a to-be-photographed object, a luminance change, and a texture change.
  • (A)-(e) is a figure which shows an example of the extraction of a to-be-photographed area
  • FIG. (A)-(e) is a figure which shows an example of the extraction of a to-be-photographed area
  • FIG. 3 is a flowchart illustrating an example of a processing procedure in the imaging apparatus according to the first embodiment. It is a flowchart which shows an example of the procedure of the to-be-extracted object step of FIG. It is a flowchart which shows the other example of the procedure of the to-be-extracted object step of FIG. 6 is a block diagram illustrating a configuration of a texture change calculation unit in a modification of the imaging apparatus according to Embodiment 1.
  • FIG. 6 is a flowchart illustrating a processing procedure in a modification of the imaging apparatus according to the first embodiment. 6 is a flowchart illustrating a processing procedure in a modification of the imaging apparatus according to the first embodiment.
  • 10 is a diagram illustrating an arrangement of pixels that are targets for texture feature calculation in a modification of the first embodiment.
  • 6 is a flowchart illustrating another example of a processing procedure in the imaging apparatus according to the first embodiment. It is a block diagram which shows the structure of the imaging device of Embodiment 2 of this invention. It is a block diagram which shows the structure of the target value calculation part of FIG. 10 is a flowchart illustrating a processing procedure in the imaging apparatus according to the second embodiment. 10 is a flowchart illustrating a processing procedure in the imaging apparatus according to the second embodiment. It is a block diagram which shows the structure of the imaging device of Embodiment 3 of this invention. It is a block diagram which shows the structure of the brightness
  • FIG. 14 is a flowchart illustrating a processing procedure in the imaging apparatus according to the third embodiment.
  • 14 is a flowchart illustrating a processing procedure in the imaging apparatus according to the third embodiment.
  • FIG. 31 is a block diagram illustrating a configuration of a texture change calculation unit in FIG. 30.
  • FIG. 31 is a block diagram which shows the structure of the to-be-recognized part of FIG.
  • FIG. 30 shows the example of the correspondence of the kind of gesture recognized by the to-be-recognized part of FIG. 30, and the operation content produced
  • FIG. 10 is a flowchart illustrating a procedure of processing in the operation device according to the fourth embodiment. It is a block diagram which shows the computer used when the imaging device of Embodiment 1 is implement
  • FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 1 of the present invention.
  • the illustrated imaging apparatus includes an imaging irradiation control unit 11, an irradiation unit 12, an imaging unit 13, a luminance change calculation unit 21, a texture change calculation unit 22, a subject extraction unit 23, and an image memory 14.
  • the imaging apparatus uses, for example, a person as a subject. Specifically, it is used to extract only the subject from the background using a part of the body (parts) such as the whole body or upper body, face, and hand of the person as the subject.
  • the imaging irradiation control unit 11 outputs a control signal (illumination condition control signal) C11a for controlling the illumination conditions to the irradiation unit 12, and generates a control signal (imaging condition control signal) C11b for controlling the imaging conditions. 13 to output.
  • a control signal illumination condition control signal
  • imaging condition control signal imaging condition control signal
  • the illumination conditions controlled by the control signal C11a include one or more of illumination light irradiation distribution, illumination light emission intensity, illumination light emission timing, and illumination light emission period.
  • the imaging conditions controlled by the control signal C11b include one or more of exposure timing, exposure time, frame rate, aperture, and gain.
  • the imaging unit 13 performs imaging for each frame. Switching of illumination conditions by the irradiation unit 12 is performed in synchronization with imaging by the imaging unit 13.
  • control signal C11a supplied from the imaging irradiation control unit 11 specifies illumination conditions A and B that are alternately different for each frame, and the irradiation unit 12 determines the illumination condition based on the control signal C11a. Illumination at A and illumination under illumination condition B are alternately performed for each frame. Illuminating under certain conditions is also referred to as generating the illumination conditions.
  • the irradiation unit 12 includes a plurality of LEDs 121 and a light emission control unit 122.
  • the LED 121 a near infrared LED or a white LED is used.
  • the subject is the upper body of a person, it is desirable to use a near-infrared LED with low human eye sensitivity as the light source.
  • the number of LEDs that emit light among the plurality of LEDs 121 may be changed, or the light emission intensity of each LED may be changed. Also good.
  • the amount of drive current input to the LED may be changed, or the duty ratio in PWM (Pulse Width Modulation) control may be changed.
  • PWM Pulse Width Modulation
  • the LED to be emitted may be changed, or the emission intensity of each LED is changed according to the position of the LED (position within the group of the plurality of LEDs 121). good.
  • the illumination condition is switched by switching the light emission intensity by controlling the duty ratio in the PWM control.
  • the light emission intensity in the illumination condition A is represented by ⁇ A
  • the light emission intensity in the illumination condition B is represented by ⁇ B.
  • the emission intensity ⁇ A and the emission intensity ⁇ B are fixed values, respectively. ⁇ A> ⁇ B It shall be related.
  • the imaging unit 13 images the subject based on the control signal C11b supplied from the imaging irradiation control unit 11 under the two illumination conditions generated by the irradiation unit 12, and stores the captured image G in the image memory 14.
  • the imaging unit 13 for example, an imaging element such as a CMOS sensor or a CCD sensor is used.
  • the imaging unit 13 captures, for example, 30 frames per second based on the control signal C11b, and the output image G is, for example, a grayscale image (monochrome image) or an RGB image.
  • the imaging unit 13 outputs an image at a rate of 30 frames per second, for example.
  • the output image (output image) is, for example, an 8-bit gray scale image.
  • the resolution of the output image is, for example, in conformity with the VGA standard, and the image width W is 640 pixels and the height H is 480 pixels.
  • the irradiation unit 12 and the imaging unit 13 are installed so that light (illumination light) emitted from the irradiation unit 12 is reflected by the subject and the reflected light is incident on the imaging unit 13.
  • the imaging unit 13 performs imaging alternately with the illumination condition A and the illumination condition B that are alternately generated by the irradiating unit 12, and an image (image under the illumination condition A) Ga obtained by imaging under the illumination condition A and illumination Images (images under illumination condition B) Gb obtained by imaging under condition B are alternately output.
  • the image Ga under the illumination condition A and the image Gb under the illumination condition B are output 15 frames per second.
  • the images G (Ga, Gb) output from the imaging unit 13 are sequentially stored in the image memory 14. It is assumed that the imaging condition for imaging under illumination condition A and the imaging condition for imaging under illumination condition B are fixed.
  • the luminance change calculation unit 21 reads out two images Ga and Gb obtained by the image capturing unit 13 sequentially capturing images under two different illumination conditions from the image memory 14 and compares the luminance I for each pixel. Then, the luminance change dI between images is calculated and output. The output luminance change dI is supplied to the subject extraction unit 23.
  • the luminance change calculation unit 21 includes a luminance feature amount calculation unit 211, a luminance feature amount memory 212, an illumination condition determination unit 213, a difference calculation unit 215, and a luminance change memory 216, as shown in FIG.
  • the luminance feature amount calculation unit 211 calculates the luminance feature amount Im of the image of each frame read from the image memory 14.
  • the luminance feature amount Im is, for example, a luminance average value, a luminance central value, or a luminance mode value.
  • the luminance feature amount Im calculated by the luminance feature amount calculation unit 211 is stored in the luminance feature amount memory 212, and is read out by the illumination condition determination unit 213 as the luminance feature amount Im for the image of the previous frame after one frame period.
  • the illumination condition determination unit 213 reads the luminance feature amount Im for the latest image (the latest frame image) calculated by the luminance feature amount calculation unit 211 and the image one frame before read from the luminance feature amount memory 212. Is read out. These images are two images adjacent to each other at the imaging time, that is, two adjacent frames.
  • the illumination condition determination unit 213 compares the luminance feature amount Im for the images of the two frames, and determines which is the image Ga of the illumination condition A and which is the image Gb of the illumination condition B based on the comparison result. I do.
  • the result CNa is supplied to the difference calculation unit 215.
  • the image with the larger luminance feature amount Im is the image Ga under the illumination condition A
  • the image with the smaller luminance feature amount Im is the image Gb under the illumination condition B.
  • the difference calculation unit 215 obtains a difference in luminance I for each pixel between the image Ga under the illumination condition A and the image Gb under the illumination condition B, and outputs the difference as the luminance change dI. That is, for example, the difference calculation unit 215 calculates the luminance difference dI (x, y) between two images with respect to the luminance value I (x, y) of each pixel on the image.
  • x and y indicate coordinates on the image, x ⁇ ⁇ 0,1, ..., W-1 ⁇ , y ⁇ ⁇ 0,1, ..., H-1 ⁇ It is.
  • the luminance difference dI (x, y) is calculated by subtracting the luminance value of the pixel at the same position in the image Gb of the illumination condition B from the luminance value of each pixel of the image Ga of the illumination condition A. Which of the two images read from the image memory 14 is the image Ga under the illumination condition A is determined based on the determination result CNa output from the illumination condition determination unit 213. When the subtraction result is a negative value, the luminance difference dI (x, y) is set to 0.
  • the brightness difference dI (x, y) calculated in this way is called brightness change.
  • the luminance difference dI (x, y) is stored in the luminance change memory 216 as a luminance change.
  • the accumulated luminance difference dI (x, y) is supplied to the subject extraction unit 23 later.
  • a set of luminance differences dI (x, y) for each pixel that is, a luminance difference image (luminance change image) formed by arranging the luminance differences dI (x, y) of each pixel at the same position as that pixel. To do.
  • the image acquired from the imaging unit 13 includes noise due to dark current or charge readout noise in the imaging device.
  • the luminance change calculation unit 21 may perform smoothing filtering on the image supplied from the imaging unit 13 with a smoothing filter (not shown) to remove noise, and the difference calculation unit 215 may obtain the difference. good.
  • the luminance change calculation unit 21 may output the result of removing the noise by performing smoothing filtering on the luminance difference image calculated by the difference calculation unit 215 using a smoothing filter (not shown).
  • a smoothing filter for example, a Gaussian filter, a median filter, or the like can be used.
  • the smoothing filtering By performing the above smoothing filtering before calculating the luminance difference, noise caused by the camera or the like can be removed.
  • the smoothing filtering is performed after the luminance difference is calculated, a region with a small difference (that is, noise) can be removed.
  • the smoothing filtering may be performed both before and after calculating the luminance difference.
  • a subject area By subjecting the luminance difference image to threshold processing, a subject area can be extracted. However, if the subject area is extracted based only on the luminance difference image, the portion where the background change or the subject movement has occurred is erroneously determined as the subject area. A portion erroneously determined as the subject region is referred to as a false signal region. In the present invention, as will be described below, by using texture changes together, it is possible to discriminate between a false signal area and a subject area and extract only the subject area.
  • the texture change calculation unit 22 sequentially reads a plurality of images stored in the image memory 14, obtains a texture feature F for each of the pixels constituting each image, and obtains two images obtained by imaging at two different times. A texture change dF between images is calculated, and the calculated texture change dF is supplied to the subject extraction unit 23.
  • two different times are specifically frame periods that follow each other. Accordingly, imaging at two different times becomes images Ga and Gb under two different illumination conditions in the present embodiment.
  • the texture change dF it is not important that the illumination conditions are different, and it is important that the times are different. Therefore, in order to emphasize this, it may be referred to as “two different times”.
  • the texture change calculation unit 22 includes a CSLBP feature calculation unit 221, a CSLBP feature memory 222, a texture feature calculation unit 223, a feature change processing unit 225, a texture feature memory 224, and a texture change. And a memory 226.
  • the CSLBP feature calculation unit 221 reads an image obtained by imaging at each time (frame period) from the image memory 14, calculates a CSLBP feature B for each pixel of the read image, and calculates the calculated CSLBP feature B. It is stored in the CSLBP feature memory 222.
  • the texture feature calculation unit 223 reads the CSLBP feature B for each pixel of each image stored in the CSLBP feature memory 222, calculates the texture feature F for each pixel of the image, and stores it in the texture feature memory 224.
  • the feature change processing unit 225 reads the texture feature F for the same pixel (pixel at the same position) of the two images from the texture feature memory 224, calculates the change (texture change) dF of the texture feature F between the images, The calculated texture change dF is stored in the texture change memory 226. The accumulated texture change dF is supplied to the subject extraction unit 23 later.
  • the texture feature F calculated by the texture feature calculation unit 223 is a feature related to the appearance of the subject or the background, and is a feature that represents a difference in surface pattern or unevenness and reflectivity with low dependency on the illumination conditions.
  • the texture feature F is, for example, a feature vector obtained by quantifying the correlation of the luminance value of a pixel at a specific position in a region (feature extraction region) centered on the target pixel with respect to each pixel (target pixel) on the image. It is represented by
  • the feature vector that can be used as the texture feature F is preferably a feature vector that is robust to illumination changes (not easily affected by illumination changes).
  • a HOG HOG
  • This is a feature vector composed of a histogram of a binary binary pattern (LBP) in which a luminance vector in a feature extraction region or a luminance gradient in a feature extraction region is binary-coded.
  • a CSLBP (Center Symmetric LBP) feature histogram obtained by expanding the LBP is obtained for each pixel in a square feature extraction region centered on the pixel and used as the texture feature F.
  • the CSLBP histogram is calculated according to Non-Patent Document 1.
  • Calculation of the CSLBP feature B for each pixel requires a luminance value of 3 ⁇ 3 pixels centered on that pixel.
  • the calculation of the texture feature of each pixel requires the CSLBP feature B for all the pixels in the feature extraction region centered on that pixel. Therefore, texture features cannot be calculated for pixels located at the peripheral edge of the image.
  • both the vertical and horizontal sizes L of the feature extraction region are 40 pixels.
  • the image size is 640 pixels in the horizontal direction and 480 pixels in the vertical direction, and is formed by excluding the portion from the vertical end to 20 pixels and the portion from the vertical end to 20 pixels.
  • the texture feature F is calculated for each of all the pixels within the range of 600 pixels in the horizontal direction and 440 pixels in the vertical direction.
  • the number of pixels (600) in the horizontal direction of the region where the texture feature F is calculated is represented by M
  • the number of pixels in the vertical direction (440) is represented by N.
  • all the pixels in the range of 600 pixels in the horizontal direction and 440 pixels in the vertical direction may be simply referred to as all pixels in the image.
  • the CSLBP feature B is calculated for all the pixels on the image except for the pixel adjacent to the image periphery (the first pixel counted from the image periphery).
  • FIG. 5 shows the numbering of pixels in a 3 ⁇ 3 pixel area centered on the pixel used for calculation of the CSLBP feature B for each pixel Pc (x, y).
  • the CSLBP feature B (x, y) for the pixel Pc (x, y) is calculated by Equation (1) using the luminance values of 3 ⁇ 3 pixels centered on the pixel.
  • n0 to n7 represent the luminance values of the pixels n0 to n7 shown in FIG.
  • FIGS. 6A and 6B show an example of an image Ga and a luminance histogram taken under the illumination condition A
  • FIGS. 6C and 6D show CSLBP features calculated from the image of FIG. 6 (e) and 6 (f) show an example of an image Gb captured under the illumination condition B and a luminance histogram
  • FIGS. 6 (g) and 6 (h) show FIG. 6 (e).
  • the CSLBP feature and the histogram of the CSLBP feature calculated from these images are shown. As shown in FIGS.
  • the CSLBP feature is small even when the illumination condition is changed, and is robust against the change of the illumination condition. For this reason, when CSLBP features are calculated for two images, the CSLBP features are extremely close to each other as long as the background and subject are the same regardless of the illumination conditions determined by the imaging irradiation control unit 11.
  • the pixels included in the region where the background changes or the region where the subject moves Pc (xc, yc), xc ⁇ ⁇ 0,1, ..., W-1 ⁇ , yc ⁇ ⁇ 0,1, ..., H-1 ⁇ ,
  • the texture feature calculated as described later using the CSLBP feature has similar properties.
  • the texture feature in the local area on the image can be grasped.
  • region where the characteristic of the texture changed can be specified by comparing the characteristic of a texture for every local area
  • the luminance change calculation unit 21 extracts the luminance change due to the illumination condition, whereas the texture change calculation unit 22 extracts the texture change dF. It is not necessary to use two images with different illumination conditions, as long as the images are two images with different imaging times. The two images with different imaging times may be images with the same illumination conditions. .
  • the texture change calculation unit 22 calculates the texture change dF using the same image as the image used by the luminance change calculation unit 21. That is, it is assumed that the texture change dF is calculated using the two images Ga and Gb of the illumination condition A and the illumination condition B.
  • the texture feature calculation unit 223 generates a plurality of histograms of CSLBP features for each of the pixels included in the feature extraction region centered on each pixel, and a numerical sequence obtained by combining the generated plurality of histograms. Generate as a feature vector.
  • the texture feature calculating unit 223 includes an area dividing unit 2211, first to sixteenth CSLBP feature reading units 22122-1 to 2212-16, and first to sixteenth histogram generating units. 2213-1 to 2213-16, a connecting portion 2214, a normalizing portion 2215, and a clip portion 2216.
  • the area dividing unit 2211 divides the feature extraction area AF centered on each pixel into four in the vertical direction and the horizontal direction, as shown in FIG. 8, and generates 16 cells CA.
  • the size of each cell CA is 10 pixels ⁇ 10 pixels.
  • the 16 cells CA are assigned to the first to sixteenth CSLBP feature reading units 2212-1 to 2212-16, respectively.
  • the CSLBP feature for each of 10 ⁇ 10 pixels read by each CSLBP feature reading unit 2212-i is supplied to the corresponding histogram generation unit 2213-i.
  • the histogram generation unit 2213-i generates a histogram by calculating the appearance frequency for each value of the CSLBP feature read by the corresponding CSLBP feature reading unit 2212-i. Since CSLBP features can have values from 0 to 15, a 16-bin histogram is generated.
  • the normalization unit 2215 normalizes the 256-dimensional feature vector output from the connection unit 2214 so that the vector length is 1.
  • the vector length V L is given by the following equation (2).
  • the clip unit 2216 performs threshold processing (clipping) on each element of the normalized vector, and an element having a value larger than T2 is set to T2.
  • 16 CSLBP readout units are provided. However, fewer than 16 CSLBP readout units are provided, and CSLBP feature readout for all pixels in two or more cells is performed in each CSLBP readout unit. It may be performed sequentially. For example, one CSLBP reading unit may sequentially read CSLBP features for all pixels in 16 cells. Similarly, instead of providing 16 histogram generation units, fewer than 16 histogram generation units may be provided, and each histogram generation unit may generate a histogram for two or more cells. For example, one histogram generation unit may sequentially generate histograms for 16 cells.
  • the texture feature calculation unit 223 outputs the feature vector after clipping as a texture feature F for the pixel located at the center of the feature extraction region.
  • the texture feature calculation unit 223 performs the above-described processing on each pixel of each image, and accumulates the calculated texture feature F in the texture feature memory 224.
  • the feature change processing unit 225 reads the texture feature F for the two images (that is, the image Ga obtained by imaging at the time t1a and the image Gb obtained by imaging at the time t1b) from the texture feature memory 224.
  • a texture feature F change (texture change) dF is calculated.
  • the calculated texture change dF is stored in the texture change memory 226.
  • the accumulated texture change dF is supplied to the subject extraction unit 23 later.
  • the texture feature F is calculated for each pixel other than the peripheral portion of the image, and as the change in the texture feature F, the change between the two images of the texture feature for the pixel at the same position is calculated.
  • the change of the texture feature F is obtained by, for example, comparing 256-dimensional feature vectors in each pixel with respect to two images.
  • the change of the feature vector is defined by the distance between two feature vectors, for example.
  • the Euclidean distance or the Manhattan distance is used as the inter-vector distance.
  • the Manhattan distance dF (t1a, t1b) between the feature vector F (t1a) at time t1a and the feature vector F (t1b) at time t1b is the sum of the absolute values of the differences between the corresponding elements of the two feature vectors. It is obtained by calculating. That is, the Manhattan distance dF (t1a, t1b) is given by the following equation (4).
  • the element f aj and the element f bj having the same value of j correspond to each other.
  • the feature change processing unit 225 obtains the distance between feature vectors for each pixel as described above, and stores it in the texture change memory 226 as the texture change dF.
  • the accumulated texture change dF is supplied to the subject extraction unit 23 later.
  • the texture change dF increases when the background changes or the subject moves. Therefore, it is determined that the texture change dF calculated between the image of the illumination condition A and the image of the illumination condition B is a change of the texture feature due to the change of the background or a change of the texture feature due to the movement of the subject. Can do.
  • the subject extraction unit 23 extracts a subject region based on the image G read from the image memory 14, the luminance change dI supplied from the luminance change calculation unit 21, and the texture change dF supplied from the texture change calculation unit 22. Extract.
  • the subject extraction unit 23 includes a luminance change comparison unit 231, a texture change comparison unit 232, an area determination unit 233, and a gate unit 234 as shown in FIG.
  • the luminance change comparison unit 231 determines whether the luminance change dI for each pixel is greater than the threshold value TI.
  • the texture change comparison unit 232 determines whether or not the texture change dF for each pixel is greater than the threshold value TF.
  • the region determination unit 233 is such that the pixel belongs to the subject region (located within the region) based on the determination result in the luminance change comparison unit 231 and the determination result in the texture change comparison unit 232 for each pixel. It is determined whether it belongs to the background area, or belongs to the false signal area due to movement of the subject or change of the background. That is, when the determination result in the luminance change comparison unit 231 indicates that it is equal to or less than the threshold value TI, it is determined that the pixel belongs to the background area.
  • the determination result in the luminance change comparison unit 231 indicates that the determination result is greater than the threshold value TI and the determination result in the texture change comparison unit 232 indicates that the determination result is equal to or less than the threshold value TF, it is determined that the pixel belongs to the subject area.
  • the determination result in the luminance change comparison unit 231 indicates that the determination result is greater than the threshold value TI and the determination result in the texture change comparison unit 232 indicates that the determination result is greater than the threshold value TF, it is determined that the pixel belongs to the false signal region. To do.
  • the gate unit 234 outputs the luminance value of the pixel determined to belong to the subject region by the region determining unit 233 among the pixels constituting the image G as the luminance value of the pixel in the subject region.
  • a subject region is configured by a set of pixels output from the gate unit 234, that is, a set of pixels determined to belong to the subject region.
  • the gate unit 234 outputs a portion that matches the subject region in the image G read from the image memory 14 as a result of extraction of the subject region H.
  • the extraction result of the subject area H represents an image of the subject area H.
  • a luminance change occurs in an area where the change or movement has occurred (for example, a portion where the position of the edge has changed due to the movement). For this reason, if it is determined that all the portions where the luminance has changed are the subject region, the region where the background has changed or the subject has moved is erroneously detected as the subject region. Therefore, in the present invention, determination based on a texture change is also performed to determine a subject region and a region in which luminance has changed due to background change or subject movement.
  • the areas where the texture change has not occurred are areas where the luminance change has occurred due to the illumination change, and can thus be determined as a portion constituting the subject.
  • the area where the texture change has occurred along with the brightness change can be determined to be an area where the brightness change has occurred due to a background change or subject movement, that is, a false signal area.
  • the subject extraction unit 23 extracts a subject region based on the luminance change dI and the texture change dF.
  • a threshold value TI is provided for the magnitude of the luminance change dI, and a pixel in which “a pixel in which a luminance change has occurred” is determined as a pixel in which the luminance change comparison unit 231 determines that the luminance change dI is greater than the threshold value TI.
  • a threshold value TF is provided for the magnitude of the texture change dF, and a pixel for which the texture change comparison unit 232 determines that the texture dF is greater than the threshold value TF is determined as a “pixel in which a texture change has occurred”.
  • the determination in the region determination unit 233 is performed according to the following criteria.
  • a pixel in which a luminance change has occurred and a texture change has occurred is a pixel belonging to a false signal region.
  • B Pixels that have undergone a luminance change and no texture change are pixels that belong to the subject area.
  • C Pixels other than (a) and (b), that is, pixels in which no luminance change has occurred are pixels belonging to the background area.
  • the purpose is to extract the subject area, only the determination based on the above (b) can be performed, and the determination based on the above (a) and (c) can be omitted.
  • the gate unit 234 reads one of the images used for the luminance calculation from the image memory 14, and uses the luminance value of the pixel determined to belong to the subject region by the region determination unit 233 among the read images. The result is extracted as a region H extraction result.
  • the determination result in the luminance change comparison unit 231 and the determination result in the texture change comparison unit 232 for each pixel are combined in the region determination unit 233 to determine whether the pixel belongs to the subject region. It is carried out. That is, the determination in the luminance change comparison unit 231, the texture change comparison unit 232, and the region determination unit 233 is performed for each pixel. Instead, the determination in the luminance change comparison unit 231, the texture change comparison unit 232, and the region determination unit 233 may be performed for each image (for each frame).
  • a set of pixels in which the luminance change has occurred for the entire image in the luminance change comparison unit 231 is extracted as a luminance change region, and a set of pixels in which the texture change has occurred for the entire image in the texture change comparison unit 232 is performed.
  • the region may be extracted as a texture change region, and the region determination unit 233 may determine that the region that includes pixels that belong to the luminance change region and do not belong to the texture change region is the subject region H.
  • the determination in the region determination unit 233 is performed according to the following criteria.
  • A The area where the luminance change occurs and the texture change occurs is a false signal area.
  • B The area where the brightness change has occurred and the texture change has not occurred is the subject area.
  • C A region other than (a) and (b), that is, a region where no luminance change occurs is a background region.
  • the purpose is to extract the subject area, only the determination based on the above (b) can be performed, and the determination based on the above (a) and (c) can be omitted.
  • the gate unit 234 reads any one of the images used for luminance calculation from the image memory 14, and determines the luminance value of the pixel belonging to the region determined as the subject region H by the region determination unit 233 among the read images.
  • the luminance value of the image of the subject area H is output.
  • the threshold value TI used in the luminance change comparison unit 231 and the threshold value TF used in the texture change comparison unit 232 do not have to be fixed values, and may be adaptively modified by, for example, a known technique.
  • a threshold value may be set using a P-tile method, a mode method, a discriminant analysis method, or the like for a set of luminance change dI or texture change dF.
  • the image acquired from the imaging unit 13 includes a lot of noise due to dark current or charge readout noise in the imaging device, and the luminance change and texture change calculation unit supplied from the luminance change calculation unit 21.
  • the texture change supplied from 22 may contain noise.
  • the subject extraction unit 23 may perform threshold processing in the luminance change comparison unit 231 after performing smoothing filtering on the luminance change dI using a smoothing filter (not shown).
  • smoothing filtering may be performed after threshold processing in the luminance change comparison unit 231 is performed.
  • the texture change comparison unit 232 may perform threshold processing after performing smoothing filtering on the texture change dF using a smoothing filter (not shown).
  • smoothing filtering may be performed after threshold processing in the texture change comparison unit 232 is performed.
  • smoothing filtering may be performed on the determination result in the region determination unit 233.
  • smoothing filter for example, a Gaussian filter or a median filter can be used.
  • the subject is a human hand.
  • FIGS. 11A to 11E show the captured image, the luminance change amount, the texture change amount, and the extracted image when the background changes due to the disappearance of the element B1 constituting the background between time t1a and time t1b.
  • FIG. 11A to 11E show the captured image, the luminance change amount, the texture change amount, and the extracted image when the background changes due to the disappearance of the element B1 constituting the background between time t1a and time t1b.
  • FIGS. 11A and 11B show captured images at times t1a and t1b, respectively, and graphs of the luminance along the line BL (the horizontal axis is the x-axis direction of the image coordinate system, and the vertical axis is the luminance).
  • FIG. 11C shows a region where the luminance has changed between time t1a and time t1b in white, and a graph showing the amount of luminance change along the line BL (the horizontal axis is the x-axis direction of the image coordinate system, the vertical It is a figure which an axis
  • FIG. 11D shows a region where the texture has changed between time t1a and time t1b in white, and a graph showing the amount of change in texture along the line BL (the horizontal axis is the x-axis direction of the image coordinate system, the vertical It is a figure which an axis
  • FIG. 11E shows the extracted subject area in white.
  • the image at time t1a shown in FIG. 11 (a) is an image Ga taken under illumination condition A
  • the image at time t1b shown in FIG. 11 (b) is an image Gb taken under illumination condition B.
  • the subject H is stationary from time t1a to time t1b.
  • the background element B1 exists at time t1a but does not exist at time t1b.
  • the background element B1 is the sun, which is visible at time t1a, but corresponds to the case where it is hidden behind the building at time t1b.
  • the background element B1 Since the background element B1 is very bright, it is not affected by the light emitted from the irradiation unit 12. Of the background, the portion (background portion) B2 other than the background element B1 is sufficiently separated from the irradiation unit 12 and the imaging unit 13, and thus is not affected by the light emitted from the irradiation unit 12.
  • the luminance of the subject H at time t1a is larger than the luminance of the subject at time t1b. Therefore, the subject H is extracted as a region where the luminance change has occurred as shown in FIG.
  • the texture feature does not change due to the change in the illumination condition. Therefore, the subject H is not extracted as a region where the texture change has occurred (FIG. 11D).
  • the background element B1 is different in brightness and texture characteristics from the background part B2, and the background element B1 is extracted as a region in which the background element B1 has disappeared from time t1a to time t1b as a region where the luminance change has occurred (FIG. 11 (c)) and extracted as a region where the texture change has occurred (FIG. 11 (d)).
  • the background portion B2 (strictly speaking, the region other than the region where the background element B1 was present at the time t1a in the background at the time t1b) does not change in luminance or texture from the time t1a to the time t1b, and thus the luminance change region Nor is it extracted as a texture change region (FIG. 11 (c) and FIG. 11 (d)).
  • the area where the brightness change has occurred and the texture change has not occurred is determined as the subject area, and the area where the brightness change has occurred and the texture change has occurred is determined as the false signal area, It can be distinguished from the area where the background element B1 has disappeared, and only the subject area H can be extracted as shown in FIG.
  • FIG. 6 is a diagram illustrating texture change amounts and extracted subject areas.
  • FIG. 12A and 12B show captured images at times t1a and t1b, respectively, and graphs of the luminance along the line BL (the horizontal axis is the x-axis direction of the image coordinate system, and the vertical axis is the luminance value). It is a figure shown by size.
  • FIG. 12C shows a region where the luminance has changed between time t1a and time t1b in white, and a graph showing the amount of luminance change along the line BL (the horizontal axis is the x-axis direction of the image coordinate system, the vertical It is a figure which an axis
  • FIG. 12D shows a region where the texture has changed between time t1a and time t1b in white and a graph showing the amount of texture change along the line BL (the horizontal axis is the x-axis direction of the image coordinate system, the vertical It is a figure which an axis
  • FIG. 12E shows the extracted subject area in white.
  • the image at time t1a shown in FIG. 12A is an image Ga taken under illumination condition A
  • the image at time t1b shown in FIG. 12B is an image Gb taken under illumination condition B.
  • the subject H moves in the right direction from time t1a to time t1b.
  • the background element B1 moves in the right direction from time t1a to time t1b. Since the background element B1 is very bright, it is not affected by the light emitted from the irradiation unit 12.
  • the portion B2 other than the background element B1 is sufficiently separated from the irradiation unit 12 and the imaging unit 13, and thus is not affected by illumination light from the irradiation unit 12.
  • the luminance of the subject H at the time t1a is larger than the luminance of the subject at the time t1b. Therefore, the brightness change result shown in FIG. 12C is extracted as a region where the brightness change has occurred. Since subject H is moving, the left and right boundary parts of the subject area (the part that changed from the subject to the background and the part that changed from the background to the subject due to the movement) are extracted as the areas where the luminance change has occurred. (FIG. 12C).
  • a luminance change is detected due to the difference in brightness between the subject under the illumination condition B and the brightness of the background portion B2, and the right side of the subject area is detected.
  • a change in luminance is detected at the boundary portion (the portion changed from the subject to the background) due to the difference in brightness between the subject under illumination condition A and the background portion B2.
  • the left and right boundary portions of the subject H are the texture features of the background portion B2 and the subject H. Due to the difference, it is extracted as a texture change region (FIG. 12D).
  • the background element B1 is different in brightness and texture from the background part B2, and the background element B1 moves from the time t1a to the time t1b. Therefore, the left and right boundary parts of the background element B1 are extracted as the luminance change area. (Along with FIG. 12C, it is extracted as a texture change region (FIG. 12D)).
  • the background portion B2 (strictly, at the time t1a, the portion that does not become part of the background element B1 at the time t1b), neither the luminance nor the texture changes from the time t1a to the time t1b. It is not extracted as a texture change region (FIG. 12 (c), FIG. 12 (d)).
  • the area where the brightness change has occurred and the texture change has not occurred is determined as the subject area, and the area where the brightness change has occurred and the texture change has occurred is determined as the false signal area, the area of the subject is determined.
  • the boundary portion of the subject H (the portion where the luminance has changed) and the boundary portion of the background element B1 (the portion where the luminance has changed) can be distinguished, and only the subject region H is extracted as shown in FIG. can do.
  • the subject area can be distinguished from not only the background area but also the false signal area based on the luminance change and the texture change, and the subject area can be extracted with high accuracy. it can.
  • the texture feature also changes in the subject area or the background area.
  • the texture feature is calculated after providing a feature extraction region for each pixel. Instead of making a decision based on each pixel and its neighboring pixels, the decision is made based on a wider range of pixels, so that movement of the subject or background element is a change in texture characteristics within the subject region or background region. The effect is small.
  • the change in the texture feature at the region boundary is larger than the change in the region unless the texture of the subject and the background element are similar. Therefore, by providing threshold processing for texture changes, it is possible to distinguish texture changes within the region and extract only texture changes at the region boundary.
  • the imaging irradiation control unit 11 Prior to imaging in each frame period, the imaging irradiation control unit 11 generates control signals C11a and C11b and outputs them to the irradiation unit 12 and the imaging unit 13 in step ST1.
  • the imaging irradiation control unit 11 controls the irradiation unit 12 to alternately perform irradiation under the illumination condition A and irradiation under the illumination condition B for each frame. For example, control is performed so that irradiation is performed under the illumination condition A in the odd-numbered frame, and irradiation is performed under the illumination condition B in the even-numbered frame.
  • the control of such illumination conditions is a control in which two frame periods are set to one cycle, illumination is performed under illumination condition A in the first frame of each cycle, and illumination is performed under illumination condition B in the second frame. Can see.
  • step ST2 the irradiation unit 12 performs irradiation based on the control signal C11a from the imaging irradiation control unit 11. By this irradiation, an illumination condition corresponding to the control signal C11a is generated.
  • step ST3 the imaging performed under the illumination condition generated in step ST2 is performed, and the captured image is acquired and stored in the image memory 14.
  • step ST4 the luminance feature amount calculation unit 211 of the luminance change calculation unit 21 reads the latest image from the image memory 14, and obtains the luminance feature amount Im of the read image.
  • the calculated luminance feature amount Im is stored in the luminance feature amount memory 212.
  • step ST5 the CSLBP feature calculation unit 221 of the texture change calculation unit 22 reads the latest image from the image memory 14, and calculates the CSLBP feature B of each pixel of the read image. To do. Then, the calculated CSLBP feature B is stored in the CSLBP feature memory 222.
  • step ST6 the texture feature calculation unit 223 of the texture change calculation unit 22 reads the CSLBP feature for each pixel of the latest image from the CSLBP feature memory 222, and the same image based on the read CSLBP feature B.
  • the texture feature F for each pixel is calculated.
  • the calculated texture feature F is stored in the texture feature memory 224.
  • step ST7 the illumination condition determination unit 213 of the luminance change calculation unit 21 reads out the luminance feature amount Im of the latest image and the luminance feature amount Im of the image one frame before from the luminance feature amount memory 212 and compares them. Then, it is determined which luminance feature amount Im of the image is higher, and based on the determination result, it is determined which is the image Ga under the illumination condition A and which is the image Gb under the illumination condition B.
  • the result CNa is supplied to the difference calculation unit 215.
  • step ST8 the difference calculation unit 215 of the luminance change calculation unit 21 reads the latest image (image of the current frame) and the image one frame before from the image memory 14, and calculates the luminance difference of each pixel.
  • the calculated luminance difference is accumulated in the luminance change memory 216 as the luminance change dI, and is supplied to the subject extraction unit 23 later.
  • the image of the illumination condition A image determined to have a higher luminance feature amount Im in step ST7
  • the illumination condition B The luminance value of the pixel at the same position in the image (image determined to have a lower luminance feature amount Im in step ST7) Gb is subtracted. If the subtraction result is negative, the luminance change is set to zero.
  • the calculated luminance change dI of each pixel is accumulated in the luminance change memory 216.
  • step ST9 the feature change processing unit 225 of the texture change calculation unit 22 calculates the texture change dF of each pixel between the latest image and the image one frame before.
  • the calculated texture change dF of each pixel is stored in the texture change memory 226.
  • step ST10 the subject extraction unit 23 extracts a subject region based on the luminance change dI and the texture change dF. In the extraction of the subject area, it may be determined for each pixel or each image whether each pixel belongs to the subject area. Below, the procedure in the case of performing for every pixel first is demonstrated with reference to FIG. 14, and the procedure in the case of performing for every image after that is demonstrated with reference to FIG.
  • step ST11 one of the pixels to be processed on the image is selected.
  • it means a pixel to be processed on the image, that is, a pixel other than the peripheral portion of the image.
  • all the pixels located outside the peripheral portion may be simply referred to as “all pixels of the image”.
  • the selection is performed, for example, in the order from the upper left to the lower right of the image.
  • step ST12 the luminance change dI for the selected pixel (target pixel) is read from the luminance change memory 216.
  • step ST13 whether or not the read luminance change dI is larger than the threshold value TI (ie, “ Whether the brightness has changed or not has changed.
  • step ST15 the texture change dF for the target pixel is read from the texture change memory 226.
  • step ST16 it is determined whether or not the read texture change dF is larger than the threshold value TF ("texture change is present” or “texture change is not present”).
  • the threshold value TF when it is determined that “no texture change”), it is determined that the target pixel belongs to the subject area (ST17).
  • the target pixel is a portion where the subject has moved or a portion where the background has changed, that is, a false signal region ( ST18).
  • the portion where the subject has moved is a portion that was a part of the subject one frame before, or a portion that became a part of the background in the latest frame, or a portion of the background one frame before.
  • the part is a part of the subject in the latest frame.
  • step ST19 it is determined whether or not all the pixels to be processed on the image have been selected, that is, whether or not the processing from steps ST12 to ST18 has been performed for all the pixels. If there is a pixel that has not yet been selected, the process returns to step ST11. If all the pixels have been selected, the process proceeds to step ST20. In step ST20, the set of pixels determined to belong to the subject area in step ST17 is output as the extraction result of the subject area H.
  • step ST14 and ST18 may be omitted. In this case, if NO in step ST13 and YES in step ST16, the process immediately proceeds to step ST19.
  • step ST21 the pixels in the image are sequentially selected, the luminance change dI of the selected pixels is read from the luminance change memory 216, and is the read luminance change dI larger than the threshold value TI? It is determined whether or not (that is, “with luminance change” or “without luminance change”). Then, a set of pixels determined as “with luminance change” is extracted as a luminance change region.
  • the pixels in the image are sequentially selected, the texture change dF of the selected pixels is read from the texture change memory 226, and whether or not the read texture change dF is larger than the threshold value TF (“with texture change”). Or “no texture change”). Then, a set of pixels determined to have “texture change” is extracted as a texture change region.
  • next step ST23 a set of pixels that belong to the “luminance change region” and do not belong to the “texture change region” is extracted as the “subject region”.
  • step ST20 a set of pixels determined to belong to the subject area extracted in step ST23 is output as a subject area H extraction result.
  • the texture feature F is calculated for all the pixels of the image, stored in the texture feature memory 224, and then the texture feature F for the same pixel of the two images is read to calculate the texture change dF. Yes.
  • the texture feature F for each pixel of each image is calculated, the texture feature F (for example, the texture feature) previously calculated for the pixel at the same position in the image one frame before the same pixel.
  • the texture change dF for the pixel may be calculated from the texture feature F just calculated. By doing in this way, the time from imaging to calculation of texture change dF can be shortened.
  • a texture change calculation unit 22a shown in FIG. 16 is used instead of the texture change calculation unit 22 shown in FIG. 16 .
  • the texture change calculation unit 22a illustrated in FIG. 16 includes a CSLBP feature calculation unit 221, a CSLBP feature memory 222, a texture feature calculation unit 223a, a texture feature memory 224, a feature change processing unit 225a, and a texture change memory 226. including.
  • the CSLBP feature calculation unit 221, the CSLBP feature memory 222, the texture feature memory 224, and the texture change memory 226 are the same as those shown in FIG.
  • the texture feature calculation unit 223a sequentially calculates the texture feature F for each pixel of each image read from the image memory 14, stores it in the texture feature memory 224, and supplies it to the feature change processing unit 225a.
  • the feature change processing unit 225a receives the texture feature F calculated by the texture feature calculation unit 223a for the selected pixel (target pixel) in the latest image, and stores the one stored in the texture feature memory 224.
  • the texture feature F for the pixel at the same position in the image of the previous frame is received, the change between the two is calculated, and the calculation result is stored in the texture change memory 226 as the texture change dF.
  • the accumulated texture change dF is supplied to the subject extraction unit 23 later.
  • FIGS. 17 and 18 The processing procedure in this case is shown in FIGS. 17 and 18, the same reference numerals as those in FIG. 13 indicate the same or similar processing. That is, in FIG. 17, the processes in steps ST1 to ST4, ST5, and ST7 are the same as those in FIG.
  • step ST11a one of the pixels to be processed on the image is selected. After step ST11a, the process proceeds to step ST8a and step ST6a.
  • step ST8a the difference calculation unit 215 of the luminance change calculation unit 21 for the selected pixel (target pixel) has the same position as the target pixel of the latest image stored in the image memory 14 and the image one frame before.
  • the luminance value of each pixel is read out, the luminance difference is calculated, and the calculated luminance difference is stored in the luminance change memory 216 as the luminance change dI.
  • the stored luminance change dI is supplied to the subject extraction unit 23 later.
  • step ST6a the texture feature calculation unit 223a calculates the texture feature F for the selected pixel (target pixel), stores the calculated texture feature F in the texture feature memory 224, and supplies it to the feature change processing unit 225a. .
  • step ST9a the feature change processing unit 225a stores the texture feature F for the pixel of interest (calculated in step ST6a) supplied from the texture feature calculation unit 223a and the texture feature memory 224.
  • the texture change dF for the target pixel is calculated from the texture feature F for the pixel at the same position in the image of the previous frame, and the calculated texture change dF is stored in the texture change memory 226.
  • the stored texture change dF is supplied to the subject extraction unit 23 later.
  • steps ST6, ST8, and ST9 in FIG. 13 are processes for all the pixels constituting the image
  • steps ST6a, ST8a, and ST9a in FIG. 17 are processes for the selected pixel. It is different.
  • step ST13 it is determined whether or not the luminance change dI calculated in step ST8a is larger than the threshold value TI (that is, “with luminance change” or “without luminance change”). If it is not larger than the threshold value dI (“no change in luminance”), it is determined that the pixel of interest belongs to the background area (ST14).
  • the threshold value TI that is, “with luminance change” or “without luminance change”.
  • step ST16 it is determined whether or not the texture change dF calculated in step ST9a is larger than the threshold value TF (“with texture change” or “without texture change”).
  • step ST19 whether or not all of the pixels to be processed on the image have been selected, that is, whether or not the processing of steps ST6a, ST8a, ST9a, ST13, ST14, ST16 to ST18 has been performed for all pixels. Judgment is made. If there is a pixel that has not yet been selected, the process returns to step ST11a. If all the pixels have been selected, the process proceeds to step ST20. In step ST20, the set of pixels determined to belong to the subject area in step ST17 is output as the extraction result of the subject area H.
  • steps ST14 and ST18 may be omitted in the same manner as described with reference to FIG. In this case, if NO in step ST13 and YES in step ST16, the process immediately proceeds to step ST19.
  • steps ST6a and ST9a are performed before step ST13. Instead of doing this, if YES is determined in step ST13, then, It is good also as processing of step ST6a and step ST9a, and progressing to step ST16 after that.
  • the imaging irradiation control unit 11 outputs the control signal C11a for controlling the illumination conditions and the control signal C11b for controlling the imaging conditions, and the irradiation unit 12 controls the control signal C11a.
  • the luminance change calculation unit 21 calculates a luminance change dI between two images captured under different illumination conditions
  • the texture change calculation unit 22 is different.
  • the texture change dF between the two images taken at the time is calculated, and the subject extraction unit 23 calculates the brightness change caused by the illumination change, the background change or the subject change from the brightness change dI and the texture change dF.
  • the brightness change caused by the movement is discriminated. Accordingly, the subject area can be extracted with high accuracy.
  • a region where background change or subject movement occurs has a luminance change and texture change.
  • a luminance change and texture change Under a condition where there is no background change and subject movement, only a luminance change due to illumination change occurs.
  • a first illumination condition that emits light at a first emission intensity
  • a second illumination condition that emits light at a second emission intensity that is smaller than the first emission intensity
  • the luminance change calculation unit 21 matches the illumination condition of the image used for calculating the luminance change with the illumination condition of the image used by the texture change calculation unit 22 for the calculation of the texture change.
  • the cause of the change can be discriminated between a change in illumination, a change in the background, and a subject movement, and the subject region can be extracted with higher accuracy.
  • an illumination distribution in which illumination light is appropriately irradiated to a subject to be extracted can be set as one of the illumination conditions, so that the position and size of the subject can be adjusted. Accordingly, an image suitable for calculation of luminance change and texture change can be acquired.
  • the intensity of light that can be irradiated with an appropriate amount of illumination light according to the reflectance of the subject to be extracted can be set as one of the illumination conditions.
  • An image suitable for calculation can be acquired.
  • both of the above two conditions can be used as illumination conditions, and by doing so, an image suitable for calculation of luminance change and texture change is acquired according to the position, size and reflectance of the subject. can do.
  • the subject area is extracted using two illumination conditions (illumination condition A and illumination condition B) that are conditioned on the intensity of the emitted light.
  • illumination condition A and illumination condition B Two illumination conditions may be prepared in consideration.
  • the illumination condition is set so that the illumination light is appropriately distributed to the subject position.
  • the irradiation distribution may be set according to local changes in ambient light. The irradiation distribution may be adjusted, for example, by changing the irradiation angle of the LEDs, or the irradiation distribution may be adjusted by selecting an LED that emits light from a plurality of LEDs.
  • the luminance change and texture change are calculated between the two images.
  • the present invention is not limited to this, and brightness change and texture change may be calculated between three or more images.
  • the luminance change and texture change may be calculated between a plurality of images.
  • When changing the brightness between three or more images use each image obtained by imaging under different lighting conditions, and when changing the texture between three or more images As each image, images obtained by imaging at different times are used. Images obtained by imaging at different times may be images obtained by imaging under different illumination conditions. Therefore, it may be the same as the image used for calculating the luminance change.
  • the memory amount or the processing amount increases. That is, hardware resources increase and processing time becomes long. Therefore, it is necessary to determine the number of images used for calculating the luminance change and the texture change in consideration of these points.
  • the luminance value of the image Gb under the illumination condition B is subtracted from the luminance value of the image Ga under the illumination condition A.
  • the present invention is not limited to this.
  • the absolute value of the luminance difference may be used.
  • the texture change is calculated using the same image as the image used for the luminance change calculation.
  • the present invention is not limited to this. If two images are captured at different times, the background change or subject movement can be captured by calculating the texture change regardless of the illumination conditions. However, it is necessary to use an image captured at a timing sufficiently close to the image used for the luminance change calculation.
  • the texture change dF is calculated for all the pixels on the image. However, based on the calculated brightness change dI, a region where the brightness change has occurred (the brightness change dI is larger than the threshold value TI). The texture change dF may be calculated only for the pixels in the region. In this case, the processing amount of the texture change dF is reduced.
  • a square feature extraction region centered on the target pixel is used when calculating the texture feature.
  • the shape of the feature extraction region is not limited to this. That is, the feature extraction region shape may be a circle or a polygon other than a quadrangle. However, in any case, it is desirable that the pixel of interest is the center. Further, the size of the feature extraction region is not limited to the above example.
  • the calculation of the texture feature and the calculation of the texture change are performed for each of all the pixels other than the pixels located at the peripheral edge of the image.
  • the present invention is not limited to this.
  • the calculation of the texture feature and the calculation of the texture change may be performed only for pixels located at predetermined intervals in a portion other than the peripheral portion of the image.
  • a lattice pattern may be drawn on the image as shown in FIG. 19, and texture features and texture changes may be calculated only for pixels located at the lattice points.
  • the lattice is a square lattice, and the vertical interval and the horizontal interval between the lattice points are indicated by a symbol D.
  • the texture feature calculation and the texture change calculation are performed only for the pixels located at the lattice points, the pixels located outside the lattice points are calculated for the pixels at the nearest lattice point positions.
  • the texture feature and the texture change may be used as the texture feature and the texture change for a pixel located outside the lattice point.
  • the pixel for which the texture feature and the texture change are calculated is not limited to the pixel located at the lattice point on the image.
  • the spacing between pixels for which texture features and texture changes are calculated may not be uniform throughout the image.
  • the density of pixels subject to calculation of texture features and texture changes is high in the vicinity of the region, and the texture features and texture changes in other regions.
  • the density of pixels to be calculated may be lowered.
  • the feature extraction region is divided into 4 ⁇ 4 cells when calculating the texture features.
  • the number of cells is not limited to this.
  • more detailed texture features can be obtained by increasing the number of cells, making each cell smaller, and increasing the number of cells in the feature extraction region. The load increases.
  • the number and size of cells may be determined.
  • the illumination condition of the image read from the image memory 14 is determined from the luminance feature amount (for example, average luminance value) of the image, but the present invention is not limited to this.
  • a signal indicating an illumination condition for example, light emission intensity
  • the imaging unit 13 determines the illumination condition based on the above signal, and the captured image is obtained.
  • Information (additional information) indicating illumination conditions is added when storing the image in the image memory 14, and when the luminance change calculation unit 21 reads an image from the image memory 14, the illumination conditions of the image are based on the additional information. It is good also as judging.
  • one of the images used for luminance calculation is read from the image memory 14, and a portion of the read image that matches the subject area extracted by the subject extraction unit 23 is extracted (subject Image).
  • subject Image a portion of the read image that matches the subject area extracted by the subject extraction unit 23 is extracted.
  • the present invention is not limited to this.
  • an image composed of the luminance changes calculated by the luminance change calculation unit 21 (an image in which the luminance changes of all the pixels are arranged in the same manner as the respective pixels), that is, the subject extraction unit 23 in the luminance difference image.
  • a portion that matches the extracted subject area may be used as the extraction result (subject image). Since the luminance difference image is free from the influence of ambient light, it is advantageous in that respect if the image extracted from the luminance difference image is the subject image.
  • the luminance change calculation unit 21 reads the latest image and the image one frame before from the image memory 14 and calculates the luminance change of each pixel between the two images. .
  • the luminance change is calculated between the image Ga under the illumination condition A and the image Gb under the illumination condition B that follows, and the luminance between the image Gb under the illumination condition B and the image Ga under the illumination condition A that follows it is also calculated. Change will be calculated. The same applies to texture changes.
  • the luminance change is calculated between the image Ga of the illumination condition A and the image Gb of the illumination condition B of the immediately following frame, and the illumination of the image Ga of the illumination condition A and the immediately preceding frame is calculated.
  • the luminance change calculation unit 21 may be configured not to calculate the luminance change between the image Gb of the condition B. In other words, the luminance change may be calculated only when the latest image is the image B under the illumination condition B and the immediately preceding image is the image Ga under the illumination condition A.
  • the texture change calculation unit 22 may be configured to calculate the texture change only when the latest image is the image Gb under the illumination condition B and the immediately preceding image is the image Ga under the illumination condition A. good.
  • step ST7a is performed instead of step ST7 of FIG.
  • step ST7a it is determined whether or not the latest image is the image Gb of the lighting condition B. If the determination result is NO, the process in the frame is terminated. If the determination result is YES, step ST7a is performed. Processes after ST8 and ST9 are performed.
  • the luminance change and the texture change may be calculated only when the latest image is the image Ga under the illumination condition A and the immediately preceding image is the image Gb under the illumination condition B.
  • FIG. FIG. 21 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 2 of the present invention.
  • the imaging apparatus shown in FIG. 21 is generally the same as the imaging apparatus shown in FIG. 1 except that a target value calculation unit 24 is added and an imaging irradiation control unit 11b is provided instead of the imaging irradiation control unit 11. Different. Since the same reference numerals as those in FIG. 1 except that a target value calculation unit 24 is added and an imaging irradiation control unit 11b is provided instead of the imaging irradiation control unit 11. Different. Since the same reference numerals as those in FIG.
  • the illumination condition and the imaging condition are fixed.
  • the target value calculation unit 24 uses the texture change, the subject region extraction result, and the captured image. By adjusting at least one of the illumination condition and the imaging condition based on the luminance feature amount, the accuracy of the extraction of the subject area is improved with respect to the ambient light or the background change.
  • the adjustment of the illumination condition or the imaging condition is performed by adjusting the target value related to the illumination condition or the imaging condition, and performing control so that the actual value related to the illumination condition or the imaging condition matches the target value.
  • the imaging irradiation control unit 11b is supplied with the target value signal Q related to the illumination condition and the imaging condition from the target value calculation unit 24, generates a control signal C11a based on the target value signal Q, and outputs the control signal C11a to the irradiation unit 12. At the same time, the control signal C11b is generated and output to the imaging unit 13.
  • the target value calculation unit 24 reads an image captured under two illumination conditions from the image memory 14, is supplied with the texture change dF from the texture change calculation unit 22, and further extracts the subject region from the subject extraction unit 23. Is supplied, and at least one target value of the illumination condition and the imaging condition is calculated based on these inputs, and a target value signal Q representing the calculated target value is output to the imaging irradiation control unit 11b.
  • the target value signal Q output from the target value calculation unit 24 to the imaging irradiation control unit 11b is used by the imaging irradiation control unit 11b to generate control signals C11a and C11b.
  • the target value signal Q represents, for example, at least one target value of the shape of the illumination light irradiation distribution, the illumination light emission intensity, the illumination light emission period, the exposure time of the imaging unit, the aperture, and the gain. is there.
  • the target value signal Q represents the target value of a numerical value (absolute value) that directly represents the shape of the illumination light irradiation distribution, the intensity of the illumination light emission, the illumination light emission period, the exposure time of the imaging unit, the aperture, and the gain.
  • the present invention is not limited to this, and it may represent a target value of a relative value, and may further encode an absolute value or a relative value.
  • the target value signal Q represents the target value of the emission intensity of illumination light.
  • the target value calculation unit 24 calculates the target value so that the imaging unit 13 can acquire an image suitable for the calculation of the luminance change dI in the luminance change calculation unit 21 and the calculation of the texture change dF in the texture change calculation unit 22. To do.
  • the target value calculated by the target value calculation unit 24 is accumulated in an internal target value memory 244 (described later).
  • the target value calculation unit 24 reads the target value accumulated in the target value memory 244 and captures the target value signal Q representing the read target value when the imaging irradiation control unit 11b controls the illumination condition or the imaging condition. It supplies to the irradiation control part 11b.
  • the target value calculation unit 24 includes an in-subject change area extraction unit 241, an area determination unit 242, a target value adjustment unit 243, and a target value memory 244, as shown in FIG.
  • the in-subject change region extraction unit 241 extracts a region RLH that is located inside the subject region H output from the subject extraction unit 23 and has a relatively large texture change dF.
  • whether or not the texture change is relatively large is determined based on the texture change dF output from the texture change calculation unit 22. For example, an area where the texture change dF is larger than the threshold value TFa is determined as the texture change area RLH, and other areas are determined as the non-change area RLL.
  • An area in which the texture change dF is determined to be greater than the threshold TFa in the in-subject change area extraction unit 241 in order to distinguish it from an area (texture change area) in which the texture change dF is determined to be greater than the threshold TF in the subject extraction unit 23 Is referred to as an in-subject change area.
  • the threshold value TFa is determined so as to satisfy, for example, TFa ⁇ TF.
  • the threshold value TFa it is determined that the subject region extracted using the threshold value TF in the subject extraction unit 23 (the luminance change dI is equal to or greater than the threshold value TI and the texture change dF is equal to or less than the threshold value TF.
  • Area texture change area
  • RLH in which the texture change dF is larger than another threshold value TFa can be extracted.
  • the area determination unit 242 determines whether the area of the in-subject change region RLH extracted by the in-subject change region extraction unit 241 (for example, the number of pixels included in the region RLH) is equal to or greater than a threshold value TAa. Is output.
  • the texture change dF in the subject area represents a texture change between images in which the illumination condition has changed
  • the in-subject change area RLH can be determined as an area in which the texture feature has changed due to the change in the illumination condition.
  • texture features change little due to changes in lighting conditions, but nevertheless, if texture features change to some extent due to changes in lighting conditions, that is, if the area of the in-subject change region RLH is greater than or equal to the threshold value TAa Is determined to require adjustment (change) of illumination conditions or imaging conditions.
  • the target value adjustment unit 243 calculates a new target value according to the determination result.
  • the new target value is determined so that the difference in light emission intensity is reduced under the two illumination conditions A and B.
  • a texture change is performed using an image captured under illumination condition A (light emission intensity ⁇ A (t1a)) at time t1a and an image captured under illumination condition B (light emission intensity ⁇ B (t1b)) at time t1b.
  • the target value ⁇ A (t2a) of the light emission intensity at the next imaging time t2a under the illumination condition A and the target value ⁇ B of the light emission intensity at the next imaging time t2b under the illumination condition B ( t2b) is adjusted as shown in equations (5) and (6), respectively.
  • ⁇ A (t2a) ⁇ A (t1a) ⁇ a (5)
  • ⁇ B (t2b) ⁇ B (t1b) + ⁇ a (6)
  • ⁇ a represents the adjustment amount.
  • the irradiation unit 12 By adjusting the target value of the light emission intensity and giving the adjusted target value to the irradiation unit 12, the irradiation unit 12 performs control so that the actual value of the light emission intensity matches the target value.
  • the image Ga, Gb used to calculate the luminance change dI matches the in-subject change region RLH in the image Gb imaged under the condition B having a lower emission intensity.
  • the target value is adjusted so that the light emission intensity in the illumination condition B (the illumination condition B having a smaller light emission intensity) is increased. That is, the target value ⁇ B of the light emission intensity in the illumination condition B is increased.
  • the luminance feature amount Ih is, for example, a maximum value, an average value, or a median value of luminance values. In the following description, it is assumed that the average value of the luminance values is used as the luminance feature amount Ih.
  • the brightness using the image Ga captured at the time t1a under the illumination condition A (light emission intensity ⁇ A (t1a)) and the image Gb captured at the time t1b under the illumination condition B (light emission intensity ⁇ B (t1b)).
  • the target value ⁇ B (t2b) of the light emission intensity at the time t2b of the next imaging under the illumination condition B is adjusted as shown in the equation (7) to be larger.
  • ⁇ B (t2b) ⁇ B (t1b) + ⁇ b (7)
  • the luminance of the region that matches the in-subject change region RLH in the image Ga captured under the condition (A) with a higher emission intensity is adjusted so that the light emission intensity in the illumination condition A (condition A having a higher light emission intensity) becomes smaller. That is, the target value ⁇ A of the light emission intensity in the illumination condition A is reduced.
  • the brightness using the image Ga captured at the time t1a under the illumination condition A (light emission intensity ⁇ A (t1a)) and the image Gb captured at the time t1b under the illumination condition B (light emission intensity ⁇ B (t1b)).
  • the target value ⁇ A (t2a) of the light emission intensity at the time t2a of the next imaging under the imaging condition A is adjusted as shown in the equation (9) to make it smaller.
  • ⁇ A (t2a) ⁇ A (t1a) ⁇ c (9)
  • the emission intensity target value ⁇ A (t2a) at the next imaging time t2a under the illumination condition A and the emission intensity at the next imaging time t2b under the illumination condition B The target value ⁇ B (t2b) is adjusted as shown in equations (11) and (12), respectively.
  • ⁇ A (t2a) ⁇ A (t1a) + ⁇ d (11)
  • ⁇ B (t2b) ⁇ B (t1b) ⁇ d (12)
  • the adjustment amounts ⁇ a to ⁇ d are sufficiently smaller than the emission intensities ⁇ A and ⁇ B. If the adjustment amounts ⁇ a to ⁇ d are too large, the light emission intensities ⁇ A and ⁇ B oscillate, which is not desirable. In order to stabilize the light emission intensities ⁇ A and ⁇ B, the time delay until the update is important, and the magnitudes of the adjustment amounts ⁇ a to ⁇ d are set in consideration of these.
  • the target value adjustment unit 243 writes the target value updated as described above into the target value memory 244 and supplies a target value signal Q representing the target value to the imaging irradiation control unit 11b.
  • FIGS. 23 and 24 The procedure of the process shown in FIGS. 23 and 24 is generally the same as the method shown in FIG. 13, but differs in that step ST1b is included instead of step ST1, and steps ST31 to ST34 are added. 23 and 24, the same reference numerals as those in FIG. 13 indicate the same or corresponding steps.
  • step ST ⁇ b> 1 b the imaging irradiation control unit 11 b is supplied with a target value signal Q representing the illumination condition and the target value of the imaging condition from the target value calculation unit 24, and receives the control signal C ⁇ b> 11 a and the control signal C ⁇ b> 11 b according to the target value signal Q. Output.
  • the illumination conditions are controlled so as to change with two frame periods as one cycle, as in step ST1 of FIG.
  • step ST31 the in-subject change area extraction unit 241 extracts the in-subject change area RLH from the subject area H detected in step ST10 and the texture change dF calculated in step ST9.
  • step ST32 the area determination unit 242 determines whether or not the area of the in-subject change region RLH extracted in step ST31 is equal to or greater than a threshold value TAa. If the area of the in-subject change region RLH is less than the threshold value TAa, the processing for that frame is terminated. If the area of the in-subject change region RLH is greater than or equal to the threshold value TAa, the process proceeds to step ST33.
  • step ST33 the target value adjustment unit 243 reads out the target value stored in the target value memory 244, the in-subject change area RLH extracted in step ST31, the texture change dF calculated in step ST9, and the image A new target value is calculated from the image data (latest image data) stored in the memory 14, and the calculated new target value is written into the target value memory 244 (for example, overwriting the old target value). Then, a target value signal Q representing a new target value is supplied to the imaging irradiation controller 11b. The calculation of the new target value can be performed as described with reference to the equations (5) to (12).
  • step ST34 the imaging irradiation control unit 11b generates control signals C11a and C11b (updates the contents) based on the target value signal Q supplied from the target value calculation unit 24.
  • the illumination conditions in the frames of the respective ranks (first frame and second frame) in each cycle consisting of two frame periods are updated by the control signals C11a and C11b.
  • the imaging is performed under the updated illumination condition for the frame of the order.
  • the target value calculation unit 24 calculates the target value of the emission intensity of the illumination light as the target value of the illumination condition, but instead calculates the target value of the illumination light irradiation distribution. Alternatively, both the target value of the emission intensity of the illumination light and the target value of the illumination light irradiation distribution may be calculated.
  • the illumination condition adjustment (new target value) is performed based on the luminance feature amount of the region that matches the intra-subject change region RLH in the images Ga and Gb used for calculating the luminance change dI. Decision).
  • adjustment of illumination conditions may be performed based on the entire luminance feature amount of the subject areas of the images Ga and Gb used for calculating the luminance change dI.
  • the imaging apparatus in the region extracted as the subject region, at least one of the illumination condition and the imaging condition based on at least one of the luminance feature amount Ih and the texture change dF.
  • One of the target values is calculated, and the imaging irradiation control unit 11b outputs the control signals C11a and C11b based on the target value signal Q representing the calculated target value.
  • An image suitable for extraction of the subject area can be acquired, and the accuracy of extraction of the subject area can be improved.
  • the subject region is extracted with respect to local environmental light changes. Therefore, it is possible to obtain a suitable image and improve the accuracy of extraction of the subject area.
  • the area of the extracted subject region where the texture change dF calculated using images with different illumination conditions is larger than the threshold value TFa (subject change region RLH).
  • the target value of at least one of the illumination condition and the imaging condition is calculated so that the texture change dF between the images with different illumination conditions becomes small.
  • the target value of at least one of the illumination condition and the imaging condition is calculated so that the texture change dF of the image becomes larger.
  • the area of the extracted subject region where the texture change dF calculated using images with different illumination conditions is larger than the threshold value TFa (subject change region RLH).
  • the luminance feature amount of the subject area for example, the in-subject change area RLH, among the images under the illumination conditions with lower emission intensity.
  • the target value of the illumination condition is calculated so as to increase the emission intensity of the above-described illumination condition (the illumination condition with the lower emission intensity) (that is, the emission intensity target) Increase the value).
  • the area of the region (subject change region RLH) in which the texture change dF calculated using images with different illumination conditions is larger than the threshold value TFa is equal to or greater than the threshold value (TAa), and the luminance Among the images used for calculation of the change dI, the luminance feature amount of the subject area, for example, the luminance feature amount Ih in the in-subject change area RLH is larger than the threshold among the images with illumination conditions having a higher emission intensity.
  • a target value related to the illumination condition is calculated so as to reduce the emission intensity of the above-described illumination condition (the illumination condition having a higher emission intensity) (that is, the target value of the emission intensity is reduced).
  • FIG. FIG. 25 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 3 of the present invention.
  • the imaging device shown in FIG. 25 is generally the same as the imaging device shown in FIG. 21, but the imaging irradiation control unit 11b, the luminance change calculation unit 21, the texture change calculation unit 22, the subject extraction unit 23, and the like shown in FIG. Instead of the target value calculation unit 24, the imaging irradiation control unit 11c, the luminance change calculation unit 21c, the texture change calculation unit 22c, the subject extraction unit 23c, and the target value calculation unit 24c are different. Since the same reference numerals as those in FIG.
  • the texture change calculation unit 22 calculates a single texture change dF from two images taken under different illumination conditions at different times.
  • the texture change calculation unit 22c calculates the first texture change dF1 from two images captured under the same illumination condition at different times, and different illuminations at different times.
  • a second texture change dF2 is calculated from the two images captured under the conditions.
  • the imaging irradiation control unit 11c in FIG. 25 changes the illumination condition with a period of 3 frames (one cycle), In the cycle, after the illumination condition A is generated for one frame period, the illumination condition B is continuously generated for two frames. That is, imaging is performed under the first illumination condition A in the first frame of each cycle, and imaging is performed under the second illumination condition B in the second frame and the third frame. As a result, the illumination conditions are different between the first frame and the second frame, and the illumination conditions are the same between the second frame and the third frame.
  • the luminance change dI and the second texture change dF2 are calculated from the first frame image Ga and the second frame image Gb1, and the first texture change is calculated from the second frame image Gb1 and the third frame image Gb2.
  • dF1 is calculated.
  • a subject area is extracted from the luminance change dI and the first texture change dF1 calculated as described above.
  • an in-subject change area RLH is extracted from the subject area extracted in this way and the second texture change dF2.
  • the luminance change calculation unit 21c includes a luminance feature amount calculation unit 211, a luminance feature amount memory 212, an illumination condition determination unit 213c, a difference calculation unit 215, and a luminance change memory 216.
  • the luminance feature amount calculation unit 211 calculates the luminance feature amount Im of the image of each frame read from the image memory 14, and stores the calculated luminance feature amount Im in the luminance feature amount memory 212.
  • the illumination condition determination unit 213c includes the luminance feature amount Im of the latest image (the latest frame image) calculated by the luminance feature amount calculation unit 211 and the image of the previous frame stored in the luminance feature amount memory 212. Are compared with the luminance feature quantity Im of the image two frames before. These images are images of three consecutive frames.
  • the illumination condition determination unit 213c compares the luminance feature amounts Im of the images of these three frames, and based on the comparison result, which image is the image Ga of the illumination condition A and which image is the image of the illumination condition B It is determined whether Gb1 and Gb2. Further, it is determined which number of each image is in each cycle of changing illumination conditions.
  • the determination result CNb is supplied to the difference calculation unit 215 and the texture change calculation unit 22c.
  • the difference calculation unit 215 receives the determination result CNb from the illumination condition determination unit 213c, thereby recognizing what number image in each cycle of the illumination condition change is the latest image. Then, from the luminance value of each pixel of the first image (image of illumination condition A) Ga in each cycle of the change in illumination condition, the second image (image of illumination condition B) in each cycle of the change in illumination condition ) Subtract the luminance value of the pixel at the same position in Gb1 to obtain the luminance difference and output it as the luminance change dI. As described in the first embodiment, when the subtraction result is a negative value, the luminance difference is assumed to be zero.
  • the texture change calculation unit 22c outputs the first texture change dF1 to the subject extraction unit 23c, and outputs the second texture change dF2 to the target value calculation unit 24c.
  • the texture change calculation unit 22c includes a CSLBP feature calculation unit 221, a CSLBP feature memory 222, a texture feature calculation unit 223, a texture feature memory 224, a feature change processing unit 225c, and a texture change memory. 226.
  • the feature change processing unit 225c receives the determination result CNb from the illumination condition determination unit 213c in the luminance change calculation unit 21c, so that the latest image is the numbered image in each cycle of the illumination condition change. Recognize Then, the texture change between the first image Ga and the second image Gb1 in each cycle is calculated as a second texture change dF2. Further, the texture change between the second image Gb1 and the third image Gb2 in each cycle is calculated as the first texture change dF1.
  • the calculated first texture change dF 1 and second texture change dF 2 are stored in the texture change memory 226.
  • the accumulated first texture change dF1 is supplied to the subject extraction unit 23c later.
  • the accumulated second texture change dF2 is supplied to the target value calculation unit 24c later.
  • the subject extraction unit 23c is the same as the subject extraction unit 23 described in the first embodiment. However, the first texture change DF1 is used as the texture change. That is, the subject extraction unit 23c extracts a subject region based on the luminance change dI calculated by the luminance change calculation unit 21c and the first texture change dF1 calculated by the texture change calculation unit 22c, and the extraction result H is output to the target value calculation unit 24c.
  • the processing in which the subject extraction unit 23c extracts the subject area based on the luminance change dI and the texture change dF1 is the processing in which the subject extraction unit 23 extracts the subject region based on the luminance change dI and the texture change dF in the first embodiment. Is the same.
  • the target value calculation unit 24c reads an image captured under two illumination conditions from the image memory 14, is supplied with the second texture change dF2 from the texture change calculation unit 22c, and extracts the subject region H from the subject extraction unit 23c. And a target value related to at least one of the illumination condition and the imaging condition is calculated based on these inputs, and a target value signal Q representing the calculated target value is output to the imaging irradiation control unit 11c.
  • the target value calculation unit 24c is the same as the target value calculation unit 24 of the second embodiment, and the target value signal Q supplied from the target value calculation unit 24c to the imaging irradiation control unit 11c is described in the second embodiment. It is the same as that. However, the second texture DF2 is supplied as the texture change.
  • the in-subject change region extraction unit 241 of the target value calculation unit 24c extracts a region RLH that is located inside the subject region H output from the subject extraction unit 23c and has a relatively large texture change.
  • whether or not the texture change is relatively large is determined based on the texture change dF2 output from the texture change calculation unit 22c.
  • an area where the texture change dF2 is greater than the threshold TFa is determined as the in-subject change area RLH, and the other areas are determined as the unchanged area RLL.
  • the threshold value TFa the second embodiment has described that TFa ⁇ TF is preferable, but the third embodiment has no such restriction.
  • the second texture dF2 is more than the threshold value TFa (different from the threshold value TF) in the subject area where the first texture dF1 is determined to be equal to or less than the threshold value TF in the subject extraction unit 23c.
  • a large region (subject change region) RLH can be extracted.
  • the area determination unit 242 determines whether the area of the in-subject change region RLH extracted by the in-subject change region extraction unit 241, for example, the number of pixels included in the region RLH is equal to or greater than a threshold value TAa, and the determination result is determined. Output.
  • the target value adjustment unit 243 calculates a new target value according to the determination result.
  • the new target value is determined so that the difference in light emission intensity is reduced under the two illumination conditions A and B.
  • the second image is captured using the image captured under the illumination condition A (light emission intensity ⁇ A (t1a)) at time t1a and the image captured under the illumination condition B (light emission intensity ⁇ B (t1b)) at time t1b.
  • the texture change dF2 is calculated, the target value ⁇ A (t2a) of the emission intensity at the next imaging time t2a under the illumination condition A and the emission intensity at the time t2b of the next imaging under the illumination condition B
  • the target value ⁇ B (t2b) is adjusted as shown in equations (13) and (14), respectively.
  • ⁇ A (t2a) ⁇ A (t1a) ⁇ a (13)
  • ⁇ B (t2b) ⁇ B (t1b) + ⁇ a (14)
  • ⁇ a the adjustment amount.
  • the irradiation unit 12 By adjusting the target value of the light emission intensity and giving the adjusted target value to the irradiation unit 12, the irradiation unit 12 performs control so that the actual value of the light emission intensity matches the target value.
  • the image Ga, Gb1 used to calculate the luminance change dI matches the in-subject change region RLH in the image Gb1 imaged under the condition B having a lower emission intensity.
  • the target value is adjusted so that the light emission intensity in the illumination condition B (the illumination condition B having a smaller light emission intensity) is increased. That is, the target value ⁇ B of the light emission intensity in the illumination condition B is increased.
  • the luminance feature amount Ih referred to here is, for example, the maximum value, the average value, and the median value of the luminance values. In the following description, it is assumed that the average value of luminance values is used as the luminance feature amount Ih.
  • the brightness using the image Ga captured at the time t1a under the illumination condition A (light emission intensity ⁇ A (t1a)) and the image Gb1 captured at the time t1b under the illumination condition B (light emission intensity ⁇ B (t1b)).
  • the target value ⁇ B (t2b) of the light emission intensity at the time t2b of the next imaging under the illumination condition B is adjusted as shown in the equation (15) to be larger.
  • ⁇ B (t2b) ⁇ B (t1b) + ⁇ b
  • the luminance of an area that matches the in-subject change area RLH in the image Ga captured under the condition (A) with a higher emission intensity is adjusted so that the light emission intensity in the illumination condition A (condition A having a higher light emission intensity) becomes smaller. That is, the target value ⁇ A of the light emission intensity in the illumination condition A is reduced.
  • the brightness using the image Ga captured at the time t1a under the illumination condition A (light emission intensity ⁇ A (t1a)) and the image Gb1 captured at the time t1b under the illumination condition B (light emission intensity ⁇ B (t1b)).
  • the target value ⁇ A (t2a) of the light emission intensity at the time t2a of the next imaging under the imaging condition A is adjusted as shown in the equation (17) to make it smaller.
  • ⁇ A (t2a) ⁇ A (t1a) ⁇ c (17)
  • the emission intensity target value ⁇ A (t2a) at the next imaging time t2a under the illumination condition A and the emission intensity at the next imaging time t2b under the illumination condition B The target value ⁇ B (t2b) is adjusted as shown in equations (19) and (20), respectively.
  • ⁇ A (t2a) ⁇ A (t1a) + ⁇ d (19)
  • ⁇ B (t2b) ⁇ B (t1b) ⁇ d (20)
  • the adjustment amounts ⁇ a to ⁇ d are sufficiently smaller than the emission intensities ⁇ A and ⁇ B. If the adjustment amounts ⁇ a to ⁇ d are too large, the light emission intensities ⁇ A and ⁇ B oscillate, which is not desirable. In order to stabilize the light emission intensities ⁇ A and ⁇ B, the time delay until the update is important, and the magnitudes of the adjustment amounts ⁇ a to ⁇ d are set in consideration of these.
  • the target value adjusting unit 243 writes the target value updated as described above into the target value memory 244 and supplies a target value signal Q representing the target value to the imaging irradiation control unit 11c.
  • FIGS. 28 and 29 is generally the same as the procedure shown in FIGS. 23 and 24, but steps ST1c, ST7c, ST8c, ST9c are used instead of steps ST1b, ST7, ST8, ST9, ST10, ST31. , ST10d and ST31d are different. 28 and 29, the same reference numerals as those in FIGS. 23 and 24 indicate the same or corresponding steps.
  • step ST1c the imaging irradiation control unit 11c is supplied with the target value signal Q representing the illumination condition and the target value of the imaging condition from the target value calculation unit 24c, and receives the control signal C11a and the control signal C11b according to the target value signal Q. Output.
  • Step ST1c is the same as step ST1b in FIG. 23, but differs in step ST1c in FIG. 28 in that the illumination condition changes with three frame periods as one cycle.
  • step ST7c the illumination condition of the image is determined for the combination of the latest image and the image one frame before.
  • the combination of the latest image and the image one frame before is a combination (AB) of the image of the first frame and the image of the second frame in the three-frame cycle, or the image of the second frame.
  • the third frame image (BB), or the third frame image and the first frame image combination (BA) in the next three-frame cycle.
  • This determination is performed by storing and comparing changes in the brightness of the image of the frame supplied before and after that described in the first embodiment.
  • the control signals C11a and C11b may be obtained from the imaging irradiation control unit 11c, and this determination may be performed based on the control signals.
  • step ST7c When it is determined in step ST7c that the combination is the first frame and second frame image (AB), the process proceeds to step ST8c and step ST9c.
  • steps ST8c and ST9c are the same as the processes in steps ST8 and ST9 in the first embodiment.
  • step ST8c the difference calculation unit 215 of the luminance change calculation unit 21c calculates the luminance change dI of each pixel of the latest frame image (second frame image) and the previous frame image (first frame image). To do. Then, the calculated luminance change dI of each pixel is stored in the luminance change memory 216.
  • step ST9c the texture change calculation unit 22c calculates the texture change of each pixel of the latest frame image (second frame image) and the previous frame image (first frame image). Are output as texture dF2 and stored in the texture change memory 226.
  • the process in this frame period is terminated.
  • the luminance change dI stored in the luminance change memory 216 in step ST8c and the second texture change dF2 stored in the texture change memory 226 in step ST9c are used in the next frame period.
  • step ST7c If it is determined in step ST7c that the combination is the second frame image and the third frame image (BB), the process proceeds to step ST9d.
  • step ST9d the texture change calculation unit 22c calculates the texture change of each pixel of the latest frame image (third frame image) and the previous frame image (second frame image), and the first texture dF1. In addition to outputting, it is stored in the texture change memory 226.
  • step ST10d following step ST9d, a subject area is extracted. This process is the same as step ST10 in FIG. However, although the texture change dF is used in step ST10 of FIG. 13, the first texture change dF1 calculated in step ST9d is used in step ST10d of FIG. Further, as the luminance change dI, the one calculated in step ST8c before one frame period is used.
  • step ST31d the process in step ST31d is the same as the process in step ST31 in FIG. 24, but uses the second texture change dF2 calculated in step ST9c for detection of the in-subject change region RLH. That is, in step ST31d, the in-subject change area extraction unit 241 extracts the in-subject change area RLH from the subject area H detected in step ST10d and the second texture change dF2 calculated in step ST9c.
  • step ST32 the area determination unit 242 determines whether the area of the in-subject change region RLH extracted in step ST31d is equal to or greater than the threshold value TAa. If the area of the in-subject change region RLH is less than the threshold value TAa, the processing for that frame is terminated. If the area of the in-subject change region RLH is greater than or equal to the threshold value TAa, the process proceeds to step ST33.
  • step ST33 the target value adjustment unit 243 reads the target value stored in the target value memory 244, and is calculated in the subject change area RLH extracted in step ST31d and in step ST9c (in the previous frame period).
  • a new target value is calculated from the second texture change dF2 and the image data (image data of the latest frame) stored in the image memory 14, and the calculated new target value is written in the target value memory 244. (For example, the old target value is overwritten) and a target value signal Q representing the new target value is supplied to the imaging irradiation control unit 11c.
  • the calculation of the new target value can be performed as described with reference to the equations (13) to (20).
  • step ST34 the imaging irradiation control unit 11c generates control signals C11a and C11b (updates the contents) based on the target value signal Q supplied from the target value calculation unit 24c.
  • the illumination conditions in the frames of the respective ranks (first frame, second frame, third frame) in each cycle consisting of three frame periods are updated by the control signals C11a, C11b.
  • imaging of frames of each rank is performed after the update, imaging is performed under the updated illumination conditions for the frames of the rank.
  • the target value update process performed using the texture change dF in the second embodiment is performed using the second texture change dF2. Since the second texture change dF2 is a texture change between images obtained by imaging under different illumination conditions at different times, it is the same as the “texture change” in the second embodiment. Therefore, the same effects as in the second embodiment can be obtained in the third embodiment.
  • the target value adjusted by the target value calculation unit 24 or 24c is the target value of the emission intensity of the illumination light.
  • the target value is at least one of the shape of the illumination light irradiation distribution, the illumination light emission period, the exposure time of the imaging unit 13, the aperture, and the gain. Any target value may be used.
  • the local light emission intensity may be adjusted by adjusting the irradiation distribution.
  • the luminance feature amount Ih in the in-subject change region RLH is equal to or smaller than the threshold value TLa ′ or larger than the threshold value TLb ′, for example, the luminance feature amount Ih may be adjusted by adjusting the exposure time.
  • the threshold values TLa ′ and TLb ′ used in this case may be the same as or different from the threshold values TLa and TLb used for the determination of the adjustment of the light emission intensity.
  • the luminance change and the texture change are calculated between two images.
  • the luminance change and the texture change may be calculated between three or more images.
  • the luminance change and texture change may be calculated between a plurality of images.
  • the size of the threshold value TAa with respect to the area of the in-subject change region RHL is a fixed value, but may be changed appropriately.
  • the size of the threshold TAa may be corrected according to the area of the extracted subject area H. In this case, if the area of the extracted subject area is large, the value of the threshold TAa is increased, and if the area of the subject area H is small, the value of the threshold TAa is corrected to be small.
  • the magnitudes of the adjustment amounts ⁇ a to ⁇ d are fixed values, but may be changed as appropriate.
  • the magnitudes of the adjustment amounts ⁇ a to ⁇ d may be corrected according to the ratio of the areas of the in-subject change area RLH and the non-change area RLL in the subject area.
  • the texture change calculation unit 22c determines the number of images in each cycle of the illumination condition change for each of the three images read from the image memory 14, and changes in luminance. Although notified from the calculation unit 21c, the texture change calculation unit 22c may perform the determination independently. In this case, the determination may be made from the luminance feature amount Im of the image as in the luminance change calculation unit 21c.
  • FIG. 30 is a block diagram showing the configuration of the operating device according to the fourth embodiment of the present invention.
  • the operating device shown in FIG. 30 is a combination of an imaging device similar to the imaging device shown in FIG. 21, a subject recognition unit 25 and an operation determination unit 26.
  • a texture change calculation unit 22d is provided instead of the texture change calculation unit 22 of FIG.
  • the texture change calculation unit 22d sequentially reads a plurality of images stored in the image memory 14, obtains a texture feature F for each pixel constituting each image, and obtains two images obtained by imaging at two different times. A texture change dF between images is calculated, and the calculated texture change dF is supplied to the subject extraction unit 23, the target value calculation unit 24, and the subject recognition unit 25, and a texture feature F is supplied to the subject recognition unit 25.
  • the texture change calculation unit 22d includes a CSLBP feature calculation unit 221, a CSLBP feature memory 222, a texture feature calculation unit 223, a texture feature memory 224d, a feature change processing unit 225, and a texture change memory. 226.
  • the CSLBP feature calculation unit 221, the CSLBP feature memory 222, the texture feature calculation unit 223, and the feature change processing unit 225 are the same as those shown in FIG.
  • the texture feature memory 224d has the same function as that of the texture feature memory 224 in FIG. 4, but can be read out from the subject recognition unit 25 in addition to the feature change processing unit 225, in that the texture feature memory 224 in FIG. Is different.
  • the subject recognizing unit 25 extracts the result H of the subject region H supplied from the subject extracting unit 23, the texture change dF and the texture feature F supplied from the texture change calculating unit 22d, and the image read from the image memory 14. Based on these, at least one of the shape and movement of the subject is recognized, and the recognition result is output to the operation determination unit 26.
  • the subject recognition unit 25 recognizes a gesture by a person, for example.
  • Gestures include, for example, shape gestures based on hand shapes (goo, choki, par, etc.) and motion gestures based on hand movements (hand horizontal swing, vertical swing, twisting motion).
  • the subject recognition unit 25 includes a shape recognition unit 251, a motion recognition unit 252, and a reference data memory 253 as shown in FIG.
  • reference data Ss representing a feature value of a predetermined shape is registered in the reference data memory 253 in advance, and the shape recognition unit 251 determines the shape of the subject imaged by the imaging unit 13 as reference data.
  • a shape gesture is recognized by collating with Ss.
  • the reference data Ss represents a condition that must be satisfied in order to recognize that the hand shape is intended for a specific gesture.
  • Threshold processing determining whether the feature amount of the hand shape has a predetermined relationship with the threshold. For example, when capturing data representing the shape of a hand intended for a specific gesture and making a determination based on whether or not the difference is less than or equal to a predetermined threshold, the captured data and the data representing the threshold The reference data Ss is configured.
  • Adaboost Adaboost
  • Support Vector Machine a method called Support Vector Machine
  • the feature amount of the hand shape As the feature amount of the hand shape, the feature amount of the boundary line (hand edge) between the hand and the background can be used, and the texture feature in the hand region (subject region) can be used.
  • the shape recognition unit 251 specifies the shape of the hand based on the data indicating the extraction result of the subject area H from the subject extraction unit 23.
  • the texture feature F it is also possible to extract the boundary line between the hand and the background using the texture feature F. For example, by analyzing the boundary line between the hand and the background, it is possible to determine the shape of the hand, for example, whether the hand is held (goo) or open (par). In extracting the boundary line between the hand and the background, it is possible to use the difference in texture characteristics corresponding to the difference in the pattern and unevenness of the hand and the background and the reflectance. In this case, the shape recognition unit 251 specifies the shape of the hand based on the texture feature F stored in the texture feature memory 224d.
  • the shape recognizing unit 251 converts the shape recognizing unit 251 into the texture features F for the pixels in the subject area H extracted by the subject extracting unit 23 among the texture features F accumulated in the texture feature memory 224d. Based on the shape of the hand.
  • reference data Sm representing a predetermined feature amount of movement is registered in the reference data memory 253 in advance, and the motion recognition unit 252 uses the reference data to indicate the movement of the subject imaged by the imaging unit 13.
  • a motion gesture is recognized by collating with Sm.
  • the reference data Sm represents a condition that must be satisfied in order to recognize that the hand movement is intended for a specific gesture. Threshold processing (determining whether the feature value of hand movement has a predetermined relationship with the threshold value) is included. For example, when capturing data representing the movement of a hand intended for a specific gesture and making a determination based on whether or not the difference is equal to or less than a predetermined threshold, the captured data and the data representing the threshold The reference data Sm is configured.
  • the reference data Sm can also be corrected by learning for the gesture based on the hand movement.
  • a texture change dF can be used in addition to the change in the position of the subject center, the speed, and the acceleration.
  • tracking of the center position of the subject enables observation of position change, speed, acceleration, etc., and these can be used as feature quantities.
  • To specify the center position it is necessary to specify the shape of the hand, particularly the boundary line with the background.
  • the motion recognition unit 252 For specifying the shape of the hand, data indicating the extraction result of the subject region H from the subject extraction unit 23 can be used. In this case, the motion recognition unit 252 identifies the shape of the hand based on the texture feature F stored in the texture feature memory 224d. For specifying the shape of the hand, as described for the shape recognition unit 251, the texture feature F stored in the texture feature memory 224d can be used. In this case, the motion recognition unit 252 identifies the shape of the hand based on the texture feature F stored in the texture feature memory 224d.
  • the texture change dF output from the texture change calculation unit 22d or the time series of the texture feature F can be used as the feature amount.
  • the motion recognition unit 252 out of the texture changes dF accumulated in the texture change memory 226, the texture change dF for the pixels in the subject area H extracted by the subject extraction unit 23, or the feature F texture feature memory.
  • the texture features F stored in 224d the movement of the hand is specified based on the texture features F for the pixels in the subject area H extracted by the subject extraction unit 23.
  • the luminance change dI calculated by the luminance change calculation unit 21 for calculating the feature quantity of motion.
  • the time series of the average value of the luminance change dI in the subject region H as the motion feature amount, it is possible to specify the back-and-forth movement of the hand with respect to the camera direction.
  • the average value of the luminance change dI in the subject region H increases with the passage of time, it can be specified as an operation in which the hand approaches the camera.
  • the average value of the luminance change dI in the subject region H is small, it can be specified as an action of moving the hand away from the camera.
  • the texture feature F Since the image suitable for calculating the texture feature F is acquired by adjusting the illumination condition using the target value calculated by the target value calculation unit 24, the texture feature F is stably calculated with respect to the ambient light. In addition, since the texture feature F is used for calculating the shape or the motion feature amount, the gesture can be recognized with high accuracy.
  • the operation determination unit 26 generates and outputs a command for operating the device based on the recognition result Rs output from the shape recognition unit 251 of the subject recognition unit 25 and the recognition result Rm output from the motion recognition unit 252. To do. For example, a device operation command is set in advance according to the type of gesture recognized by the subject recognition unit 25, and a command is generated and output according to the recognition result.
  • FIG. 33 shows an example of the correspondence between the types of gestures and the operation commands for in-vehicle device operation, assuming that the operated device is an in-vehicle device.
  • a goo gesture a command is generated and output so that the display screen is switched to the map guidance screen.
  • a command is generated and output so as to switch the display screen to the audio screen.
  • a command is generated and output so as to switch the display screen to the air conditioner adjustment screen.
  • the subject extraction process in the subject extraction unit 23 of the operation device according to the fourth embodiment is the same as that shown in FIGS.
  • the operation device according to the fourth embodiment uses the result of the calculation of the texture feature F in step ST6 in FIG. 23 and the result of the subject extraction in step ST10 in FIG. 24 to perform gesture determination and device operation based on the determination result. Process.
  • gesture determination and device operation processing based on the determination result will be described with reference to FIG.
  • step ST41 the subject recognition unit 25 reads from the image memory 14 the result of the extraction of the subject area supplied from the subject extraction unit 23, the texture change dF and the texture feature F supplied from the texture change calculation unit 22d.
  • the input image G is used as an input to calculate the feature quantity of at least one of the shape and movement of the subject, and reference data (standard shape or standard movement of the subject) registered in the reference data memory 253 in advance.
  • at least one of the shape and movement of the subject is output to the operation determination unit 26 as a recognition result.
  • step ST42 based on the recognition result output from the subject recognition unit 25, a command for operating the device is generated and output.
  • a subject recognition result that is stable with respect to ambient light can be obtained by recognizing the motion of the subject based on the texture feature used to extract the subject region.
  • the present invention can also be applied when operating a video device such as a television or a signage, or a wearable device such as a glasses type, a bracelet type, a ring type, or a clothing type.
  • a video device such as a television or a signage
  • a wearable device such as a glasses type, a bracelet type, a ring type, or a clothing type.
  • the present invention can be applied to a case where a person's action or state other than a gesture is recognized and an operation is performed based on the recognition result.
  • a person's action or state other than a gesture For example, face orientation, eyes or mouth opening or closing, or a side-by-side state with them, dozing state, recognition of a person talking, drowsiness, fatigue, or reduced concentration
  • the present invention can also be applied to the recognition of the performed state and the operation based on the recognition result.
  • Operations based on the recognition result include a process for switching the operation of the device, an operation for braking the automobile, and an alarm sound.
  • the operation device including the imaging device according to the second embodiment has been described above, the same applies to the operation device including the imaging device according to the first embodiment or the imaging device according to the third embodiment instead of the imaging device according to the second embodiment. Can be configured.
  • a part of the processing performed by the imaging device or the operation device, or a part of the processing performed by the imaging method or the operation method can be executed by a computer including a processor. Accordingly, there is also provided a program for causing a computer to execute the process performed by the imaging device or the operation device, the process performed by the imaging method or the operation method, and a computer-readable recording medium storing the program. It forms part of the present invention.
  • FIG. 35 shows an example of the computer together with the irradiation unit 12 and the imaging unit 13.
  • the irradiation unit 12 and the imaging unit 13 have functions similar to the irradiation unit 12 and the imaging unit 13 of FIG. 35 includes a processor 51, a program memory 52, a data memory 53, a data input interface 54, a control output interface 55, and a data output interface 56, which are connected by a data bus 57. .
  • the processor 51 operates in accordance with a program stored in the program memory 52, and performs the same processing as the imaging irradiation control unit 11, the luminance change calculation unit 21, the texture change calculation unit 22, and the subject extraction unit 23 of FIG.
  • the control output interface 55 is connected to the irradiation unit 12 and the imaging unit 13, and gives a control signal C ⁇ b> 11 a from the processor 51 to the irradiation unit 12 and gives a control signal C ⁇ b> 11 b to the imaging unit 13.
  • the data input interface 54 is connected to the imaging unit 13 and receives the captured image output from the imaging unit 13.
  • the processor 51 performs the same processing as the luminance change calculation unit 21, the texture change calculation unit 22, and the subject extraction unit 23 of the first embodiment on the captured image input via the data input interface 54, for example.
  • the result of subject extraction is output from the data output interface 56.
  • the data memory 53 has the same role as the image memory 14 of FIG.
  • the data memory 53 further includes a luminance feature amount memory 212 and a luminance change memory 216 (FIG. 3) in the luminance change calculation unit 21 of FIG. 1, and a texture feature memory 224 and a texture change memory 226 (FIG. 3) in the texture change calculation unit 22. It may have the role of 4).
  • the processing procedure by the processor 51 is the same as that described with reference to FIGS. 13 and 14 regarding the first embodiment.
  • each unit may perform processing of each part of the imaging device.
  • the computer executes the processing of the imaging method.
  • the processing of the imaging device of the first embodiment is executed by the computer has been described.
  • the processing of the imaging device of the second or third embodiment, the processing of the imaging method performed by the imaging device, or the implementation The same applies to the case where the processing of the operating device according to the third embodiment or the operating method executed by the operating device is executed by a computer.

Abstract

 異なる照明条件での撮像で得られた複数の撮像画像を使用して各画素についての輝度変化(dI)を算出し(21)、異なる時刻における撮像で得られた複数の撮像画像を使用して各画素についてのテクスチャ変化(dF)を算出し(22)、輝度変化(dI)とテクスチャ変化(dF)とに基づいて被写体領域を抽出する(23)。画像の各画素についてのテクスチャ特徴(F)の、複数の撮像画像間での変化を、テクスチャ変化(dF)として算出する。環境光或いは背景の変化があっても、被写体を高精度で抽出することができる。

Description

撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体
 本発明は、撮像画像から被写体領域を抽出する撮像装置及び方法に関するものである。本発明は特に、異なる照明条件による撮像で得られた2枚以上の撮像画像間の差分を用いて、被写体領域を抽出する技術に関する。本発明はまた、上記の撮像装置で得られたデータを用いて機器に対する操作を行う操作装置及び方法に関する。本発明はまた、上記撮像装置又は方法、或いは上記の操作装置又は方法における処理をコンピュータに実行させるためのプログラム、及び該プログラムを記録したコンピュータで読み取り可能な記録媒体に関する。
 人の状態或いは動作をモニタリングする目的でカメラに近接する人又はその一部(手など)を被写体として撮像する場合には、周囲の背景を取り除き、被写体が写った領域のみを抽出した上で該領域を詳細に分析するのが有効である。カメラに近接する被写体領域を抽出するために、特許文献1は、被写体を照らす照明を短い周期で点滅し、点灯時の撮像画像と消灯時の撮像画像とを取得し、それらの差分を用いる表示撮像装置を開示している。
 この手法においては、背景が変化した場合或いは被写体が移動した場合に、差分画像上に偽信号の領域が生じるという問題がある。特許文献1には、このような問題に対応するため、被写体や背景の動きを補償した補間画像を生成し、被写体の移動により生じる偽信号の領域を排除した差分画像を生成することも開示されている。また、特許文献2には、被写体の移動量を検出し、検出した移動量を被写体領域の特定に利用する画像処理装置が開示されている。
特許第4915367号公報 特許第4842374号公報
Marko Heikkila, et al., "Description of Interest Regions with Local Binary Patterns", 30 June 2008
 非特許文献1については後に言及する。
 しかしながら、差分画像を用いて被写体領域を抽出する技術には、走行中の自動車内部、屋外等のように、環境光或いは背景がめまぐるしく変化する空間においては、偽信号の影響を受け、被写体を正しく抽出できない問題がある。特許文献1では、被写体の動き或いは背景の変化を補償する場合、補間画像を生成するために使用する複数の画像において同一の被写体及び背景物が写っている必要がある。しかし、走行中の自動車内部、或いは屋外では環境光の変化或いは背景の変化の速度が速いため、複数の画像において同一の被写体或いは同一の背景が写っている保証がなく、この場合、偽信号の影響を抑えることができない。
 一方、被写体の移動量を検出して被写体領域を特定する場合、差分を取ることで算出される輝度変化は環境光の影響を受けやすく、自動車の内部或いは屋外では偽信号か否かの判定を正確に行うことが困難である。また、背景の変化によっても同様の偽信号が生じるため、偽信号が生じた領域を誤って被写体の領域と判定してしまう可能性がある。
 本発明は上記課題を解決するものであり、環境光或いは背景の変化があっても、被写体を高精度で抽出することを可能にすることを目的とする。
 本発明に係る撮像装置は、
 照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御部と、
 前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射部と、
 前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像部と、
 前記撮像部により、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出部と、
 前記撮像部により、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出部と、
 前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出部とを有するものである。
 本発明によれば、環境光或いは背景の変化があっても、被写体を高精度で抽出することができる。
本発明の実施の形態1の撮像装置の構成を示すブロック図である。 図1の照射部の構成を示すブロック図である。 図1の輝度変化算出部の構成を示すブロック図である。 図1のテクスチャ変化算出部の構成を示すブロック図である。 CSLBP特徴の算出に用いられる画素の配置を示す図である。 (a)~(h)は、異なる照明条件で撮像された画像に対しCSLBP特徴を算出した結果、及び該画像の輝度ヒストグラムを示した図である。 図4のテクスチャ特徴抽出部の構成を示すブロック図である。 特徴抽出領域のセルへの分割方法を示す図である。 図1の被写体抽出部の構成を示すブロック図である。 照明条件の変化、背景の変化及び被写体の移動と、輝度変化及びテクスチャ変化の関係を示す図である。 (a)~(e)は、実施の形態1の撮像装置による被写体領域の抽出の一例を示す図である。 (a)~(e)は、実施の形態1の撮像装置による被写体領域の抽出の一例を示す図である。 実施の形態1の撮像装置における処理の手順の一例を示すフローチャートである。 図13の被写体抽出ステップの手順の一例を示すフローチャートである。 図13の被写体抽出ステップの手順の他の例を示すフローチャートである。 実施の形態1の撮像装置の変形例におけるテクスチャ変化算出部の構成を示すブロック図である。 実施の形態1の撮像装置の変形例における処理の手順を示すフローチャートである。 実施の形態1の撮像装置の変形例における処理の手順を示すフローチャートである。 実施の形態1の変形例において、テクスチャ特徴の算出の対象となる画素の配置を示した図である。 実施の形態1の撮像装置における処理の手順の他の例を示すフローチャートである。 本発明の実施の形態2の撮像装置の構成を示すブロック図である。 図21の目標値算出部の構成を示すブロック図である。 実施の形態2の撮像装置における処理の手順を示すフローチャートである。 実施の形態2の撮像装置における処理の手順を示すフローチャートである。 本発明の実施の形態3の撮像装置の構成を示すブロック図である。 図25の輝度変化算出部の構成を示すブロック図である。 図25のテクスチャ変化算出部の構成を示すブロック図である。 実施の形態3に係る撮像装置における処理の手順を示すフローチャートである。 実施の形態3に係る撮像装置における処理の手順を示すフローチャートである。 本発明の実施の形態4に係る操作装置の構成を示すブロック図である。 図30のテクスチャ変化算出部の構成を示すブロック図である。 図30の被写体認識部の構成を示すブロック図である。 図30の被写体認識部で認識されるジェスチャーの種類と操作決定部で生成される操作内容の対応関係の例を示す図である。 実施の形態4に係る操作装置における処理の手順を示すフローチャートである。 実施の形態1の撮像装置をソフトウェアで実現する場合に用いられるコンピュータを、照射部及び撮像部とともに示すブロック図である。
実施の形態1.
 図1は、この発明の実施の形態1に係る撮像装置の構成を示すブロック図である。図示の撮像装置は、撮像照射制御部11と、照射部12と、撮像部13と、輝度変化算出部21と、テクスチャ変化算出部22と、被写体抽出部23と、画像メモリ14とを備える。
 本実施の形態の撮像装置は、例えば人を被写体とする。具体的には、人の全身或いは上半身、顔、手など身体の一部(パーツ)を被写体とし、背景から被写体のみを抽出するために用いられる。
 撮像照射制御部11は、照明条件を制御する制御信号(照明条件制御信号)C11aを照射部12へ出力するともに、撮像条件を制御する制御信号(撮像条件制御信号)C11bを生成し、撮像部13へ出力する。
 制御信号C11aによって制御される照明条件には、照明光の照射分布、照明光の発光強度、照明光の発光タイミング、及び照明光の発光期間のうちの1つ以上が含まれる。
 制御信号C11bによって制御される撮像条件には、露光タイミング、露光時間、フレームレート、絞り、及びゲインのうちの1つ以上が含まれる。
 撮像部13はフレーム毎に撮像を行う。照射部12による照明条件の切り換えは、撮像部13による撮像に同期して行われる。
 本実施の形態では、撮像照射制御部11から供給される制御信号C11aが、1フレーム毎に交互に異なる照明条件A及びBを指定し、照射部12は、制御信号C11aに基づいて、照明条件Aでの照明と照明条件Bでの照明を1フレーム毎に交互に行う。ある条件で照明することを、当該照明条件を生成するとも言う。
 照射部12は、図2に示すように、複数のLED121と、発光制御部122とを有する。
 LED121としては、近赤外線LED、或いは白色LEDが用いられる。
 被写体が人の上半身である場合、光源としては、人の眼の感度の小さい近赤外線LEDを使用するのが望ましい。
 照射部12による照明の発光強度を変えるには、複数のLED121のうちの発光させるLEDの数を変えても良く、各LEDの発光の強度を変えても良く、上記2つの方法を併用しても良い。
 各LEDの発光の強度を変えるには、例えば、当該LEDへ入力する駆動電流量を変えても良く、PWM(Pulse Width Modulation)制御におけるデューティ比を変えても良い。
 照射部12による照明光の照射分布を変えるには、発光させるLEDを変えても良く、或いは各LEDの発光強度を、当該LEDの位置(複数のLED121の群内における位置)に応じて変えて良い。
 以下では、照明条件の切り換えが、PWM制御におけるデューティ比を制御することで発光強度を切り換えによって行われるものとして説明する。
 照明条件Aにおける発光強度をΦAで表し、照明条件Bにおける発光強度をΦBで表す。発光強度ΦA及び発光強度ΦBはそれぞれ固定された値であり、
 ΦA>ΦB
の関係があるものとする。
 撮像部13は、照射部12が生成する2つの照明条件下で、撮像照射制御部11から供給される制御信号C11bに基づいて被写体を撮像し、撮像した画像Gを画像メモリ14に蓄積させる。
 撮像部13としては、例えば、CMOSセンサー、CCDセンサー等の撮像素子が用いられる。
 撮像部13は、制御信号C11bに基づいて、例えば、1秒に30フレーム撮像し、出力する画像Gは、例えばグレースケール画像(白黒画像)、RGB画像である。
 以下では、撮像部13は、例えば、1秒に30フレームのレートで、画像を出力する。出力される画像(出力画像)は、例えば、8ビット階調のグレースケール画像である。
 出力画像の解像度は例えば、VGA規格に沿うものであり、画像幅Wが640画素、高さHが480画素である。
 照射部12と撮像部13とは、照射部12から照射された光(照明光)が被写体に反射し、その反射光が撮像部13に入射するように設置されている。
 撮像部13は、照射部12が交互に生成する照明条件Aと照明条件Bとで交互に撮像を行い、照明条件Aでの撮像で得られた画像(照明条件Aの画像)Gaと、照明条件Bでの撮像で得られた画像(照明条件Bの画像)Gbを交互に出力する。その結果、照明条件Aの画像Gaと照明条件Bの画像Gbが1秒に15フレームずつ出力される。
 撮像部13から出力された画像G(Ga、Gb)は画像メモリ14に順次蓄積される。
 照明条件Aでの撮像における撮像条件と、照明条件Bでの撮像における撮像条件は、それぞれ固定されているものとする。
 輝度変化算出部21は、画像メモリ14から、撮像部13が、2つの異なる照明条件で相前後して撮像することで得た2枚の画像Ga、Gbを読み出し、画素毎の輝度Iを比較し、画像間での輝度変化dIを算出して出力する。出力された輝度変化dIは被写体抽出部23に供給される。
 輝度変化算出部21は、図3に示すように、輝度特徴量算出部211と、輝度特徴量メモリ212と、照明条件判定部213と、差分算出部215と、輝度変化メモリ216とを有する。
 輝度特徴量算出部211は、画像メモリ14から読み出された各フレームの画像の輝度特徴量Imを算出する。輝度特徴量Imは、例えば輝度平均値、輝度中央値、或いは輝度最頻値である。輝度特徴量算出部211で算出した輝度特徴量Imは輝度特徴量メモリ212に記憶され、1フレーム期間後に、前フレームの画像についての輝度特徴量Imとして照明条件判定部213によって読み出される。
 照明条件判定部213は、輝度特徴量算出部211で算出された、最新の画像(最新のフレームの画像)についての輝度特徴量Imと、輝度特徴量メモリ212から読み出される、1フレーム前の画像についての輝度特徴量Imとを読み出す。これらの画像は、撮像時刻の隣り合う2枚の画像、即ち相前後する2つのフレームの画像である。照明条件判定部213は2つのフレームの画像についての輝度特徴量Imを比較し、比較の結果に基づいて、どちらが照明条件Aの画像Gaであり、どちらが照明条件Bの画像Gbであるかの判定を行う。この判定の結果CNaは、差分算出部215に供給される。
 例えば、輝度特徴量Imが大きい方の画像が照明条件Aの画像Gaであり、輝度特徴量Imが小さい方の画像が照明条件Bの画像Gbであると判断する。
 差分算出部215は、照明条件Aの画像Gaと、照明条件Bの画像Gbとの間で、画素毎の輝度Iの差分を求め、該差分を輝度変化dIとして出力する。即ち、差分算出部215は、例えば、画像上の各画素の輝度値I(x,y)について、2枚の画像間の輝度差分dI(x,y)を算出する。
 ここで、x,yは画像上の座標を示しており、
 x∈{0,1,…,W-1},y∈{0,1,…,H-1}
である。
 輝度差分dI(x,y)は、照明条件Aの画像Gaの各画素の輝度値から、照明条件Bの画像Gbの、同じ位置の画素の輝度値を差し引くことで算出される。画像メモリ14から読み出された2枚の画像の中で、どちらが照明条件Aの画像Gaであるかは、照明条件判定部213から出力される判定結果CNaに基づいて判断する。
 差し引いた結果が負の値となる場合には、輝度差分dI(x,y)を0とする。
 このようにして算出された輝度差分dI(x,y)を輝度変化と言う。
 輝度差分dI(x,y)は、輝度変化として、輝度変化メモリ216に蓄積される。蓄積された輝度差分dI(x,y)は後に被写体抽出部23に供給される。
 各画素についての輝度差分dI(x,y)の集合、即ち各画素の輝度差分dI(x,y)を、当該画素と同じ位置に配列したものを、輝度差分画像(輝度変化画像)を形成する。
 撮像部13から取得される画像には、撮像素子における暗電流によるノイズ或いは電荷の読み出しノイズが含まれている。輝度変化算出部21は、例えば、撮像部13から供給される画像に対し、図示しない平滑化フィルタで平滑化フィルタリングを施してノイズを取り除いた上で、差分算出部215で差分を求めることとしても良い。代わりに、輝度変化算出部21は、差分算出部215で算出した輝度差分画像に対し、図示しない平滑化フィルタにより平滑化フィルタリングを施してノイズを取り除いた結果を輝度変化として出力しても良い。平滑化フィルタとしては、例えば、ガウシアンフィルタ、メディアンフィルタ等を用いることができる。
 上記の平滑化フィルタリングを、輝度差分を算出する前に行うことで、カメラ等に起因するノイズを除去することできる。輝度差分を算出した後で上記の平滑化フィルタリングを行うと、差分の小さい領域(つまりノイズ)を除去できる。輝度差分を算出する前と、算出した後の双方で上記の平滑化フィルタリングを行っても良い。
 輝度差分画像に対し、閾値処理を施すことで、被写体領域を抽出することができる。但し、輝度差分画像のみに基づいて被写体領域の抽出を行うと、背景の変化或いは被写体の移動が起こった部分が被写体領域と誤判定されてしまう。この被写体領域と誤判定される部分を偽信号の領域と言う。
 本発明では、以下に説明するように、テクスチャ変化を併せて利用することで、偽信号の領域と被写体の領域とを判別し、被写体領域のみの抽出を可能にしている。
 テクスチャ変化算出部22は、画像メモリ14に蓄積されている複数の画像を順次読出し、各画像を構成する画素の各々についてテクスチャ特徴Fを求め、2つの異なる時刻における撮像で得られた2枚の画像間のテクスチャ変化dFを算出し、算出したテクスチャ変化dFを被写体抽出部23に供給する。
 上記の「2つの異なる時刻」は具体的には、相前後するフレーム期間である。従って、2つの異なる時刻における撮像は、本実施の形態では、2つの異なる照明条件での画像Ga、Gbとなる。しかしながら、テクスチャ変化dFの算出においては、照明条件が異なることは重要ではなく、時刻が異なることが重要であるので、そのことを強調するため、「2つの異なる時刻」と言う場合がある。
 テクスチャ変化算出部22は、図4に示されるように、CSLBP特徴算出部221と、CSLBP特徴メモリ222と、テクスチャ特徴算出部223と、特徴変化処理部225と、テクスチャ特徴メモリ224と、テクスチャ変化メモリ226とを含む。
 CSLBP特徴算出部221は、画像メモリ14から各時刻(フレーム期間)での撮像で得られた画像を読み出して、読み出した画像の各画素についてCSLBP特徴Bを算出し、算出したCSLBP特徴Bを、CSLBP特徴メモリ222に蓄積させる。
 テクスチャ特徴算出部223は、CSLBP特徴メモリ222に蓄積されている各画像の各画素についてのCSLBP特徴Bを読み出して、当該画像の各画素についてのテクスチャ特徴Fを算出し、テクスチャ特徴メモリ224に蓄積させる。
 特徴変化処理部225はテクスチャ特徴メモリ224から2枚の画像の同じ画素(同じ位置の画素)についてのテクスチャ特徴Fを読み出し、画像間でのテクスチャ特徴Fの変化(テクスチャ変化)dFを算出し、算出されたテクスチャ変化dFをテクスチャ変化メモリ226に蓄積させる。蓄積されたテクスチャ変化dFは、後に被写体抽出部23に供給される。
 テクスチャ特徴算出部223によって算出されるテクスチャ特徴Fは、被写体或いは背景の見え方に関する特徴であり、照明条件に対する依存度の低い、表面の模様或いは凹凸、反射率の違いを表す特徴である。
 テクスチャ特徴Fは、例えば、画像上の各画素(注目画素)に対し、注目画素を中心とする領域(特徴抽出領域)内の特定の位置の画素の輝度値の相関関係を数値化した特徴ベクトルで表される。
 テクスチャ特徴Fを表すものとして使用できる特徴ベクトルは、照明変化に頑健な(照明の変化の影響を受けにくい)特徴ベクトルが好ましく、例えば、特徴抽出領域内の輝度勾配のヒストグラムで構成されるHOG(Histogram of Gradient)特徴ベクトル、或いは特徴抽出領域内の輝度勾配をバイナリーコード化したLBP(Local Binary Pattern)のヒストグラムで構成された特徴ベクトルである。
 以下では、各画素について当該画素を中心とする正方形の特徴抽出領域内の画素について、LBPを拡張したCSLBP(Center Symmetric LBP)特徴のヒストグラムを求め、テクスチャ特徴Fとして使用する。CSLBPのヒストグラムは非特許文献1に倣って算出する。
 各画素についてのCSLBP特徴Bの算出には、その画素を中心とする3×3画素の輝度値が必要である。
 また、各画素のテクスチャ特徴の算出には、その画素を中心とする特徴抽出領域内のすべての画素についてのCSLBP特徴Bが必要である。
 従って、画像の周縁部に位置する画素についてはテクスチャ特徴を算出することができない。
 以下では、特徴抽出領域の縦方向及び横方向のサイズLがともに40画素であるものとする。そして、画像のサイズが、上記のように、横方向640画素、縦方向480画素であり、縦方向の端から20画素までの部分及び縦方向の端から20画素までの部分を除くことで形成された横方向600画素、縦方向440画素の範囲内のすべての画素の各々についてテクスチャ特徴Fが算出される。テクスチャ特徴Fが算出される領域の横方向の画素数(600)をMで、縦方向の画素数(440)をNで表す。
 以下では、上記の横方向600画素、縦方向440画素の範囲内のすべての画素を単に画像のすべての画素と言うこともある。
 以下、各画素についてのテクスチャ特徴Fの算出方法の一例を説明する。
 まず、CSLBP特徴算出部221によるCSLBP特徴Bの算出について図5を参照して説明する。
 CSLBP特徴Bは、画像周縁に隣接する画素(画像周縁から数えて1番目の画素)を除き、画像上の全ての画素に対して算出される。
 図5は、各画素Pc(x,y)についてのCSLBP特徴Bの算出に使用される、当該画素を中心とする3×3画素の領域内の画素に番号を付けたものである。
 画素Pc(x,y)についてのCSLBP特徴B(x,y)は、当該画素を中心とする3×3個の画素の輝度値を用いて式(1)により算出される。
Figure JPOXMLDOC01-appb-M000001
 式(1)で,n0~n7は、それぞれ図5に示される画素n0~n7の輝度値を表す。
 また、s(a)は閾値関数であり、a>T1のときs(a)=1、それ以外の場合はs(a)=0となる。
 また、s(a)が0又は1であるので、CSLBP特徴B(x,y)は整数であり、CSLBP特徴B(x,y)の取り得る値の範囲は、
 0≦B(x,y)<16 ∀x,y
である。
 非特許文献1によれば、閾値T1は、例えば、輝度値の取り得る値の1%程度が望ましく、輝度値が0~255の値を取る場合は、T1=3と設定する。
 図6(a)~(h)は、異なる照明条件で撮像された画像に対してCSLBP特徴を算出した結果、及び該画像の輝度ヒストグラムの例を示す。図6(a)及び(b)は照明条件Aで撮像された画像Gaの例及び輝度ヒストグラムを示し、図6(c)及び(d)は図6(a)の画像から算出されたCSLBP特徴及びCSLBP特徴のヒストグラムを示し、図6(e)及び(f)は照明条件Bで撮像された画像Gbの例及び輝度ヒストグラムを示し、図6(g)及び(h)は図6(e)の画像から算出されたCSLBP特徴及びCSLBP特徴のヒストグラムを示す。図6(c)、(d)、(g)及び(h)に示されるように、CSLBP特徴は、照明条件を変化させても変化が小さく、照明条件の変化に対して頑健である。そのため、2つの画像に対してCSLBP特徴を算出した場合、撮像照射制御部11が決定する照明条件に関係なく、同じ背景、被写体である限りは、CSLBP特徴は極めて近い値となる。
 一方で、2枚の画像間で背景が変化した場合或いは被写体が移動した場合には、上記の背景が変化した領域又は被写体が移動した領域に含まれる画素
 
Pc(xc,yc),
xc∈{0,1,…,W-1},yc∈{0,1,…,H-1},
 
におけるCSLBP特徴の値は変化する。
 CSLBP特徴を用いて後述のように算出されるテクスチャ特徴も同様の性質を有する。
 画像上の各画素についてテクスチャ特徴Fを算出することで、画像上の局所領域におけるテクスチャの特徴を把握することができる。そして、局所領域毎にテクスチャの特徴を比較することで、テクスチャの特徴が変化した領域を特定することができる。
 従って、輝度変化算出部21で照明条件による輝度変化を抽出するためには、照明条件の異なる2枚の画像を使用する必要があるのに対し、テクスチャ変化算出部22でテクスチャ変化dFを抽出するには、照明条件の異なる2枚の画像を使用する必要はなく、撮像時刻の異なる2枚の画像であれば良く、撮像時刻の異なる2枚の画像は同じ照明条件の画像であっても良い。
 但し以下では、テクスチャ変化算出部22は、輝度変化算出部21が使用する画像と同一の画像を用いてテクスチャ変化dFを算出するものとして説明する。すなわち、照明条件Aと照明条件Bの2枚の画像Ga、Gbを用いてテクスチャ変化dFを算出するものとして説明する。
 テクスチャ特徴算出部223は、各画素を中心とする特徴抽出領域に含まれる画素の各々についてのCSLBP特徴の複数のヒストグラムを生成し、生成した複数のヒストグラムを合成することで得られる数値列を、特徴ベクトルとして生成する。
 テクスチャ特徴算出部223は、例えば、図7に示すように、領域分割部2211と、第1乃至第16のCSLBP特徴読出し部2212-1~2212-16と、第1乃至第16のヒストグラム生成部2213-1~2213-16と、連結部2214と、正規化部2215と、クリップ部2216とを有する。
 領域分割部2211は、各画素を中心とする特徴抽出領域AFを、図8に示すように、縦方向及び横方向に4つに分割して、16個のセルCAを生成する。本例では、特徴抽出領域AFが上記のように40画素×40画素であるので、各セルCAのサイズは10画素×10画素となる。
 16個のセルCAはそれぞれ第1乃至第16のCSLBP特徴読出し部2212-1~2212-16に割り当てられる。
 各CSLBP特徴読出し部2212-i(i=1~16)には、当該CSLBP特徴読出し部2212-iに割り当てられたセル内に位置する10×10個の画素の各々についてのCSLBP特徴を、CSLBP特徴メモリ222から読み出す。
 各CSLBP特徴読出し部2212-iで読み出された10×10個の画素の各々についてのCSLBP特徴は、対応するヒストグラム生成部2213-iに供給される。
 ヒストグラム生成部2213-iでは、対応するCSLBP特徴読出し部2212-iで読み出されたCSLBP特徴をその値毎の出現頻度を求めることでヒストグラムを生成する。CSLBP特徴は0から15までの値を有し得るので、16ビンのヒストグラムが生成される。
 連結部2214では、第1乃至第16のヒストグラム生成部2213-1~2213-16で生成されたヒストグラムを連結して、16×16=256ビンのヒストグラムを生成し、これを256次元の特徴ベクトルとして出力する。
 正規化部2215は、連結部2214から出力された256次元の特徴ベクトルを、ベクトル長が1となるように正規化する。
 特徴ベクトルを構成する256個の要素の各々をv(i=0~255)とするとき、ベクトル長Vは、下記の式(2)で与えられる。
Figure JPOXMLDOC01-appb-M000002
 正規化後の各要素の値vniは、下記の式(3)で与えられる。
Figure JPOXMLDOC01-appb-M000003
 クリップ部2216は、正規化後のベクトルの各要素に対して閾値処理(クリッピング)を施し、T2より大きな値を持つ要素は、その値をT2とする。非特許文献1によると、T2は、例えばT2=0.2である。
 なお、上記の例では、16個のCSLBP読出し部が設けられているが、16個より少ないCSLBP読出し部を設け、各CSLBP読出し部に2以上のセル内の全画素についてのCSLBP特徴の読出しを順次行わせても良い。例えば一つのCSLBP読出し部に16個のセル内の全画素についてのCSLBP特徴を順次読み出させても良い。同様に16個のヒストグラム生成部を設ける代わりに、16個より少ないヒストグラム生成部を設け、各ヒストグラム生成部に2以上のセルについてのヒストグラムを生成させても良い。例えば一つのヒストグラム生成部に16個のセルについてのヒストグラムを順次生成させても良い。
 テクスチャ特徴算出部223は、上記のクリッピング後の特徴ベクトルを、特徴抽出領域の中心に位置する画素についてのテクスチャ特徴Fとして出力する。
 テクスチャ特徴算出部223は、各画像の各画素について上記の処理を行って、算出したテクスチャ特徴Fを、テクスチャ特徴メモリ224に蓄積させる。
 特徴変化処理部225はテクスチャ特徴メモリ224から2枚の画像(即ち、時刻t1aの撮像で得られた画像Ga、及び時刻t1bの撮像で得られた画像Gb)についてのテクスチャ特徴Fを読み出し、画像間でのテクスチャ特徴Fの変化(テクスチャ変化)dFを算出する。算出されたテクスチャ変化dFは、テクスチャ変化メモリ226に蓄積される。蓄積されたテクスチャ変化dFは後に被写体抽出部23に供給される。
 上記のように、テクスチャ特徴Fは、画像の周縁部以外の各画素について算出され、テクスチャ特徴Fの変化としては、同じ位置の画素についてのテクスチャ特徴の2枚の画像間での変化が算出される。
 テクスチャ特徴Fの変化は、例えば、2枚の画像に対して、各画素における256次元の特徴ベクトルを比較することで求められる。特徴ベクトルの変化は、例えば、2つの特徴ベクトル間の距離で定義する。ベクトル間距離としては、例えば、ユークリッド距離或いはマンハッタン距離を使用する。
 以下では、マンハッタン距離を用いて、特徴ベクトルの変化を算出する場合について説明する。時刻t1aにおける特徴ベクトルF(t1a)と時刻t1bにおける特徴ベクトルF(t1b)との間のマンハッタン距離dF(t1a,t1b)は、2つの特徴ベクトルの対応する要素間の差の絶対値の総和を算出することで求められる。即ち、マンハッタン距離dF(t1a,t1b)は、下記の式(4)で与えられる。
Figure JPOXMLDOC01-appb-M000004
 式(4)で、
 faj(j=1からJまで)は、特徴ベクトルF(t1a)の要素、
 fbj(j=1からJまで)は、特徴ベクトルF(t1b)の要素、
 jの値が同じである要素fajと、要素fbjとは互いに対応する。
 Jは各特徴ベクトルF(t1a)又はF(t1b)の要素faj又は要素fbjの総数であり、本例ではJ=256である。
 特徴変化処理部225は、各画素について上記のようにして、特徴ベクトル間距離を求め、テクスチャ変化dFとして、テクスチャ変化メモリ226に蓄積させる。蓄積されたテクスチャ変化dFは後に被写体抽出部23に供給される。
 テクスチャ特徴Fは照明変化によって変化が生じにくいため、背景が変化した場合或いは被写体が移動した場合にはテクスチャ変化dFが大きくなる。そのため、照明条件Aの画像と照明条件Bの画像の間で算出されたテクスチャ変化dFは、背景が変化したことによるテクスチャ特徴の変化、又は被写体が移動したことによるテクスチャ特徴の変化と判断することができる。
 被写体抽出部23は、画像メモリ14から読み出される画像Gと、輝度変化算出部21から供給される輝度変化dIと、テクスチャ変化算出部22から供給されるテクスチャ変化dFとに基づいて、被写体領域を抽出する。
 被写体抽出部23は、図9に示すように輝度変化比較部231と、テクスチャ変化比較部232と、領域判定部233と、ゲート部234とを有する。
 輝度変化比較部231は、各画素についての輝度変化dIが閾値TIよりも大きいか否かを判定する。
 テクスチャ変化比較部232は、各画素についてのテクスチャ変化dFが閾値TFよりも大きいか否かを判定する。
 領域判定部233は、各画素についての、輝度変化比較部231における判定結果とテクスチャ変化比較部232における判定結果とに基づいて当該画素が、被写体領域に属する(該領域内に位置する)ものであるか、背景領域に属するか、被写体の移動又は背景の変化による偽信号の領域に属するかの判定を行う。
 即ち、輝度変化比較部231における判定結果が、閾値TI以下であることを示す場合には、当該画素が背景領域に属すると判定する。
 輝度変化比較部231における判定結果が閾値TIよりも大きいことを示し、テクスチャ変化比較部232における判定結果が閾値TF以下であることを示す場合には、当該画素が、被写体領域に属すると判定する。
 輝度変化比較部231における判定結果が閾値TIよりも大きいことを示し、テクスチャ変化比較部232における判定結果が閾値TFよりも大きいことを示す場合には、当該画素が偽信号の領域に属すると判定する。
 ゲート部234は、画像Gを構成する画素のうち、領域判定部233により、被写体領域に属すると判定された画素の輝度値を、被写体領域内の画素の輝度値として出力する。
 ゲート部234から出力された画素、即ち、被写体領域に属すると判定された画素の集合により被写体領域が構成される。
 このような処理により、ゲート部234は、画像メモリ14から読み出された画像Gのうち、被写体領域に一致する部分を、被写体領域Hの抽出の結果として出力する。被写体領域Hの抽出の結果は、被写体領域Hの画像を表すものである。
 以上の処理によって被写体領域の抽出を行うのが適切である理由を説明する。
 まず、照明条件の変化、背景の変化、及び被写体の移動と、これらによる画像上の輝度変化及びテクスチャ変化との関係を説明する。図10に示すように、照明条件を変化させると、被写体領域における輝度変化が生じる。
 一方、背景の変化又は被写体の移動があると、変化又は移動があった領域(例えば移動によりエッジの位置が変わった部分)において輝度変化が生じる。そのため、仮に輝度変化があった部分をすべて被写体領域であると判定することとすれば、背景の変化又は被写体の移動があった領域も、被写体領域として誤検出されてしまう。そこで本発明では、テクスチャ変化に基づく判定をも行って被写体領域と、背景の変化又は被写体が移動により輝度が変化した領域との判別を行う。
 即ち、図6(c)、(d)、(g)及び(h)を参照して説明したように、被写体領域では、照明条件の変化に伴うテクスチャ変化は生じない(図10)。一方、背景が変化し、又は被写体が移動すると、変化又は移動した部分にテクスチャの変化が生じる(図10)。この違いに基づいて、被写体領域と、背景の変化又は被写体の移動により輝度が変化した領域との区別を行うことができる。
 以上より、輝度変化が生じた領域の中で、テクスチャ変化が生じていない領域は照明変化により輝度変化が生じた領域であり、従って被写体を構成する部分と判定することができる。一方、輝度変化とともに、テクスチャ変化が生じている領域は、背景の変化又は被写体の移動により輝度変化が生じた領域、すなわち偽信号の領域であると判定することができる。
 上記の判定方法を用いて、被写体抽出部23は、輝度変化dI及びテクスチャ変化dFに基づいて被写体領域を抽出する。
 例えば、輝度変化dIの大きさに対して閾値TIを設け、輝度変化比較部231において、輝度変化dIが閾値TIより大きいと判断された画素を、「輝度変化が生じた画素」が生じた画素と判断する。同様に、例えば、テクスチャ変化dFの大きさに対して閾値TFを設け、テクスチャ変化比較部232において、テクスチャdFが閾値TFより大きいと判断された画素を、「テクスチャ変化が生じた画素」と判断する。
 そして、領域判定部233において、輝度変化比較部231で、輝度変化が生じていると判定され、テクスチャ変化比較部232でテクスチャ変化が生じていないと判定された画素を、被写体領域に属する画素であると判定する。
 この場合、領域判定部233における判定は、以下の基準に従って行われる。
(a) 輝度変化が生じておりかつテクスチャ変化が生じている画素は偽信号の領域に属する画素である。
(b) 輝度変化が生じておりかつテクスチャ変化が生じていない画素は被写体領域に属する画素である。
(c) (a)及び(b)以外の画素、即ち輝度変化が生じていない画素は背景領域に属する画素である。
 但し、被写体領域の抽出が目的であるので、上記(b)に基づく判定のみを行って、上記(a)及び(c)に基づく判定は省略することができる。
 ゲート部234は、画像メモリ14から輝度算出に使用された画像の何れか一方を読み出し、読み出した画像のうち、領域判定部233により、被写体領域に属すると判定された画素の輝度値を、被写体領域Hの抽出結果として出力する。
 以上の例では、各画素についての輝度変化比較部231における判定結果及びテクスチャ変化比較部232における判定結果を、領域判定部233で組合せることで、当該画素が被写体領域に属するか否かの判定を行っている。即ち、輝度変化比較部231、テクスチャ変化比較部232及び領域判定部233における判定を画素毎に行っている。
 代わりに、輝度変化比較部231、テクスチャ変化比較部232及び領域判定部233における判定を画像毎(フレーム毎)に行っても良い。即ち、輝度変化比較部231において画像の全体についての輝度変化が生じた画素の集合を、輝度変化領域として抽出し、テクスチャ変化比較部232において画像の全体についてのテクスチャ変化が生じた画素の集合を、テクスチャ変化領域として抽出し、領域判定部233において、輝度変化領域に属し、テクスチャ変化領域に属さない画素から成る領域を被写体領域Hと判定しても良い。
 この場合、領域判定部233における判定は、以下の基準に従って行われる。
(a) 輝度変化が生じておりかつテクスチャ変化が生じている領域は、偽信号の領域である。
(b) 輝度変化が生じておりかつテクスチャ変化が生じていない領域は被写体領域である。
(c) (a)及び(b)以外の領域、即ち輝度変化が生じていない領域は背景領域である。
 但し、被写体領域の抽出が目的であるので、上記(b)に基づく判定のみを行って、上記(a)及び(c)に基づく判定は省略することができる。
 ゲート部234は、画像メモリ14から輝度算出に使用された画像の何れか一方を読み出し、読み出した画像のうち、領域判定部233により、被写体領域Hと判定された領域に属する画素の輝度値を、被写体領域Hの画像の輝度値として出力する。
 なお、輝度変化比較部231で用いる閾値TI及びテクスチャ変化比較部232で用いる閾値TFは固定された値でなくても良く、例えば公知の技術より適応的に修正しても良い。例えば、輝度変化dI或いはテクスチャ変化dFの集合に対して、P-タイル法、モード法、判別分析法等を使用して閾値を設定することとしても良い。
 前述した通り、撮像部13から取得される画像には、撮像素子における暗電流によるノイズ或いは電荷の読み出しノイズが多く含まれており、輝度変化算出部21から供給される輝度変化及びテクスチャ変化算出部22から供給されるテクスチャ変化はノイズを含んでいる場合がある。
 そのため、被写体抽出部23は、例えば、輝度変化dIに対し、図示しない平滑化フィルタを用いて平滑化フィルタリングを施した上で輝度変化比較部231における閾値処理を行っても良い。また、輝度変化比較部231で画像毎の処理を行っている場合には、輝度変化比較部231における閾値処理を行った後に平滑化フィルタリングを施しても良い。
 同様に、例えば、テクスチャ変化dFに対し、図示しない平滑化フィルタを用いて平滑化フィルタリングを施した上でテクスチャ変化比較部232における閾値処理を行っても良い。また、テクスチャ変化比較部232で画像毎の処理を行っている場合には、テクスチャ変化比較部232における閾値処理を行った後に平滑化フィルタリングを施してもよい。
 加えて、領域判定部233で画像毎の処理を行っている場合には、領域判定部233における判定の結果に対して平滑化フィルタリングを施しても良い。
 平滑化フィルタとして、例えば、ガウシアンフィルタ或いはメディアンフィルタを用いることができる。
 次に、被写体抽出部23による被写体領域の抽出の動作の例を、図11(a)~(e)及び図12(a)~(e)を参照して説明する。ここでは、被写体が人の手である場合を想定する。
 まず、被写体は移動せず、背景要素の消滅によって背景が変化した場合の被写体領域の抽出の動作を、図11(a)~(e)を参照して説明する。図11(a)~(e)は、時刻t1aと時刻t1bの間に背景を構成する要素B1が消滅したことにより背景が変化した場合の撮像画像、輝度変化量、テクスチャ変化量、及び抽出された被写体領域を示す図である。
 図11(a)及び(b)は、それぞれ時刻t1a及びt1bにおける撮像画像を示すとともに、線BLに沿う部分の輝度をグラフ(横軸は画像座標系のx軸方向、縦軸が輝度)で示す図である。図11(c)は、時刻t1aと時刻t1bの間に輝度が変化した領域を白で示すとともに、線BLに沿う部分の輝度変化量をグラフ(横軸は画像座標系のx軸方向、縦軸が輝度変化量)で示す図である。図11(d)は、時刻t1aと時刻t1bの間にテクスチャが変化した領域を白で示すとともに、線BLに沿う部分のテクスチャ変化量をグラフ(横軸は画像座標系のx軸方向、縦軸がテクスチャ変化量)で示す図である。図11(e)は、抽出された被写体領域を白で示している。
 図11(a)に示される時刻t1aの画像は照明条件Aで撮像された画像Ga、図11(b)に示される時刻t1bの画像は照明条件Bで撮像された画像Gbである。
 被写体Hは、時刻t1aから時刻t1bにかけて静止している。背景のうち、背景要素B1は時刻t1aには存在するが、時刻t1bには存在しない。例えば、背景要素B1は、太陽であり、時刻t1aには見える状態にあるが、時刻t1bではビル陰に隠れてしまった場合に相当する。
 背景要素B1は、非常に明るいため、照射部12が発光する光の影響を受けない。背景のうち、背景要素B1以外の部分(背景部分)B2は、照射部12及び撮像部13から十分に距離が離れているため、照射部12が発光する光の影響を受けない。
 図11(a)及び(b)の撮像画像と、図11(c)の輝度変化、図11(d)のテクスチャ変化を参照しながら、被写体H、背景要素B1、及び背景要素B1以外の部分B2の輝度変化及びテクスチャ変化について説明する。
 照明条件Aは照明条件Bよりも照射部12が発光する光の強度が大きいため、時刻t1aにおける被写体Hの輝度は時刻t1bにおける被写体の輝度よりも大きい。そのため、被写体Hは、図11(c)に示されるように輝度変化が生じた領域として抽出される。一方で、被写体Hでは、照明条件の変化によるテクスチャ特徴の変化は生じない。従って、被写体Hは、テクスチャ変化が生じた領域としては抽出されない(図11(d))。
 背景要素B1は、背景部分B2とは明るさ及びテクスチャ特徴が異なり、背景要素B1は、時刻t1aから時刻t1bにかけて背景要素B1が消失した領域が、輝度変化が生じた領域として抽出される(図11(c))とともに、テクスチャ変化が生じた領域として抽出される(図11(d))。
 背景部分B2(厳密には、時刻t1bの背景のうち、時刻t1aに背景要素B1が存在した領域以外の領域)は、時刻t1aから時刻t1bにかけて輝度もテクスチャも変化せず、従って、輝度変化領域としても、テクスチャ変化領域としても抽出されない(図11(c)及び図11(d))。
 輝度変化が生じており、かつテクスチャ変化が生じていない領域を被写体領域と判定し、輝度変化が生じており、かつテクスチャ変化が生じている領域を偽信号の領域として判定すると、被写体領域を、背景要素B1が消失した領域から区別することができ、図11(e)に示すように、被写体領域Hのみを抽出することができる。
 次に、被写体が移動した場合の被写体領域の抽出の動作、図12(a)~(e)を参照して説明する。図12(a)~(e)は、時刻t1aと時刻t1bの間に被写体Hが移動し、これとともに背景を構成する要素B1が移動したことによって背景が変化した場合の撮像画像、輝度変化量、テクスチャ変化量、及び抽出された被写体領域を示す図である。
 図12(a)及び(b)は、それぞれ時刻t1a及びt1bにおける撮像画像を示すとともに、線BLに沿う部分の輝度をグラフ(横軸は画像座標系のx軸方向、縦軸が輝度値の大きさ)で示す図である。図12(c)は、時刻t1aと時刻t1bの間に輝度が変化した領域を白で示すとともに、線BLに沿う部分の輝度変化量をグラフ(横軸は画像座標系のx軸方向、縦軸が輝度変化量)で示す図である。図12(d)は、時刻t1aと時刻t1bの間にテクスチャが変化した領域を白で示すとともに、線BLに沿う部分のテクスチャ変化量をグラフ(横軸は画像座標系のx軸方向、縦軸がテクスチャ変化量)で示す図である。図12(e)は、抽出された被写体領域を白で示している。
 図12(a)に示される時刻t1aの画像は照明条件Aで撮像された画像Ga、図12(b)に示される時刻t1bの画像は照明条件Bで撮像された画像Gbである。
 被写体Hは、時刻t1aから時刻t1bにかけて右方向に移動している。
 背景のうち、背景要素B1は、被写体Hと同様に、時刻がt1aから時刻t1bにかけて右方向に移動している。
 背景要素B1は、非常に明るいため、照射部12が発光する光の影響を受けない。背景のうち、背景要素B1以外の部分B2は、照射部12及び撮像部13から十分に距離が離れているため、照射部12による照明光の影響を受けない。
 図12(a)及び(b)の撮像画像と、図12(c)の輝度変化、図12(d)のテクスチャ変化を参照しながら、被写体H、背景要素B1、及び背景要素B1以外の部分B2の輝度変化及びテクスチャ変化について説明する。
 照明条件Aは照明条件Bよりも照射部12が照射する光の強度が大きいため、時刻t1aにおける被写体Hの輝度は時刻t1bにおける被写体の輝度よりも大きい。そのため、図12(c)に示される輝度変化結果においては輝度変化が生じた領域として抽出される。また、被写体Hは移動しているため、被写体領域の左右の境界部分(移動によって、被写体から背景に変わった部分、及び背景から被写体に変わった部分)が、輝度変化が生じた領域として抽出される(図12(c))。即ち被写体領域の左側の境界部分(背景から被写体に変わった部分)では、照明条件Bの被写体の明るさと、背景部分B2との明るさの違いのため、輝度変化が検出され、被写体領域の右側の境界部分(被写体から背景に変わった部分)では、照明条件Aの被写体の明るさと、背景部分B2との明るさの違いのため、輝度変化が検出される。
 また、被写体Hが移動しているため、被写体Hの左右の境界部分(背景から被写体に変わった部分、及び被写体から背景部分に変わった部分)が、背景部分B2と被写体Hとのテクスチャ特徴の違いにより、テクスチャ変化領域として抽出される(図12(d)。
 背景要素B1は、背景部分B2とは明るさ及びテクスチャ特徴が異なり、背景要素B1が時刻t1aから時刻t1bにかけて移動しているため、背景要素B1の左右の境界部分が、輝度変化領域として抽出される(図12(c)とともに、テクスチャ変化領域として抽出される(図12(d))。
 背景部分B2(厳密には、時刻t1aにおいて、時刻t1bにおいても背景要素B1の一部とならない部分)は、時刻t1aから時刻t1bにかけて輝度もテクスチャも変化せず、従って、輝度変化領域としても、テクスチャ変化領域としても抽出されない(図12(c)、図12(d))。
 輝度変化が生じており、かつテクスチャ変化が生じていない領域を被写体領域と判定し、輝度変化が生じており、かつテクスチャ変化が生じている領域を偽信号の領域と判定すると、被写体の領域を、被写体Hの境界部分(輝度が変化した部分)及び背景要素B1の境界部分(輝度が変化した部分)から区別することができ、図12(e)に示すように、被写体領域Hのみを抽出することができる。
 以上のように、本発明では、輝度変化とテクスチャ変化とに基づいて、被写体領域を、背景領域のみならず、偽信号の領域から区別することができ、被写体領域を高精度で抽出することができる。
 また、被写体或いは背景要素(背景を構成する物体など)の表面に模様或いは凹凸、反射率の違いがあって、輝度が不均一な場合、被写体或いは背景要素の移動により、領域境界付近だけでなく、被写体領域或いは背景の領域内部においてもテクスチャ特徴が変化する。しかしながら、本実施の形態では、テクスチャ特徴を算出する際に、各画素に対して特徴抽出領域を設けた上で、テクスチャ特徴を算出する。各画素とそれに隣接する画素に基づいて判定を行うのではなく、より広い範囲の画素に基づいて判定を行うので、被写体或いは背景要素の移動が、被写体領域或いは背景領域内におけるテクスチャ特徴の変化に与える影響は小さい。一方で、領域境界におけるテクスチャ特徴の変化は、被写体と背景要素のテクスチャが類似でない限り、領域内部における変化と比較して大きくなる。そのため、テクスチャ変化に対して閾値処理を設けることで、領域内部におけるテクスチャ変化を区別して、領域境界におけるテクスチャ変化のみを抽出することができる。
 次に、実施の形態1の撮像装置における処理の手順を、図13を参照して説明する。
 図13に示される処理は、1フレーム期間毎に、即ち1フレーム期間に1度行われる。
 まず、各フレーム期間での撮像に先立ち、ステップST1で、撮像照射制御部11が制御信号C11a及びC11bを生成し、照射部12及び撮像部13へ出力する。
 撮像照射制御部11は、照射部12に対し、照明条件Aでの照射と、照明条件Bでの照射とをフレームごとに交互に行わせるように制御を行う。例えば、奇数番目のフレームでは、照明条件Aで照射を行うように、偶数番目のフレームでは照明条件Bでの照射を行うように制御を行う。このような照明条件の制御は、2フレーム期間を1サイクルとし、各サイクルの1番目のフレームでは照明条件Aで照明を行わせ、2番目のフレームでは、照明条件Bで照明を行わえる制御と見ることができる。
 次にステップST2で、照射部12が撮像照射制御部11からの制御信号C11aに基づいて照射を行う。この照射によって、制御信号C11aに対応する照明条件が生成される。
 次にステップST3で、ステップST2で生成された照明条件下で行われた撮像を行って、撮像画像を取得し、画像メモリ14に記憶させる。
 次にステップST4で、輝度変化算出部21の輝度特徴量算出部211が、画像メモリ14から、最新の画像を読出し、読み出された画像の輝度特徴量Imを求める。算出された輝度特徴量Imは、輝度特徴量メモリ212に記憶される。
 ステップST4の処理と並行してステップST5で、テクスチャ変化算出部22のCSLBP特徴算出部221が、画像メモリ14から、最新の画像を読出し、読み出された画像の各画素のCSLBP特徴Bを算出する。そして、算出されたCSLBP特徴Bを、CSLBP特徴メモリ222に記憶させる。
 次に、ステップST6で、テクスチャ変化算出部22のテクスチャ特徴算出部223が、CSLBP特徴メモリ222から、最新の画像の各画素についてのCSLBP特徴を読出し、読み出したCSLBP特徴Bに基づいて、同じ画像内の各画素についてのテクスチャ特徴Fを算出する。そして算出されたテクスチャ特徴Fを、テクスチャ特徴メモリ224に記憶させる。
 次にステップST7で、輝度変化算出部21の照明条件判定部213が、最新の画像の輝度特徴量Imと1フレーム前の画像の輝度特徴量Imとを輝度特徴量メモリ212から読み出して比較し、いずれの画像の輝度特徴量Imがより高いかを判断し、判断の結果に基づきいずれが照明条件Aの画像Gaであり、いずれが照明条件Bの画像Gbであるかを判定する。この判定の結果CNaは、差分算出部215に供給される。
 ステップST7の次に、ステップST8及びST9に進む。
 ステップST8では、輝度変化算出部21の差分算出部215が、画像メモリ14から、最新画像(現フレームの画像)と、1フレーム前の画像とを読出し、各画素の輝度差分を算出する。算出された輝度差分は、輝度変化dIとして輝度変化メモリ216に蓄積され、後に被写体抽出部23に供給される。
 差分の算出に当たっては、ステップST7での判定結果に基づき、照明条件Aの画像(ステップST7で輝度特徴量Imがより高いと判定された画像)Gaの各画素の輝度値から、照明条件Bの画像(ステップST7で輝度特徴量Imがより低いと判定された画像)Gbの、同じ位置の画素の輝度値を差し引く。差し引いた結果が負となる場合には、輝度変化を0とする。
 算出された各画素の輝度変化dIは輝度変化メモリ216に蓄積される。
 ステップST9では、テクスチャ変化算出部22の特徴変化処理部225が、最新の画像と1フレーム前の画像との間の各画素のテクスチャ変化dFを算出する。算出された各画素のテクスチャ変化dFはテクスチャ変化メモリ226に蓄積される。
 ステップST8及びST9の次にステップST10に進む。
 ステップST10では、被写体抽出部23が、輝度変化dI及びテクスチャ変化dFに基づいて被写体領域を抽出する。
 被写体領域の抽出においては、各画素が被写体領域に属するか否かの判定を画素毎に行っても良く、画像毎に行っても良い。以下では、最初に画素毎に行う場合の手順を、図14を参照して説明し、その後で画像毎に行う場合の手順を、図15を参照して説明する。
 図14に示される手順では、まずステップST11で、画像上の処理対象とすべき画素の一つを選択する。ここで、画像上の処理対象とすべき画素、即ち画像の周縁部以外の画素を意味する。以下でも同様である。また、周縁部以外に位置するすべての画素を、単に「画像のすべての画素」と言うこともある。
 選択は例えば画像の左上から右下へと言う順序で行われる。
 次にステップST12で、選択された画素(注目画素)についての輝度変化dIを輝度変化メモリ216から読出し、次にステップST13で、読み出した輝度変化dIが閾値TIよりも大きいか否か(即ち「輝度変化有り」か「輝度変化無し」か)の判定を行う。
 閾値TIよりも大きくなければ(「輝度変化無し」であれば)、注目画素は、背景領域に属すると判定する(ST14)。
 閾値TIよりも大きければ、ステップST15に進む。ステップST15では、注目画素についてのテクスチャ変化dFをテクスチャ変化メモリ226から読出す。
 次にステップST16では、読み出したテクスチャ変化dFが閾値TFよりも大きいか否か(「テクスチャ変化有り」か「テクスチャ変化無し」か)の判定を行う。
 閾値TFよりも大きくないと判断したとき(「テクスチャ変化無し」と判断したとき)は、注目画素は、被写体領域に属すると判断する(ST17)。
 閾値TFよりも大きいと判断したとき(「テクスチャ変化有り」と判断したとき)は、注目画素は、被写体が移動した部分、或いは背景が変化した部分、即ち偽信号の領域であると判断する(ST18)。ここで被写体が移動した部分とは、1フレーム前には被写体の一部であった部分が最新のフレームでは背景の一部となった部分、或いは1フレーム前には背景の一部であった部分が最新のフレームでは被写体の一部となった部分である。これらの部分は、本発明では、被写体の一部とはみなさない。
 次にステップST19では、画像上の処理対象とすべき画素のすべてが選択されたか否か、即ちすべての画素についてステップST12からST18までの処理が行われたか否かの判定を行う。まだ選択されていない画素があればステップST11に戻る。
 すべての画素が選択されていれば、ステップST20に進む。
 ステップST20では、ステップST17で被写体領域に属すると判断された画素の集合を、被写体領域Hの抽出結果として出力する。
 なお、被写体領域の抽出が目的であるので、ステップST14及びST18の処理を省略しても良い。この場合、ステップST13でNOの場合、及びステップST16でYESの場合には直ちにステップST19に進むことになる。
 図15に示される手順では、まず、ステップST21で、画像中の画素を順次選択し、選択した画素の輝度変化dIを輝度変化メモリ216から読出し、読み出した輝度変化dIが閾値TIよりも大きいか否か(即ち「輝度変化有り」か「輝度変化無し」か)の判定を行う。そして、「輝度変化有り」と判定された画素の集合を、輝度変化領域として抽出する。
 次のステップST22では、画像中の画素を順次選択し、選択した画素のテクスチャ変化dFをテクスチャ変化メモリ226から読出し、読み出したテクスチャ変化dFが閾値TFよりも大きいか否か(「テクスチャ変化有り」か「テクスチャ変化無し」か)の判定を行う。そして、「テクスチャ変化有り」と判定された画素の集合を、テクスチャ変化領域として抽出する。
 次のステップST23では、「輝度変化領域」に属し、「テクスチャ変化領域」に属さない画素の集合を「被写体領域」として抽出する。
 次のステップST20では、ステップST23で抽出された被写体領域に属すると判断された画素の集合を、被写体領域Hの抽出結果として出力する。
 上記の例では、画像のすべての画素についてテクスチャ特徴Fを算出し、テクスチャ特徴メモリ224に記憶させた後、2つの画像の同じ画素についてのテクスチャ特徴Fを読み出して、テクスチャ変化dFを算出している。このようにする代わりに、各画像の各画素についてのテクスチャ特徴Fが算出されたら、同じ画素についての1フレーム前の画像における同じ位置の画素についてそれ以前に算出されたテクスチャ特徴F(例えばテクスチャ特徴メモリ224に記憶させておく)と、算出されたばかりのテクスチャ特徴Fとから、当該画素についてのテクスチャ変化dFを算出することとしても良い。このようにすることで、撮像からテクスチャ変化dFの算出までの時間を短くすることができる。
 このような手順で処理をする場合には、図4に示されるテクスチャ変化算出部22の代わりに、図16に示されるテクスチャ変化算出部22aを用いる。図16に示されるテクスチャ変化算出部22aは、CSLBP特徴算出部221と、CSLBP特徴メモリ222と、テクスチャ特徴算出部223aと、テクスチャ特徴メモリ224と、特徴変化処理部225aと、テクスチャ変化メモリ226とを含む。
 図16のうち、CSLBP特徴算出部221、CSLBP特徴メモリ222、テクスチャ特徴メモリ224、及びテクスチャ変化メモリ226は、図4に示すのと同様のものである。
 テクスチャ特徴算出部223aは、画像メモリ14から読み出した各画像の、各画素についてのテクスチャ特徴Fを順に算出し、テクスチャ特徴メモリ224に蓄積させるとともに、特徴変化処理部225aに供給する。
 特徴変化処理部225aは、最新の画像において、選択されている画素(注目画素)についてテクスチャ特徴算出部223aで算出されたテクスチャ特徴Fを受けるとともに、テクスチャ特徴メモリ224に記憶されている、1つ前のフレームの画像における、同じ位置の画素についてのテクスチャ特徴Fを受けて、両者間の変化を算出し、算出結果をテクスチャ変化dFとして、テクスチャ変化メモリ226に記憶させる。蓄積されたテクスチャ変化dFは後に被写体抽出部23に供給される。
 この場合の処理の手順を図17及び図18に示す。
 図17及び図18で、図13と同じ符号は、同一又は同様の処理を示す。
 即ち、図17で、ステップST1~ST4、ST5、及びST7の処理は図13と同じである。
 ステップST7の次に、ステップST11aに進む。
 ステップST11aでは、画像上の処理対象とすべき画素の一つを選択する。
 ステップST11aの次にステップST8a及びステップST6aに進む。
 ステップST8aでは、選択された画素(注目画素)について、輝度変化算出部21の差分算出部215が、画像メモリ14へ記憶されている最新の画像と、1フレーム前の画像の注目画素と同じ位置の画素の輝度値を読み出し、輝度差分を算出し、算出した輝度差分を輝度変化dIとして輝度変化メモリ216に記憶させる。記憶された輝度変化dIは後に被写体抽出部23に供給される。
 ステップST6aでは、テクスチャ特徴算出部223aが、選択された画素(注目画素)についてテクスチャ特徴Fを算出し、算出したテクスチャ特徴Fをテクスチャ特徴メモリ224に記憶させるとともに、特徴変化処理部225aに供給する。
 ステップST9aでは、特徴変化処理部225aが、テクスチャ特徴算出部223aから供給された、注目画素についてのテクスチャ特徴F(ステップST6aで算出されたもの)と、テクスチャ特徴メモリ224に記憶されている、1つ前のフレームの画像の、同じ位置の画素についてのテクスチャ特徴Fから、注目画素についてのテクスチャ変化dFを算出し、算出したテクスチャ変化dFをテクスチャ変化メモリ226に記憶させる。記憶されたテクスチャ変化dFは後に被写体抽出部23に供給される。
 なお、図13のステップST6、ST8、ST9は、画像を構成するすべての画素についての処理であるのに対し、図17のステップST6a、ST8a、ST9aは、選択された画素についての処理である点で異なる。
 ステップST8a及びST9aの次にステップST13に進む。
 ステップST13では、ステップST8aで算出された輝度変化dIが閾値TIよりも大きいか否か(即ち「輝度変化有り」か「輝度変化無し」か)の判定を行う。
 閾値dIよりも大きくなければ(「輝度変化無し」であれば)、注目画素は、背景領域に属すると判定する(ST14)。
 閾値dIよりも大きければ、ステップST16に進む。
 ステップST16では、ステップST9aで算出されたテクスチャ変化dFが閾値TFよりも大きいか否か(「テクスチャ変化有り」か「テクスチャ変化無し」か)の判定を行う。
 閾値TFよりも大きくないと判断したとき(「テクスチャ変化無し」と判断したとき)は、注目画素は、被写体領域に属すると判断する(ST17)。
 閾値TFよりも大きいと判断したとき(「テクスチャ変化有り」と判断したとき)は、注目画素は偽信号の領域に属すると判断する(ST18)。
 次にステップST19では、画像上の処理対象とすべき画素のすべてが選択されたか否か、即ちすべての画素についてステップST6a、ST8a、ST9a、ST13、ST14、ST16~ST18の処理が行われたか否かの判定を行う。まだ選択されていない画素があればステップST11aに戻る。
 すべての画素が選択されていれば、ステップST20に進む。
 ステップST20では、ステップST17で被写体領域に属すると判断された画素の集合を、被写体領域Hの抽出結果として出力する。
 なお、図13について述べたのと同様に、ステップST14及びST18の処理を省略しても良い。この場合、ステップST13でNOの場合、及びステップST16でYESの場合には直ちにステップST19に進むことになる。
 なおまた、図17及び図18の手順では、ステップST13の前にステップST6a及びST9aの処理を行っているが、このようにする代わりに、ステップST13でYESとの判断がされたら、そのあとでステップST6a及びステップST9aの処理をし、そのあとで、ステップST16に進むこととしても良い。
 上記説明のように、本実施の形態に係る撮像装置では、撮像照射制御部11が照明条件を制御する制御信号C11a及び撮像条件を制御する制御信号C11bを出力し、照射部12が制御信号C11aに基づいて2つの異なる照明条件を生成し、
 撮像部13が2つの異なる照明条件下で被写体を撮像し、輝度変化算出部21が異なる照明条件下で撮像された2数の画像間の輝度変化dIを算出し、テクスチャ変化算出部22が異なる時刻に撮像された2枚の画像間のテクスチャ変化dFを算出し、被写体抽出部23は輝度変化dIとテクスチャ変化dFとから、照明変化により被写体に生じた輝度変化と、背景の変化又は被写体の移動により生じた輝度変化とを判別している。
 従って、被写体領域の抽出を高精度に行うことができる。
 本実施の形態に係る撮像装置では、背景変化又は被写体移動がある領域は輝度変化及びテクスチャ変化が生じ、一方で、背景変化及び被写体移動がない条件下では、照明変化による輝度変化のみ生じる特徴に着目し、輝度変化が大きくテクスチャ変化が小さい領域を被写体領域とすることで、背景変化及び被写体移動による影響を排除し、被写体領域を精度よく抽出することができる。
 また、第1の発光強度で光を発光する第1の照明条件と、第1の発光強度より小さい第2の発光強度で光を発光する第2照明条件との2種類の照明条件を使用することとしており、そのため簡単な構成及び処理により、輝度変化及びテクスチャ変化を利用した被写体領域の抽出が可能である。
 さらに、輝度変化算出部21が輝度変化の算出のために使用する画像の照明条件と、テクスチャ変化算出部22がテクスチャ変化の算出のために使用する画像の照明条件とを一致させることで、輝度変化が生じた原因を、照明変化によるものと背景変化及び被写体移動によるものとに判別することができ、より精度良く被写体領域を抽出することができる。
 本実施の形態に係る撮像装置では、抽出したい被写体へ適切に照明光が照射されるような照射分布を照明条件の1つとすることができ、そのようにすることで、被写体の位置及びサイズに応じて輝度変化及びテクスチャ変化の算出に好適な画像を取得することができる。
 また、抽出したい被写体の反射率に応じて適切な光量の照明光が照射されるような光の強度を照明条件の1つとすることができ、そのようにすることで、輝度変化及びテクスチャ変化の算出に好適な画像を取得することができる。
 さらには、上記2つの条件の双方を照明条件とすることができ、そのようにすることで、被写体の位置、サイズ及び反射率に応じて、輝度変化及びテクスチャ変化の算出に好適な画像を取得することができる。
 なお、本実施の形態では、発光する光の強度に条件づけられた2つの照明条件(照明条件A及び照明条件B)を用いて被写体領域を抽出したが、被写体への照明光の照射分布を考慮した照明条件を2つ用意しても良い。例えば、撮像画像における被写体位置がある程度決まっている場合は、被写体位置に適切に照明光が配光されるように照明条件を設定する。また、局所的な環境光の変化に応じて照射分布を設定しても良い。照射分布は、例えば、LEDの照射角度を変えて調整しても良いし、複数個のLEDのうちの発光させるLEDを選択することで照射分布を調整してもよい。
 なお、上記の実施の形態では、2枚の画像間で輝度変化及びテクスチャ変化の算出を行っている。しかしながら、本発明はこれに限定されず、3枚以上の画像間で輝度変化及びテクスチャ変化の算出を行うようにしても良い。要するに複数の画像間で輝度変化及びテクスチャ変化の算出を行うこととすれば良い。3枚以上の画像間で輝度変化を行う場合には、それぞれの画像としては、互いに異なる照明条件での撮像で得られたものを用い、3枚以上の画像間でテクスチャ変化を行う場合には、それぞれの画像としては、互いに異なる時刻における撮像で得られたものを用いる。互いに異なる時刻における撮像で得られた画像は、互いに異なる照明条件での撮像で得られた画像であっても良い。従って、輝度変化の算出に用いられた画像と同じものであっても良い。
 但し、輝度変化及びテクスチャ変化の算出に用いる画像の数を増やすと、メモリ量或いは処理量は増加する。即ちハードウェアリソースが増え、処理時間が長くなる。従って、これらの点を勘案して、輝度変化及びテクスチャ変化の算出に用いる画像の数を決定する必要がある。
 なお、本実施の形態では、差分画像を生成する際に、照明条件Aの画像Gaの輝度値から照明条件Bの画像Gbの輝度値を減算しているが、これに限るものではない。例えば、輝度差分の絶対値を使用しても良い。
 また、本実施の形態では、輝度変化算出に用いた画像と同じ画像を用いてテクスチャ変化を算出したが、これに限るものではない。異なる時刻に撮像された2枚の画像であれば、照明条件に関係なく、テクスチャ変化を算出することで背景変化或いは被写体移動を捉えることができる。
 但し、輝度変化算出に用いた画像と十分に近いタイミングで撮像された画像を用いる必要がある。
 また、本実施の形態では、画像上のすべての画素に対してテクスチャ変化dFを算出したが、算出された輝度変化dIに基づき、輝度変化が生じた領域(輝度変化dIが閾値TIよりも大きい領域)内の画素についてのみテクスチャ変化dFを算出しても良い。この場合、テクスチャ変化dFの処理量が削減される。
 上記の実施の形態では、テクスチャ特徴の算出の際に、注目画素を中心とする正方形の特徴抽出領域を使用したが、特徴抽出領域の形状はこれに限定されない。即ち、特徴抽出領域形状は、円形であっても良く、四角形以外の多角形であっても良い。但し、いずれの場合も注目画素を中心とするものであるのが望ましい。また、特徴抽出領域のサイズも上記の例に限定されない。
 上記の実施の形態では、画像の周縁部に位置する画素以外のすべての画素の各々についてテクスチャ特徴の算出及びテクスチャ変化の算出を行った。
 しかし、本発明はこれに限定されない。例えば、画像の周縁部以外の部分において、予め定められた間隔毎の位置にある画素についてのみ、テクスチャ特徴の算出及びテクスチャ変化の算出を行っても良い。例えば画像上に図19に示すように格子模様を描き、その格子点に位置する画素についてのみテクスチャ特徴の算出及びテクスチャ変化の算出を行っても良い。
 図19に示す例では、格子が正方格子であって、格子点間の縦方向の間隔及び横方向の間隔が符号Dで示されている。
 図19に示すように、格子点に位置する画素についてのみテクスチャ特徴の算出及びテクスチャ変化の算出を行うと、格子点以外に位置する画素については、最も近い格子点位置にある画素について算出されたテクスチャ特徴及びテクスチャ変化を、当該格子点以外に位置する画素についてのテクスチャ特徴及びテクスチャ変化として用いることとしても良い。
 なお、上記の実施の形態で説明した、すべての画素についてテクスチャ特徴の算出及びテクスチャ変化の算出を行う例は、図19でDが1画素である場合に相当する。
 なおまた、テクスチャ特徴及びテクスチャ変化の算出の対象とする画素は、画像上の格子点に位置するものに限定されない。
 さらに、テクスチャ特徴及びテクスチャ変化の算出の対象とする画素相互の間隔、従ってそのような画素の密度は、画像全体で均一でなくても良い。例えば、画像上で被写体が存在する位置が予め分かっていれば、その領域付近においては、テクスチャ特徴及びテクスチャ変化の算出の対象とする画素の密度が高く、それ以外の領域ではテクスチャ特徴及びテクスチャ変化の算出の対象とする画素の密度が低くなるようにしても良い。
 上記の実施の形態では、テクスチャ特徴算出の際に、特徴抽出領域を4×4個のセルに分割した。しかし、セルの個数はこれに限定されない。例えば、セルの数を多くし、各セルをより小さくして、特徴抽出領域内のセルの数を増やすことで、より詳細なテクスチャ特徴を得ることができるが、特徴ベクトルの次元が増えるため処理負荷が増加する。これらの点と、本発明が適用される装置の特性を勘案して、セルの数及びサイズを決定すれば良い。
 上記の実施の形態では、画像メモリ14から読み出した画像の照明条件を、画像の輝度特徴量(例えば輝度平均値)から判定しているが、本発明はこれに限定されない。
 例えば、照射部12へ与える制御信号C11aと同様に、照明条件(例えば発光強度)を示す信号を撮像部13へ与え、撮像部13が上記の信号に基づいて照明条件を判断し、撮像画像を画像メモリ14へ記憶させる際に照明条件を示す情報(付加情報)を付加し、輝度変化算出部21が、画像メモリ14から画像を読み出す際に、上記の付加情報に基づいて、画像の照明条件を判定することとしても良い。
 上記の実施の形態では、画像メモリ14から輝度算出に使用された画像の何れか一方を読み出し、読み出した画像のうちの、被写体抽出部23で抽出した被写体領域に一致する部分を抽出結果(被写体画像)とした。しかしながら、本発明はこれに限定されない。
 例えば、輝度変化算出部21で算出された輝度変化から成る画像(すべての画素の輝度変化を、それぞれの画素と同様に配列した画像)、即ち、輝度差分画像のうちの、被写体抽出部23で抽出した被写体領域に一致する部分を抽出結果(被写体画像)としても良い。輝度差分画像は、環境光の影響が取り除かれているので、輝度差分画像から抽出した画像を被写体画像とすればその点で有利である。
 さらにまた、上記の実施の形態では、輝度変化算出部21が、画像メモリ14から最新の画像と1フレーム前の画像を読出し、2枚の画像間で、各画素の輝度変化を算出している。その結果、照明条件Aの画像Gaとそれに続く照明条件Bの画像Gbとの間で輝度変化を算出するとともに、上記照明条件Bの画像Gbとそれに続く照明条件Aの画像Gaとの間でも輝度変化を算出することになる。テクスチャ変化についても同様である。
 上記のようにする代わりに、照明条件Aの画像Gaと、その直後のフレームの照明条件Bの画像Gbとの間で輝度変化を算出し、照明条件Aの画像Gaとその直前のフレームの照明条件Bの画像Gbとの間では輝度変化を算出しないように輝度変化算出部21を構成しても良い。言い換えれば最新の画像が照明条件Bの画像Bで、その直前の画像が照明条件Aの画像Gaである場合に限り、輝度変化の算出を行うようにしても良い。テクスチャ変化算出部22も同様に、最新の画像が照明条件Bの画像Gbで、その直前の画像が照明条件Aの画像Gaである場合に限り、テクスチャ変化の算出を行うように構成しても良い。
 その場合図13に示す手順の代わりに、図20に示す手順を用いる。図20では、図13のステップST7の代わりに、ステップST7aが行われる。ステップST7aでは、最新の画像が照明条件Bの画像Gbか否かの判定をし、判定結果がNOであれば、そのフレームでの処理を終了することとし、判定結果がYESであれば、ステップST8及びST9以降の処理を行う。
 なお、逆に、最新の画像が照明条件Aの画像Gaで、その直前の画像が照明条件Bの画像Gbである場合に限り、輝度変化及びテクスチャ変化の算出を行うようにしても良い。
実施の形態2.
 図21は、本発明の実施の形態2に係る撮像装置の構成を示すブロック図である。図21に示される撮像装置は、図1に示される撮像装置と概して同じであるが、目標値算出部24が追加され、撮像照射制御部11の代りに、撮像照射制御部11bを備える点で異なる。図1と同一の符号は同一又は相当部分を示すので説明を省略する。
 図1に示す撮像装置では、照明条件及び撮像条件が固定されているが、本実施の形態に係る撮像装置では、目標値算出部24が、テクスチャ変化、被写体領域の抽出の結果及び撮像画像の輝度特徴量に基づいて照明条件及び撮像条件の少なくともいずれか一方を調整することにより、環境光或いは背景の変化に対して被写体領域の抽出の精度を向上させる。
 照明条件或いは撮像条件の調整は、照明条件或いは撮像条件に係る目標値を調整し、照明条件或いは撮像条件に係る実際の値が、目標値に一致するように制御することで行われる。
 撮像照射制御部11bは、目標値算出部24から照明条件及び撮像条件に係る目標値信号Qを供給され、目標値信号Qに基づいて、制御信号C11aを生成して、照射部12へ出力すると共に、制御信号C11bを生成して、撮像部13へ出力する。
 目標値算出部24は、画像メモリ14から2つの照明条件で撮像された画像を読み出すとともに、テクスチャ変化算出部22からテクスチャ変化dFを供給され、さらに、被写体抽出部23から被写体領域の抽出の結果を供給され、これらの入力に基づいて、照明条件及び撮像条件の少なくとも一方の目標値を算出し、算出した目標値を表す目標値信号Qを撮像照射制御部11bへ出力する。
 目標値算出部24が撮像照射制御部11bへ出力する目標値信号Qは、撮像照射制御部11bにおいて制御信号C11a及びC11bの生成に使用される。目標値信号Qは、例えば、照明光の照射分布の形状、照明光の発光強度、照明光の発光期間、撮像部の露光時間、絞り、及びゲインの少なくとも何れか一つの目標値を表すものである。但し、目標値信号Qは、照明光の照射分布の形状、照明光の発光強度、照明光の発光期間、撮像部の露光時間、絞り、ゲインを直接表す数値(絶対値)の目標値を表すものに限らず、相対値の目標値を表すものでも良く、さらに絶対値又は相対値をコード化したものでも良い。以下では、目標値信号Qは照明光の発光強度の目標値を表すものであるとして説明する。
 目標値算出部24は、撮像部13が、輝度変化算出部21における輝度変化dIの算出及びテクスチャ変化算出部22におけるテクスチャ変化dFの算出に好適な画像を取得できるように上記の目標値を算出する。
 目標値算出部24が算出した目標値は内部の目標値メモリ244(後述する)に蓄積される。
 目標値算出部24は、撮像照射制御部11bが照明条件又は撮像条件の制御を行う際に、目標値メモリ244に蓄積された目標値を読み出し、読み出した目標値を表す目標値信号Qを撮像照射制御部11bに供給する。
 目標値算出部24は、図22に示すように、被写体内変化領域抽出部241と、面積判定部242と、目標値調整部243と、目標値メモリ244とを有する。
 被写体内変化領域抽出部241は、被写体抽出部23から出力される被写体領域Hの内部に位置し、テクスチャ変化dFが比較的大きい領域RLHを抽出する。
 ここで、テクスチャ変化が比較的大きいか否かは、テクスチャ変化算出部22から出力されるテクスチャ変化dFに基づいて判定される。
 例えば、上記のテクスチャ変化dFが閾値TFaより大きい領域を、テクスチャ変化領域RLHと判定し、それ以外の領域は無変化領域RLLと判定する。
 被写体抽出部23においてテクスチャ変化dFが閾値TFより大きいと判定された領域(テクスチャ変化領域)との区別のため、被写体内変化領域抽出部241においてテクスチャ変化dFが閾値TFaより大きいと判定された領域を、被写体内変化領域と言う。
 なお、閾値TFaは、例えば、TFa<TFを満たすように定められる。このように閾値TFaを設定することで、被写体抽出部23において閾値TFを使用して抽出された被写体領域(輝度変化dIが閾値TI以上であり、テクスチャ変化dFが閾値TF以下であると判定された領域)において、テクスチャ変化dFが、別の閾値TFaよりも大きい領域(被写体内変化領域)RLHを抽出することができる。
 面積判定部242は、被写体内変化領域抽出部241で抽出された被写体内変化領域RLHの面積、例えば該領域RLHに含まれる画素の数)が閾値TAa以上か否かの判定を行い、判定結果を出力する。
 被写体領域内におけるテクスチャ変化dFは、照明条件が変化した画像間でのテクスチャ変化を表しており、被写体内変化領域RLHは、照明条件の変化によりテクスチャ特徴が変化した領域と判断できる。
 テクスチャ特徴は一般には照明条件の変化による変化は小さいが、それにも拘わらず、照明条件の変化によりテクスチャ特徴がある程度以上変化した場合、即ち、被写体内変化領域RLHの面積が閾値TAa以上である場合には、照明条件或いは撮像条件の調整(変更)が必要と判断する。
 目標値調整部243は、面積判定部242で、被写体内変化領域RLHの面積が閾値TAa以上であると判定されると、その判定結果に応じて、新たな目標値を算出する。
 新たな目標値は、2つの照明条件A及びBにおいて、発光強度の差が小さくなるように定められる。例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像と、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像とを使用して、テクスチャ変化dFが算出されたのであれば、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)、及び照明条件Bでの次の撮像時刻t2bにおける発光強度の目標値ΦB(t2b)を、それぞれ式(5)及び式(6)のように調整する。このように目標値を調整することで、2つの照明条件A、Bにおける発光強度の目標値の差を小さくする。
 ΦA(t2a)=ΦA(t1a)-ΔΦa   …(5)
 ΦB(t2b)=ΦB(t1b)+ΔΦa   …(6)
 式(5)及び式(6)でΔΦaは、調整量を表す。
 発光強度の目標値を調整し、調整後の目標値を照射部12に与えることで、照射部12では、発光強度の実際の値が目標値に一致するように制御が行われる。
 上記の調整に加えて、輝度変化dIを算出するために使用した画像Ga、Gbの中で、発光強度がより小さい条件Bで撮像された画像Gbのうちの、被写体内変化領域RLHと一致する領域の輝度特徴量Ihが閾値TLa以下の場合、上記の照明条件B(発光強度がより小さい照明条件B)における発光強度が大きくなるように目標値を調整する。即ち、上記の照明条件Bにおける発光強度の目標値ΦBを大きくする。
 ここで言う、輝度特徴量Ihとは、例えば、輝度値の最大値、平均値又は中央値である。以下では、輝度値の平均値を輝度特徴量Ihとして使用するものとして説明する。
 例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像Gaと、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像Gbとを使用して輝度変化dIを算出したのであれば、照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を式(7)のように調整し、より大きくする。
 ΦB(t2b)=ΦB(t1b)+ΔΦb   …(7)
 式(6)の処理と、式(7)の処理が同時に行われる場合、調整後の発光強度の目標値ΦB(t2b)は、下記の式(8)の如くとなる。
 ΦB(t2b)=ΦB(t1b)+ΔΦa+ΔΦb   …(8)
 また、輝度変化dIを算出するために使用した画像Ga、Gbの中で、発光強度がより大きい条件(A)で撮像された画像Gaのうちの、被写体内変化領域RLHと一致する領域の輝度特徴量Ihが閾値TLbより大きい場合、上記の照明条件A(発光強度がより大きい条件A)における発光強度が小さくなるように目標値ΦAを調整する。即ち、上記の照明条件Aにおける発光強度の目標値ΦAを小さくする。
 例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像Gaと、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像Gbとを使用して輝度変化dIを算出したのであれば、撮像条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)を式(9)のように調整し、より小さくする。
 ΦA(t2a)=ΦA(t1a)-ΔΦc   …(9)
 式(5)の処理と、式(9)の処理が同時に行われる場合、調整後の発光強度の目標値ΦA(t2a)は下記の式(10)の如くとなる。
 ΦA(t2a)=ΦA(t1a)-ΔΦa-ΔΦc   …(10)
 一方、被写体内変化領域RLHが存在しない場合は、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)及び照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を、それぞれ式(11)及び式(12)のように調整する。このように調整することで、2つの照明条件A、Bにおける発光強度の差を大きくし、これにより被写体において、より大きな輝度変化dIが生じるようにする。
 ΦA(t2a)=ΦA(t1a)+ΔΦd   …(11)
 ΦB(t2b)=ΦB(t1b)-ΔΦd   …(12)
 上記のように発光強度を変化させることで、被写体領域において十分に大きな輝度変化dIを生じさせることができる。
 式(5)から式(12)に示した更新規則に応じて目標値を調整する際、調整量ΔΦa~ΔΦdは発光強度ΦA及びΦBと比較して十分に小さいものとする。調整量ΔΦa~ΔΦdが大きすぎる場合、発光強度ΦA及びΦBが発振してしまい、望ましくない。また、発光強度ΦA及びΦBを安定させる上では、更新までの時間遅れが重要であり、これらを考慮して調整量ΔΦa~ΔΦdの大きさを設定する。
 目標値調整部243は、以上のように更新した目標値を目標値メモリ244に書き込むとともに、目標値を表す目標値信号Qを撮像照射制御部11bへ供給する。
 以下、実施の形態2の撮像装置における処理の手順を図23及び図24のフローチャートを用いて説明する。図23及び図24に示される処理の手順は、図13に示される方法と概して同じであるが、ステップST1の代りにステップST1bを含み、ステップST31~ST34が付加されている点で異なる。図23及び図24において、図13と同じ符号は、同一又は相当するステップを示す。
 ステップST1bで、撮像照射制御部11bは、目標値算出部24から照明条件及び撮像条件の目標値を表す目標値信号Qを供給され、目標値信号Qに応じて制御信号C11a及び制御信号C11bを出力する。
 照明条件は、図13のステップST1と同様、2フレーム期間を1サイクルとして変化するように制御される。
 ステップST31で、被写体内変化領域抽出部241が、ステップST10で検出された被写体領域Hと、ステップST9で算出されたテクスチャ変化dFとから被写体内変化領域RLHを抽出する。
 次にステップST32で、面積判定部242が、ステップST31で抽出された被写体内変化領域RLHの面積が閾値TAa以上か否かを判定する。
 被写体内変化領域RLHの面積が閾値TAa未満であれば、そのフレームの処理を終了する。
 被写体内変化領域RLHの面積が閾値TAa以上であれば、ステップST33に進む。
 ステップST33で、目標値調整部243が、目標値メモリ244に記憶されている目標値を読み出し、ステップST31で抽出された被写体内変化領域RLHと、ステップST9において算出されたテクスチャ変化dFと、画像メモリ14に記憶されている画像データ(最新の画像データ)から、新たな目標値を算出し、算出した新たな目標値を目標値メモリ244に書き込む(例えば古い目標値に対して上書きする)とともに、新たな目標値を表す目標値信号Qを撮像照射制御部11bへ供給する。
 新たな目標値の算出は、式(5)~式(12)を参照して説明したように行うことができる。
 次に、ステップST34で、撮像照射制御部11bは、目標値算出部24から供給される目標値信号Qに基づいて、制御信号C11a、C11bの生成(その内容の更新)を行う。
 制御信号C11a、C11bによって、2フレーム期間から成る各サイクルにおける各順位のフレーム(第1フレーム、第2フレーム)における照明条件が更新される。更新の後、各フレームの撮像を行う場合には、当該順位のフレームについての更新後の照明条件で撮像が行われる。
 上記の実施の形態では、目標値算出部24が、照明条件の目標値として、照明光の発光強度の目標値を算出することとしているが、代わりに、照明光の照射分布の目標値を算出しても良く、照明光の発光強度の目標値と、照明光の照射分布の目標値の双方を算出することとしても良い。
 上記の実施の形態では、輝度変化dIを算出するために使用した画像Ga、Gbのうちの被写体内変化領域RLHと一致する領域の輝度特徴量に基づいて、照明条件の調整(新たな目標値の決定)を行っている。しかしながら、本発明はこれに限定されない。例えば、輝度変化dIを算出するために使用した画像Ga、Gbの被写体領域の全体の輝度特徴量に基づいて、照明条件の調整(新たな目標値の決定)を行うこととしても良い。
 以上のように、本実施の形態に係る撮像装置では、被写体領域として抽出された領域内において、輝度特徴量Ih及びテクスチャ変化dFの少なくとも何れか一方に基づいて、照明条件及び撮像条件の少なくとも何れか一方の目標値を算出し、算出した目標値を表す目標値信号Qに基づいて撮像照射制御部11bが制御信号C11a、C11bを出力することとしており、これにより、環境光の変化に対し、被写体領域の抽出に好適な画像を取得することができ、被写体領域の抽出の精度を向上させることができる。
 特に、照明条件の目標値として、照明光の照射分布及び照明光の発光強度の少なくとも何れか一方の目標値を算出することとすれば、局所的な環境光の変化に対し、被写体領域の抽出に好適な画像を取得することができ、被写体領域の抽出の精度を向上させることができる。
 また、本実施の形態に係る撮像装置では、抽出された被写体領域において、異なる照明条件の画像を用いて算出されたテクスチャ変化dFが閾値TFaよりも大きい領域(被写体内変化領域RLH)の面積が閾値(TAa)以上であるときに、異なる照明条件の画像間でのテクスチャ変化dFが小さくなるように照明条件及び撮像条件の少なくとも何れか一方の目標値を算出する。また、抽出された被写体領域において、異なる照明条件の画像を用いて算出されたテクスチャ変化dFが閾値TFaよりも大きい領域(被写体内変化領域RLH)が存在しないときに、異なる照明条件の画像間でのテクスチャ変化dFが大きくなるように照明条件及び撮像条件の少なくとも何れか一方の目標値を算出する。これにより、環境光の変化に対し、被写体領域の抽出に好適な画像を取得することができ、被写体領域の抽出の精度を向上させることができる。
 さらに、本実施の形態に係る撮像装置では、抽出された被写体領域において、異なる照明条件の画像を用いて算出されたテクスチャ変化dFが閾値TFaよりも大きい領域(被写体内変化領域RLH)の面積が閾値(TAa)以上であり、且つ輝度変化dIの算出に使用された画像のうち発光強度がより小さい照明条件の画像のうちの、上記の被写体領域の輝度特徴量、例えば、被写体内変化領域RLH内の輝度特徴量Ihが閾値以下であるときに、上記の照明条件(発光強度がより小さい照明条件)の発光強度を大きくするように照明条件の目標値を算出する(即ち、発光強度の目標値を大きくする)。また、抽出された被写体領域において、異なる照明条件の画像を用いて算出されたテクスチャ変化dFが閾値TFaよりも大きい領域(被写体内変化領域RLH)の面積が閾値(TAa)以上であり、且つ輝度変化dIの算出に使用された画像のうち発光強度がより大きい照明条件の画像のうちの、上記の被写体領域の輝度特徴量、例えば、被写体内変化領域RLH内の輝度特徴量Ihが閾値より大きいときに、上記の照明条件(発光強度がより大きい照明条件)の発光強度を小さくするように照明条件に係る目標値を算出する(即ち、発光強度の目標値を小さくする)。これにより、環境光の変化に対し、被写体領域の抽出に好適な画像を取得することができ、被写体領域の抽出の精度を向上させることができる。
実施の形態3.
 図25は、本発明の実施の形態3に係る撮像装置の構成を示すブロック図である。図25に示される撮像装置は、図21に示される撮像装置と概して同じであるが、図21の撮像照射制御部11b、輝度変化算出部21、テクスチャ変化算出部22、被写体抽出部23、及び目標値算出部24の代わりに、撮像照射制御部11c、輝度変化算出部21c、テクスチャ変化算出部22c、被写体抽出部23c、及び目標値算出部24cを備える点で異なる。図21と同一の符号は同一又は相当部分を示すので説明を省略する。
 実施の形態2では、テクスチャ変化算出部22が、異なる時刻における異なる照明条件下で撮像された2枚の画像から、単一のテクスチャ変化dFを算出する。これに対し、実施の形態3では、テクスチャ変化算出部22cが、異なる時刻における同じ照明条件下で撮像された2枚の画像から、第1のテクスチャ変化dF1を算出するとともに、異なる時刻における異なる照明条件下で撮像された2枚の画像から、第2のテクスチャ変化dF2を算出する。
 上記のように2つのテクスチャ変化dF1、dF2を算出することを可能にするため、図25の撮像照射制御部11cは、照明条件の変更を、3フレーム期間を周期(1サイクル)として行い、各周期において、照明条件Aを1フレーム期間生成した後、照明条件Bを2フレーム続けて生成する。即ち、各サイクルの第1フレームでは、第1の照明条件Aで撮像を行い、第2フレーム及び第3フレームでは、第2の照明条件Bで撮像を行う。このようにする結果、第1フレームと第2フレームとは照明条件が異なり、第2フレームと第3フレームとは照明条件が同じとなる。
 そして、第1フレームの画像Gaと第2フレームの画像Gb1から、輝度変化dI及び第2のテクスチャ変化dF2を算出し、第2フレームの画像Gb1と第3フレームの画像Gb2から第1のテクスチャ変化dF1を算出する。
 そして、上記のように算出された輝度変化dI及び第1のテクスチャ変化dF1から被写体領域を抽出する。さらに、このようにして抽出された被写体領域と、第2のテクスチャ変化dF2とから、被写体内変化領域RLHを抽出する。
 輝度変化算出部21cは、図26に示すように、輝度特徴量算出部211と、輝度特徴量メモリ212と、照明条件判定部213cと、差分算出部215と、輝度変化メモリ216とを有する。
 輝度特徴量算出部211は、画像メモリ14から読み出された各フレームの画像の輝度特徴量Imを算出し、算出した輝度特徴量Imを輝度特徴量メモリ212に記憶させる。
 照明条件判定部213cは、輝度特徴量算出部211で算出された最新の画像(最新のフレームの画像)の輝度特徴量Imと、輝度特徴量メモリ212に記憶されている、1フレーム前の画像の輝度特徴量Im及び2フレーム前の画像の輝度特徴量Imとを比較する。これらの画像は、互いに連続する3つのフレームの画像である。照明条件判定部213cは、これらの3つのフレームの画像の輝度特徴量Imを比較し、比較の結果に基づいて、どの画像が照明条件Aの画像Gaであり、どの画像が照明条件Bの画像Gb1、Gb2であるかの判定を行う。さらに、各画像が、照明条件の変化の各サイクル中の何番目の画像であるかの判定を行う。この判定の結果CNbは、差分算出部215及びテクスチャ変化算出部22cに供給される。
 差分算出部215は、照明条件判定部213cから上記の判定結果CNbを受けることで、最新の画像が、照明条件変化の各サイクル中の何番目の画像であるかを認識する。そして、照明条件の変化の各サイクル中の1番目の画像(照明条件Aの画像)Gaの各画素の輝度値から、照明条件の変化の各サイクル中の2番目の画像(照明条件Bの画像)Gb1の、同じ位置の画素の輝度値を差し引くことで、輝度差分を求め、輝度変化dIとして出力する。
 実施の形態1で述べたのと同様に、差し引いた結果が負の値となる場合には、輝度差分は0であるとする。
 テクスチャ変化算出部22cは、第1のテクスチャ変化dF1を被写体抽出部23cに出力し、第2のテクスチャ変化dF2を目標値算出部24cに出力する。
 テクスチャ変化算出部22cは、図27に示すように、CSLBP特徴算出部221と、CSLBP特徴メモリ222と、テクスチャ特徴算出部223と、テクスチャ特徴メモリ224と、特徴変化処理部225cと、テクスチャ変化メモリ226とを有する。
 図27のうち、CSLBP特徴算出部221、CSLBP特徴メモリ222、及びテクスチャ特徴算出部223は、図4に示されるものと同じである。
 特徴変化処理部225cは、輝度変化算出部21c内の照明条件判定部213cから上記の判定結果CNbを受けることで、最新の画像が、照明条件変化の各サイクル中の何番目の画像であるかを認識する。そして、各サイクル中の1番目の画像Gaと2番目の画像Gb1とのテクスチャ変化を、第2のテクスチャ変化dF2として算出する。また、各サイクル中の2番目の画像Gb1の3番目の画像Gb2とのテクスチャ変化を、第1のテクスチャ変化dF1として算出する。
 算出された第1のテクスチャ変化dF1及び第2のテクスチャ変化dF2は、テクスチャ変化メモリ226に蓄積される。蓄積された第1のテクスチャ変化dF1は、後に被写体抽出部23cに供給される。蓄積された第2のテクスチャ変化dF2は、後に目標値算出部24cに供給される。
 被写体抽出部23cは、実施の形態1で説明した被写体抽出部23と同様のものである。但し、テクスチャ変化として第1のテクスチャ変化DF1を用いる。
 即ち、被写体抽出部23cは、輝度変化算出部21cで算出された輝度変化dIと、テクスチャ変化算出部22cで算出された第1のテクスチャ変化dF1とに基づいて、被写体領域を抽出し、抽出結果Hを目標値算出部24cへ出力する。
 被写体抽出部23cが輝度変化dI及びテクスチャ変化dF1に基づいて被写体領域を抽出する処理は、実施の形態1において、被写体抽出部23が輝度変化dI及びテクスチャ変化dFに基づいて被写体領域を抽出する処理と同じである。
 目標値算出部24cは、画像メモリ14から2つの照明条件で撮像された画像を読み出し、テクスチャ変化算出部22cから第2のテクスチャ変化dF2が供給され、被写体抽出部23cから被写体領域Hの抽出結果を供給され、これらの入力に基づいて、照明条件及び撮像条件の少なくとも何れか一つに係る目標値を算出し、算出した目標値を表す目標値信号Qを撮像照射制御部11cへ出力する。
 目標値算出部24cは、実施の形態2の目標値算出部24と同様のものであり、目標値算出部24cが撮像照射制御部11cへ供給する目標値信号Qは、実施の形態2で説明したのと同様のものである。但し、テクスチャ変化として第2のテクスチャDF2が供給される。
 以下目標値の調整方法について詳しく説明する。
 目標値算出部24cの被写体内変化領域抽出部241は、被写体抽出部23cから出力される被写体領域Hの内部に位置し、テクスチャ変化が比較的大きい領域RLHを抽出する。
 ここで、テクスチャ変化が比較的大きいか否かは、テクスチャ変化算出部22cから出力されるテクスチャ変化dF2に基づいて判定される。
 例えば、上記のテクスチャ変化dF2が閾値TFaより大きい領域を被写体内変化領域RLHと判定し、それ以外の領域は無変化領域RLLと判定する。
 なお、閾値TFaについて、実施の形態2では、TFa<TFが好ましいと述べたが、実施の形態3ではそのような制約はない。
 この処理を行うことで、被写体抽出部23cにおいて第1のテクスチャdF1が閾値TF以下であると判定された被写体領域内において、第2のテクスチャdF2が、閾値TFa(閾値TFとは異なる)よりも大きい領域(被写体内変化領域)RLHを抽出することができる。
 面積判定部242は、被写体内変化領域抽出部241で抽出された被写体内変化領域RLHの面積、例えば該領域RLHに含まれる画素の数が閾値TAa以上か否かの判定を行い、判定結果を出力する。
 目標値調整部243は、面積判定部242で、被写体内変化領域RLHの面積が閾値TAa以上であると判定されると、その判定結果に応じて、新たな目標値を算出する。
 新たな目標値は、2つの照明条件A及びBにおいて、発光強度の差が小さくなるように定められる。例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像と、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像とを使用して、第2のテクスチャ変化dF2が算出されたのであれば、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)、及び照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を、それぞれ式(13)及び式(14)のように調整する。このように目標値を調整することで、2つの照明条件A、Bにおける発光強度の差を小さくする。
 ΦA(t2a)=ΦA(t1a)-ΔΦa   …(13)
 ΦB(t2b)=ΦB(t1b)+ΔΦa   …(14)
 式(13)及び式(14)でΔΦaは、調整量を表す。
 発光強度の目標値を調整し、調整後の目標値を照射部12に与えることで、照射部12では、発光強度の実際の値が目標値に一致するように制御が行われる。
 上記の調整に加えて、輝度変化dIを算出するために使用した画像Ga、Gb1の中で、発光強度がより小さい条件Bで撮像された画像Gb1のうちの、被写体内変化領域RLHと一致する領域の輝度特徴量Ihが閾値TLa以下の場合、上記の照明条件B(発光強度がより小さい照明条件B)における発光強度が大きくなるように目標値を調整する。即ち、上記の照明条件Bにおける発光強度の目標値ΦBを大きくする。
 ここで言う輝度特徴量Ihとは、例えば、輝度値の最大値、平均値及び中央値である。以下では、輝度値の平均値を輝度特徴量Ihとして使用するものとして説明する。
 例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像Gaと、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像Gb1とを使用して輝度変化dIを算出したのであれば、照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を式(15)のように調整し、より大きくする。
 ΦB(t2b)=ΦB(t1b)+ΔΦb   …(15)
 式(14)の処理と、式(15)の処理が同時に行われる場合、調整後の発光強度の目標値ΦB(t2b)は、下記の式(16)の如くとなる。
 ΦB(t2b)=ΦB(t1b)+ΔΦa+ΔΦb   …(16)
 また、輝度変化dIを算出するために使用した画像Ga、Gb1の中で、発光強度がより大きい条件(A)で撮像された画像Gaのうちの、被写体内変化領域RLHと一致する領域の輝度特徴量Ihが閾値TLbより大きい場合、上記の照明条件A(発光強度がより大きい条件A)における発光強度が小さくなるように目標値ΦAを調整する。即ち、上記の照明条件Aにおける発光強度の目標値ΦAを小さくする。
 例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像Gaと、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像Gb1とを使用して輝度変化dIを算出したのであれば、撮像条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)を式(17)のように調整し、より小さくする。
 ΦA(t2a)=ΦA(t1a)-ΔΦc   …(17)
 式(13)の処理と、式(17)の処理が同時に行われる場合、調整後の発光強度の目標値ΦA(t2a)は下記の式(18)の如くとなる。
 ΦA(t2a)=ΦA(t1a)-ΔΦa-ΔΦc   …(18)
 一方、被写体内変化領域RLHが存在しない場合は、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)及び照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を、それぞれ式(19)及び式(20)のように調整する。このように調整することで、2つの照明条件A、Bにおける発光強度の差を大きくし、これにより被写体において、より大きな輝度変化dIが生じるようにする。
 ΦA(t2a)=ΦA(t1a)+ΔΦd   …(19)
 ΦB(t2b)=ΦB(t1b)-ΔΦd   …(20)
 上記のように発光強度を変化させることで、被写体領域において十分に大きな輝度変化dIを生じさせることができる。
 式(13)から式(20)に示した更新規則に応じて目標値を調整する際、調整量ΔΦa~ΔΦdは発光強度ΦA及びΦBと比較して十分に小さいものとする。調整量ΔΦa~ΔΦdが大きすぎる場合、発光強度ΦA及びΦBが発振してしまい、望ましくない。また、発光強度ΦA及びΦBを安定させる上では、更新までの時間遅れが重要であり、これらを考慮して調整量ΔΦa~ΔΦdの大きさを設定する。
 目標値調整部243は、以上のように更新した目標値を目標値メモリ244に書き込むとともに、目標値を表す目標値信号Qを撮像照射制御部11cへ供給する。
 以下、実施の形態3の撮像装置における処理の手順を図28及び図29のフローチャートを用いて説明する。図28及び図29に示される手順は、図23及び図24に示される手順と概して同じであるが、ステップST1b、ST7、ST8、ST9、ST10、ST31の代わりにステップST1c、ST7c、ST8c、ST9c、ST10d、ST31dを含む点で異なる。図28及び図29において、図23及び図24と同じ符号は、同一又は相当するステップを示す。
 ステップST1cで、撮像照射制御部11cは、目標値算出部24cから照明条件及び撮像条件の目標値を表す目標値信号Qを供給され、目標値信号Qに応じて制御信号C11a及び制御信号C11bを出力する。
 ステップST1cは、図23のステップST1bと同様であるが、図28のステップST1cでは、照明条件が3フレーム期間を1サイクルとして変化する点で異なる。
 ステップST7cでは、最新の画像と1フレーム前の画像の組合せについて、画像の照明条件の判定を行う。この判定においては、最新の画像と、1フレーム前の画像の組合せが、3フレーム周期のうちの第1フレームの画像と第2フレームの画像の組合せ(AB)であるか、第2フレームの画像と第3フレームの画像の組合せ(BB)であるか、第3フレームの画像と(次の3フレーム周期の)第1フレームの画像の組合せ(BA)であるかを判定する。この判定は、実施の形態1で説明したのと相前後して供給されるフレームの画像の明るさの変化を記憶し、比較することで行われる。
 なお、撮像照射制御部11cから制御信号C11a、C11bを得て、該制御信号に基づいてこの判定を行っても良い。
 ステップST7cで、第1フレームと第2フレーム画像の組合せ(AB)であると判定したときは、ステップST8c及びステップST9cに進む。
 ステップST8c及びステップST9cの処理は、実施の形態1におけるステップST8及びST9の処理と同様である。
 即ち、ステップST8cでは、輝度変化算出部21cの差分算出部215が、最新のフレームの画像(第2フレーム画像)と1フレーム前の画像(第1フレーム画像)の各画素の輝度変化dIを算出する。そして、算出した各画素の輝度変化dIを輝度変化メモリ216に記憶させる。
 ステップST9cでは、テクスチャ変化算出部22cが、最新のフレームの画像(第2フレーム画像)と1フレーム前の画像(第1フレーム画像)の各画素のテクスチャ変化を算出し、算出したテクスチャを第2のテクスチャdF2として出力するとともに、テクスチャ変化メモリ226に記憶させる。
 ステップST8c及びST9cの処理の後、このフレーム期間における処理を終了する。
 ステップST8cで輝度変化メモリ216に記憶された輝度変化dI、及びステップST9cでテクスチャ変化メモリ226に記憶された第2のテクスチャ変化dF2は次のフレーム期間に利用される。
 ステップST7cで、第2フレーム画像と第3フレーム画像の組合せ(BB)であると判定した場合には、ステップST9dに進む。
 ステップST9dでは、テクスチャ変化算出部22cが、最新のフレームの画像(第3フレーム画像)と1フレーム前の画像(第2フレーム画像)の各画素のテクスチャ変化を算出し、第1のテクスチャdF1として出力するとともに、テクスチャ変化メモリ226に記憶させる。
 ステップST9dの次のステップST10dでは、被写体領域を抽出する。この処理は、図13のステップST10と同じである。但し、図13のステップST10ではテクスチャ変化dFを用いるが、図29のステップST10dでは、ステップST9dで算出された第1のテクスチャ変化dF1を用いる。また、輝度変化dIとしては1フレーム期間前にステップST8cで算出されたものを用いる。
 ステップST10dの次に、ステップST31dに進む。
 ステップST31dの処理は、図24のステップST31の処理と同様であるが、被写体内変化領域RLHの検出のため、ステップST9cで算出された第2のテクスチャ変化dF2を用いる。
 即ち、ステップST31dで、被写体内変化領域抽出部241が、ステップST10dで検出された被写体領域Hと、ステップST9cで算出された第2のテクスチャ変化dF2とから被写体内変化領域RLHを抽出する。
 ステップST31dの次に、ステップST32、ST33及びST34の処理を行う。これらの処理は図24のステップST32、ST33及びST34と同様である。
 即ち、ステップST32で、面積判定部242が、ステップST31dで抽出された被写体内変化領域RLHの面積が閾値TAa以上か否かを判定する。
 被写体内変化領域RLHの面積が閾値TAa未満であれば、そのフレームの処理を終了する。
 被写体内変化領域RLHの面積が閾値TAa以上であれば、ステップST33に進む。
 ステップST33で、目標値調整部243が、目標値メモリ244に記憶されている目標値を読み出し、ステップST31dで抽出された被写体内変化領域RLHと、(前のフレーム期間における)ステップST9cにおいて算出された第2のテクスチャ変化dF2と、画像メモリ14に蓄積されている画像データ(最新のフレームの画像データ)から、新たな目標値を算出し、算出した新たな目標値を目標値メモリ244に書き込む(例えば古い目標値に対して上書きする)とともに、新たな目標値を表す目標値信号Qを撮像照射制御部11cへ供給する。
 新たな目標値の算出は、式(13)~式(20)を参照して説明したように行うことができる。
 次に、ステップST34で、撮像照射制御部11cは、目標値算出部24cから供給される目標値信号Qに基づいて、制御信号C11a、C11bの生成(その内容を更新)を行う。
 制御信号C11a、C11bによって、3フレーム期間から成る各サイクルにおける各順位のフレーム(第1フレーム、第2フレーム、第3フレーム)における照明条件が更新される。更新の後、各順位のフレームの撮像を行う場合には、当該順位のフレームについての更新後の照明条件で撮像が行われる。
 実施の形態3では、実施の形態2でテクスチャ変化dFを用いて行う目標値の更新の処理を、第2のテクスチャ変化dF2を用いて行う。
 第2のテクスチャ変化dF2は異なる時間に、異なる照明条件での撮像で得られた画像間のテクスチャ変化であるので、実施の形態2における「テクスチャ変化」と同じである。従って、実施の形態3でも実施の形態2と同様の効果を得ることができる。
 実施の形態2及び3では、目標値算出部24又は24cが調整する目標値が、照明光の発光強度の目標値である。しかしながら、本発明はこれに限定されず、上記の目標値は、照明光の照射分布の形状、照明光の発光期間、撮像部13の露光時間、絞り、及びゲインの少なくともいずれか1つ以上の目標値であれば良い。例えば、画像上で局所的に被写体内変化領域RLH、又は無変化領域RLLが位置する場合は、照射分布を調整することで、局所的な発光強度を調整することとしても良い。また、被写体内変化領域RLHにおける輝度特徴量Ihが閾値TLa’以下である場合、或いは閾値TLb’より大きい場合は、例えば、露光時間を調整することで輝度特徴量Ihを調整することとしても良い。この場合に用いる閾値TLa’、TLb’は、上記の発光強度の調整の判断に用いた閾値TLa、TLbと同じであっても良く、異なっていても良い。
 また、実施の形態2及び3では、2枚の画像間で輝度変化及びテクスチャ変化の算出を行っているが、3枚以上の画像間で輝度変化及びテクスチャ変化の算出を行うようにしても良い。要するに複数の画像間で輝度変化及びテクスチャ変化の算出を行うこととすれば良い。3枚以上の画像間で輝度変化を行う場合には、それぞれの画像としては、互いに異なる照明条件での撮像で得られたものを用い、3枚以上の画像間でテクスチャ変化を行う場合には、それぞれの画像としては、互いに異なる時刻における撮像で得られたものを用いる。互いに異なる時刻における撮像で得られた画像は、互いに異なる照明条件での撮像で得られた画像であっても良い。従って、輝度変化の算出に用いられた画像と同じものであっても良い。
 3枚以上の画像を用いて算出された輝度変化及びテクスチャ変化から、照明条件又は撮像条件の目標値を調整する場合、上記の説明中の、「発光強度がより小さい照明条件の画像」を用いた処理として、「発光強度が最も小さい照明条件の画像」を用いた処理を行い、「発光強度がより大きい照明条件の画像」を用いた処理として、「発光強度が最も大きい照明条件の画像」を用いた処理を行い、「より小さい発光強度」に対する処理(目標値の調整)として、「最も小さい発光強度」に対する処理を行い、「より大きい発光強度」に対する処理(目標値の調整)として、「最も大きい発光強度」に対する処理を行うこととしても良い。
 なおまた、実施の形態2及び3では、被写体内変化領域RHLの面積に対する閾値TAaの大きさは固定された値であったが、適用的に変化させても良い。例えば、抽出された被写体領域Hの面積に応じて閾値TAaの大きさを修正するとしても良い。この場合、抽出された被写体領域の面積が大きければ閾値TAaの値を大きく、被写体領域Hの面積が小さければ閾値TAaの値を小さく修正する。
 なおまた、実施の形態2及び3では、調整量ΔΦa~ΔΦdの大きさは固定された値であったが、適用的に変化させても良い。例えば、被写体領域における被写体内変化領域RLH及び無変化領域RLLの面積の割合に応じて調整量ΔΦa~ΔΦdの大きさを修正することとしても良い。
 また、式(5)~式(20)のように、すべての照明条件に対して同じ大きさの調整量ΔΦa~ΔΦdを用いる必要はなく、異なる大きさの調整量ΔΦa~ΔΦdを使用して良い。
 さらにまた、上記の例では、テクスチャ変化算出部22cは、画像メモリ14から読み出された3枚の画像の各々が、照明条件変化の各サイクル中の何番目の画像であるかを、輝度変化算出部21cから通知されるが、テクスチャ変化算出部22cが、独自に判定を行うこととしても良い。この場合、輝度変化算出部21cと同様に画像の輝度特徴量Imから判定しても良い。
 実施の形態4.
 図30は、本発明の実施の形態4に係る操作装置の構成を示すブロック図である。図30に示す操作装置は、図21に示される撮像装置と同様の撮像装置と、被写体認識部25と操作決定部26とを組合せたものである。但し、図21のテクスチャ変化算出部22の代りにテクスチャ変化算出部22dを備える。図21と同一の符号は同一又は相当部分を示すので説明は省略する。
 また、本実施の形態では、被写体が人の手である場合を想定する。
 テクスチャ変化算出部22dは、画像メモリ14に蓄積されている複数の画像を順次読出し、各画像を構成する画素の各々についてテクスチャ特徴Fを求め、2つの異なる時刻における撮像で得られた2枚の画像間のテクスチャ変化dFを算出し、算出したテクスチャ変化dFを被写体抽出部23、目標値算出部24、及び被写体認識部25へ供給するとともに、テクスチャ特徴Fを被写体認識部25へ供給する。
 テクスチャ変化算出部22dは、図31に示すように、CSLBP特徴算出部221と、CSLBP特徴メモリ222と、テクスチャ特徴算出部223と、テクスチャ特徴メモリ224dと、特徴変化処理部225と、テクスチャ変化メモリ226とを備える。
 図31のうち、CSLBP特徴算出部221、CSLBP特徴メモリ222、テクスチャ特徴算出部223及び特徴変化処理部225は、図4に示されるものと同じである。
 テクスチャ特徴メモリ224dは、図4のテクスチャ特徴メモリ224と同様の機能を有するが、特徴変化処理部225以外から、特に被写体認識部25からも読み出し可能である点で、図4のテクスチャ特徴メモリ224とは異なる。
 被写体認識部25は、被写体抽出部23から供給される被写体領域Hの抽出結果Hと、テクスチャ変化算出部22dから供給されるテクスチャ変化dF及びテクスチャ特徴Fと、画像メモリ14から読み出された画像Gを入力として、これらに基づいて被写体の形状及び動きの少なくとも何れか一方を認識し、認識結果を操作決定部26へ出力する。
 被写体認識部25は、例えば、人によるジェスチャーを認識する。ジェスチャーには、例えば、手の形状(グー、チョキ、パー等)による形状ジェスチャーと、手の動き(手の横振り、縦振り、捻り動作)による動きジェスチャーが含まれる。
 被写体認識部25は、図32に示すように、形状認識部251と、動き認識部252と、基準データメモリ253とを有する。
 形状ジェスチャーについては、予め定められた形状の特徴量を表す基準データSsを基準データメモリ253に予め登録しておき、形状認識部251が、撮像部13で撮像された被写体の形状を、基準データSsと照合することで、形状ジェスチャーを認識する。
 基準データSsは、手の形状が特定のジェスチャーを意図したものであると認定されるために満たすべき条件を表すものであり、条件を満たすか否かの判定には例えば手の形状の特徴量に対する閾値処理(手の形状の特徴量が閾値に対して予め定められた関係を有するか否かの判定)が含まれる。
 例えば、特定のジェスチャーを意図する手の形状を表すデータを取り込み、それとの違いが予め定められた閾値以下であるかによって判定を行う場合、上記の取り込んだデータと、上記の閾値を表すデータとで基準データSsが構成される。
 基準データSsを学習によって修正していくことも可能である。学習の方法として、例えば、Adaboostという手法や、Support Vector Machineという手法が知られている。
 手の形状の特徴量としては、手と背景の境界線(手のエッジ)の特徴量を利用し得るほか、手の領域(被写体領域)におけるテクスチャ特徴を利用することができる。
 手と背景の境界線としては、被写体抽出部23において抽出された被写体領域Hの輪郭を表すデータを利用し得る。この場合には、形状認識部251は被写体抽出部23からの被写体領域Hの抽出結果を示すデータに基づいて手の形状を特定する。
 テクスチャ特徴Fを用いて手と背景の境界線を抽出することも可能である。
 例えば、手と背景の境界線を解析することで手の形状、例えば手を握っている状態(グー)か手を開いている状態(パー)かを判定することができる。手と背景の境界線の抽出に当たっては、手と背景の模様や凹凸、反射率の違いに対応するテクスチャ特徴の違いを利用することができる。この場合には、形状認識部251はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fに基づいて手の形状を特定する。
 手領域の内部においても、指の形状などによって、表面の凹凸の違いが現れることがある。例えば、手を握っており(グーの状態)掌が指で隠れている場合と、手を開いており(パーの状態)掌が現れている場合とでは、表面の凹凸の違いが生じる。このような違いを、テクスチャ特徴に基づいて判別することができる。従って、テクスチャ特徴を用いることで、特定の手の形状(グーか、パーか等)を表す特徴を抽出できる。この場合には、形状認識部251は、形状認識部251はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fのうち、被写体抽出部23で抽出した被写体領域H内の画素についてのテクスチャ特徴Fに基づいて手の形状を特定する。
 動きジェスチャーについては、予め定められた動きの特徴量を表す基準データSmを基準データメモリ253に予め登録しておき、動き認識部252が、撮像部13で撮像された被写体の動きを、基準データSmと照合することで、動きジェスチャーを認識する。
 基準データSmは、手の動きが特定のジェスチャーを意図したものであると認定されるために満たすべき条件を表すものであり、条件を満たすか否かの判定には例えば手の動きの特徴量に対する閾値処理(手の動きの特徴量が閾値に対して予め定められた関係を有するか否かの判定)が含まれる。
 例えば、特定のジェスチャーを意図する手の動きを表すデータを取り込み、それとの違いが予め定められた閾値以下であるかによって判定を行う場合、上記の取り込んだデータと、上記の閾値を表すデータとで基準データSmが構成される。
 手の形状によるジェスチャーについて述べたのと同様に、手の動きによるジェスチャーについても、基準データSmを学習によって修正していくことも可能である。
 動きの特徴量としては、例えば、被写体中心の位置の変化、速度、及び加速度に加え、テクスチャ変化dFを用い得る。
 手の横振り、縦振り等については、被写体の中心位置をトラッキングすることで位置の変化、速度、加速度等を観測でき、これらを特徴量として使用することができる。中心位置の特定には、手の形状、特に背景との境界線を特定する必要がある。
 手の形状の特定には、被写体抽出部23からの被写体領域Hの抽出結果を示すデータを利用することができる。この場合には、動き認識部252はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fに基づいて手の形状を特定する。
 手の形状の特定には、形状認識部251について述べたように、テクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fを利用することができる。この場合には、動き認識部252はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fに基づいて手の形状を特定する。
 手と背景との境界線の変化が少ない手の捻り動作等は、テクスチャ変化算出部22dから出力されるテクスチャ変化dF、或いはテクスチャ特徴Fの時系列を特徴量として利用することができる。この場合には、動き認識部252はテクスチャ変化メモリ226に蓄積されているテクスチャ変化dFのうち、被写体抽出部23で抽出した被写体領域H内の画素についてのテクスチャ変化dF、或いは特徴Fテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fのうち、被写体抽出部23で抽出した被写体領域H内の画素についてのテクスチャ特徴Fに基づいて手の動きを特定する。
 輝度変化算出部21で算出された輝度変化dIを動きの特徴量の算出に用いることも可能である。例えば、被写体領域Hにおける輝度変化dIの平均値の時系列を動きの特徴量とすることで、カメラ方向に対する手の前後の動きを特定することが出来る。例えば、時間経過に伴って被写体領域Hにおける輝度変化dIの平均値が大きくなっている場合は、カメラに手が近付く動作と特定できる。一方で、被写体領域Hにおける輝度変化dIの平均値が小さくなっている場合は、カメラから手が遠ざかる動作と特定できる。
 目標値算出部24によって算出された目標値を用いて照明条件を調整することで、テクスチャ特徴Fの算出に好適な画像を取得しているため、環境光に対し安定してテクスチャ特徴Fを算出でき、テクスチャ特徴Fを形状或いは動き特徴量の算出に利用しているので、ジェスチャーの認識を高い精度で行うことができる。
 操作決定部26は、被写体認識部25の形状認識部251から出力される認識結果Rs及び動き認識部252から出力される認識結果Rmに基づいて、機器を操作するためのコマンドを生成し、出力する。例えば、被写体認識部25が認識するジェスチャーの種類に応じて、予め機器操作コマンドを設定しておき、認識結果に応じてコマンドを生成し、出力する。
 図33は、被操作機器が車載機器である場合を想定し、ジェスチャーの種類と、車載機器操作の操作コマンドの対応関係の例を示す。例えば、グーのジェスチャーを認識したときは、表示画面を地図案内画面に切り替えるようにコマンドを生成し、出力する。チョキのジェスチャーを認識したときは、表示画面をオーディオ画面に切り替えるようにコマンドを生成し、出力する。パーのジェスチャーを認識したときには、表示画面をエアコン調節画面に切り替えるようにコマンドを生成し、出力する。
 実施の形態4の操作装置の被写体抽出部23における被写体抽出の処理は、図23及び図24などで示したのと同じである。
 実施の形態4の操作装置は、図23のステップST6のテクスチャ特徴Fの算出の結果、及び図24のステップST10の被写体抽出の結果を利用して、ジェスチャーの判定及び判定結果に基づく機器操作の処理を行う。
 以下に、ジェスチャーの判定及び判定結果に基づく機器操作の処理を、図34を参照して説明する。
 ステップST41では、被写体認識部25は、被写体抽出部23から供給される被写体領域の抽出の結果と、テクスチャ変化算出部22dから供給されるテクスチャ変化dF及びテクスチャ特徴Fと、画像メモリ14から読み出された画像Gとを入力として、被写体の形状及び動きの少なくとも何れか一方の特徴量を算出し、予め基準データメモリ253に登録してある基準データ(被写体の標準的な形状又は標準的な動きの特徴量を表す)と照合し、被写体の形状及び動きの少なくとも何れか一方を認識結果として操作決定部26へ出力する。
 ステップST42では、被写体認識部25から出力される認識結果に基づいて、機器を操作するためのコマンドを生成し、出力する。
 上記説明のように、本実施の形態に係る操作装置では、環境光の変化に対して安定した被写体領域の抽出の結果を用いることで、環境光に対して安定した被写体認識結果を得ることができる。
 また、被写体領域の抽出に使用したテクスチャ特徴に基づいて、被写体の形状の認識を行うことで、環境光に対して安定した被写体認識結果を得ることができる。
 さらに、被写体領域の抽出に使用したテクスチャ特徴に基づいて、被写体の動きの認識を行うことで、環境光に対して安定した被写体認識結果を得ることができる。
 さらにまた、環境光の変化に対して安定した被写体認識結果を用いることで、環境光が変化する中でも、被写体の形状及び動きの少なくとも何れか一方を使用した機器操作を行うことができる。
 なお、本実施の形態では、操作決定部による機器操作の例として、被操作機器が車載機器である場合について説明したが、本発明はこれに限るものではない。例えば、テレビ、或いはサイネージ等の映像機器、或いはメガネ型、ブレスレッド型、指輪型、衣服型等のウエアラブル機器を操作する場合にも本発明を適用することができる。
 なおまた、本実施の形態では、被写体のジェスチャーを認識し、認識結果に基づいて操作を行う場合について説明したが、本発明はこれに限定されない。即ちジェスチャー以外の人の動作或いは状態を認識し、認識結果に基づいて操作を行う場合にも本発明を適用することができる。例えば、顔の向き、眼又は口の開閉、或いはこれらを伴う脇見状態、居眠り状態、人が会話している状態の認識、眠気を催している状態、疲労している状態、或いは集中度が低下した状態の認識、及び認識結果に基づく操作を行う場合にも本発明を適用することができる。認識結果に基づく操作としては機器の動作を切り換える処理、自動車にブレーキを掛ける操作、警報音の発生などがある。
 以上、実施の形態2の撮像装置を備える操作装置について説明したが、実施の形態2の撮像装置の代わりに、実施の形態1の撮像装置又は実施の形態3の撮像装置を備える操作装置も同様に構成できる。
 以上本発明を撮像装置及び操作装置として説明したが、上記の撮像装置を用いて実施される撮像方法、及び上記の操作装置を用いて実施される操作方法もまた本発明の一部を成す。
 上記の撮像装置又は操作装置で行われる処理の一部、或いは上記の撮像方法又は操作方法で行われる処理の一部はプロセッサを備えたコンピュータに実行させることができる。従って、コンピュータに上記の撮像装置又は操作装置で行われる処理、上記の撮像方法又は操作方法で行われる処理を実行させるためのプログラム、及び該プログラムを記録した、コンピュータで読み取り可能な記録媒体もまた本発明の一部を成す。
 図35は、上記のコンピュータの一例を、照射部12及び撮像部13とともに示す。照射部12及び撮像部13は例えば図1の照射部12及び撮像部13と同様の機能を持つものである。
 図35のコンピュータは、プロセッサ51と、プログラムメモリ52と、データメモリ53と、データ入力インターフェース54と、制御出力インターフェース55と、データ出力インターフェース56とを備え、これらはデータバス57で接続されている。
 プロセッサ51は、プログラムメモリ52に記憶されたプログラムに従って動作し、図1の撮像照射制御部11、輝度変化算出部21、テクスチャ変化算出部22、及び被写体抽出部23と同様の処理を行う。
 制御出力インターフェース55は、照射部12及び撮像部13に接続されており、プロセッサ51からの制御信号C11aを照射部12に与え、制御信号C11bを撮像部13に与える。
 データ入力インターフェース54は、撮像部13に接続されており、撮像部13から出力された撮像画像が入力される。
 プロセッサ51は、データ入力インターフェース54を介して入力された撮像画像に対して、例えば実施の形態1の輝度変化算出部21、テクスチャ変化算出部22、及び被写体抽出部23と同様の処理を行って、被写体抽出の結果をデータ出力インターフェース56から出力する。
 データメモリ53は、図1の画像メモリ14と同様の役割を持つ。
 データメモリ53がさらに、図1の輝度変化算出部21内の輝度特徴量メモリ212及び輝度変化メモリ216(図3)、及びテクスチャ変化算出部22内のテクスチャ特徴メモリ224及びテクスチャ変化メモリ226(図4)の役割を持つものであっても良い。
 プロセッサ51による処理の手順は、実施の形態1に関し、図13及び図14を参照して説明したのと同様である。
 なお、図35に示されるコンピュータを複数台設け、それぞれに、撮像装置の各部の処理を行わせることとしても良い。撮像方法の処理をコンピュータに実行させる場合も同様である。
 以上、コンピュータで実施の形態1の撮像装置の処理を実行させる場合について説明したが、実施の形態2又は3の撮像装置の処理、又は該撮像装置で実施される撮像方法の処理、或いは、実施の形態3の操作装置の処理、又は該操作装置で実施される操作方法をコンピュータで実行させる場合も同様である。
 11、11b、11c 撮像照射制御部、 12 照射部、 13 撮像部、 14 画像メモリ、 21、21c 輝度変化算出部、 22、22c、22d テクスチャ変化算出部、 23、23c 被写体抽出部、 24、24c 目標値算出部、 25 被写体認識部、 26 操作決定部、 51 プロセッサ、 52 プログラムメモリ、 53 データメモリ、 54 データ入力インターフェース、 55 制御出力インターフェース、 56 データ出力インターフェース、 121 LED、 122 発光制御部、 211 輝度特徴量算出部、 212 輝度特徴量メモリ、 213、213c 照明条件判定部、 215 差分算出部、 216 輝度変化メモリ、 221 CSLBP特徴算出部、 222 CSLBP特徴メモリ、 223、223a テクスチャ特徴算出部、 224、224d テクスチャ特徴メモリ、 225、225a、225c 特徴変化処理部、 226 テクスチャ変化メモリ、 231 輝度変化比較部、 232 テクスチャ変化比較部、 233 領域判定部、 234 ゲート部、 241 被写体内変化領域抽出部、 242 面積判定部、 243 目標値調整部、 244 目標値メモリ、 251 形状認識部、 252 動き認識部、 253 基準データメモリ、 2211 領域分割部、 2212-1~2212-16 CSLBP特徴読出し部、 2213-1~2213-16 ヒストグラム生成部、 2214 連結部、 2215 正規化部、 2216 クリップ部、 H 被写体、 B1 背景要素、 B2 背景部分。

Claims (18)

  1.  照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御部と、
     前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射部と、
     前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像部と、
     前記撮像部により、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出部と、
     前記撮像部により、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出部と、
     前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出部とを有する撮像装置。
  2.  前記テクスチャ変化算出部は、前記テクスチャ変化として、
     前記異なる時刻に互いに等しい照明条件で行われた撮像で得られた複数の撮像画像を用いて第1のテクスチャ変化を算出するとともに、
     前記輝度変化の算出に使用した複数の撮像画像を用いて第2のテクスチャ変化を算出する
     ことを特徴とする請求項1に記載の撮像装置。
  3.  前記テクスチャ変化算出部は、前記複数の撮像画像の各々についてテクスチャ特徴を算出し、前記複数の撮像画像間での、前記テクスチャ特徴の変化を、前記テクスチャ変化として算出する
     ことを特徴とする請求項1又は2に記載の撮像装置。
  4.  前記被写体抽出部は、前記輝度変化の算出及び前記テクスチャ変化の算出の少なくともいずれか一方に使用された撮像画像、又は各画素についての前記輝度変化で構成される輝度差分画像のうちの、前記輝度変化が第1の閾値よりも大きく、かつ前記テクスチャ変化が第2の閾値以下である領域を前記被写体領域として抽出する
     ことを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
  5.  前記複数の照明条件は、照明光の照射分布及び照明光の発光強度の少なくともいずれか一方が互いに異なる
     ことを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
  6.  前記複数の照明条件は、第1の発光強度で照明光を照射する第1の照明条件と、前記第1の発光強度より小さい第2の発光強度で照明光を照射する第2の照明条件とを含む
     ことを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記抽出された被写体領域における前記撮像画像の輝度特徴量及び前記テクスチャ変化の少なくとも何れか一方に基づいて、前記撮像条件の目標値を決定する目標値算出部をさらに有し、
     前記撮像照射制御部は前記撮像条件の目標値に基づいて前記撮像条件制御信号を生成する
     ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
  8.  前記抽出された被写体領域における前記撮像画像の輝度特徴量及び前記テクスチャ変化の少なくとも何れか一方に基づいて、前記照明条件の目標値を決定する目標値算出部をさらに有し、
     前記撮像照射制御部は前記照明条件の目標値に基づいて前記照明条件制御信号を生成する
     ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
  9.  前記照明条件の目標値は前記照射部による照明光の照射分布及び照明光の発光強度の少なくとも一方の目標値である
     ことを特徴とする請求項8に記載の撮像装置。
  10.  前記テクスチャ変化算出部は、前記テクスチャ変化として、
     異なる時刻に互いに等しい照明条件での撮像で得られた複数の撮像画像を用いて第1のテクスチャ変化を算出するとともに、
     異なる時刻に互いに異なる照明条件での撮像で得られた複数の撮像画像を用いて第2のテクスチャ変化を算出し、
     前記被写体抽出部は、前記輝度変化と前記第1のテクスチャ変化とに基づいて前記被写体領域の抽出を行い、
     前記目標値算出部は、
     前記抽出された被写体領域のうち、前記第2のテクスチャ変化が第3の閾値よりも大きい部分の面積が第4の閾値以上である場合は、前記複数の照明条件における発光強度の差を小さくするように前記照明条件の目標値を調整し、
     前記抽出された被写体領域の全体において前記第2のテクスチャ変化が前記第3の閾値以下である場合は、前記複数の照明条件における発光強度の差を大きくするように前記照明条件の目標値を調整する
     ことを特徴とする請求項8又は9に記載の撮像装置。
  11.  前記目標値算出部は、
     前記輝度変化の算出に使用した前記複数の撮像画像の中で、発光強度の最も小さい照明条件での撮像で得られた撮像画像のうちの、前記抽出された被写体領域の輝度特徴量が第5の閾値以下である場合は発光強度の最も小さい照明条件で用いられる発光強度の目標値を大きくし、
     前記輝度変化の算出に使用した前記複数の撮像画像の中で、発光強度の最も大きい照明条件での撮像で得られた撮像画像のうちの、前記抽出された被写体領域の輝度特徴量が第6の閾値よりも大きい場合は発光強度の最も大きい照明条件で用いられる発光強度の目標値を小さくする
     ことを特徴とする請求項8から10のいずれか1項に記載の撮像装置。
  12.  請求項1から11のいずれか1項に記載の撮像装置と、
     前記被写体抽出部による、前記被写体領域の抽出の結果から前記被写体の形状及び動きの特徴量の少なくとも何れか一方を算出し、予め定められた形状及び動きの特徴量を表す基準データと照合することで前記被写体の形状又は動きを認識する被写体認識部とを有する
     ことを特徴とする操作装置。
  13.  前記被写体認識部は、前記動きの特徴量を、前記輝度変化及び前記テクスチャ変化の少なくとも何れか一方に基づき算出する
     ことを特徴とする請求項12に記載の操作装置。
  14.  請求項3に記載の撮像装置と、
     前記被写体抽出部による、前記被写体領域の抽出の結果から前記被写体の形状及び動きの特徴量の少なくとも何れか一方を算出し、予め定められた形状及び動きの特徴量を表す基準データと照合することで前記被写体の形状又は動きを認識する被写体認識部とを有し、
     前記被写体認識部は、前記テクスチャ変化算出部で算出された前記テクスチャ特徴に基づいて前記形状の特徴量を算出する
     ことを特徴とする操作装置。
  15.  前記被写体の形状又は動きの認識の結果から操作内容を決定し、決定した操作内容を示すコマンドを生成して出力する操作決定部をさらに有する
     ことを特徴とする請求項12から14のいずれか1項に記載の操作装置。
  16.  照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御ステップと、
     前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射ステップと、
     前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像ステップと、
     前記撮像ステップにより、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出ステップと、
     前記撮像ステップにより、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出ステップと、
     前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出ステップとを有する撮像方法。
  17.  請求項16の各ステップの処理をコンピュータに実行させるためのプログラム。
  18.  請求項17に記載のプログラムを記録した、コンピュータで読取り可能な記録媒体。
PCT/JP2015/059635 2015-03-27 2015-03-27 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 WO2016157299A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US15/552,870 US10460195B2 (en) 2015-03-27 2015-03-27 Imaging apparatus and method, operation apparatus and method, and program and recording medium
DE112015006385.4T DE112015006385T5 (de) 2015-03-27 2015-03-27 Bildgebende vorrichtung und bildgebendes verfahren, bedienungsvorrichtung und -verfahren und programm und aufzeichnungsmedium
CN201580078223.2A CN107408305B (zh) 2015-03-27 2015-03-27 摄像装置及方法、操作装置以及记录介质
PCT/JP2015/059635 WO2016157299A1 (ja) 2015-03-27 2015-03-27 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体
JP2017508833A JP6312924B2 (ja) 2015-03-27 2015-03-27 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/059635 WO2016157299A1 (ja) 2015-03-27 2015-03-27 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体

Publications (1)

Publication Number Publication Date
WO2016157299A1 true WO2016157299A1 (ja) 2016-10-06

Family

ID=57005289

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/059635 WO2016157299A1 (ja) 2015-03-27 2015-03-27 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体

Country Status (5)

Country Link
US (1) US10460195B2 (ja)
JP (1) JP6312924B2 (ja)
CN (1) CN107408305B (ja)
DE (1) DE112015006385T5 (ja)
WO (1) WO2016157299A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180255224A1 (en) * 2015-09-24 2018-09-06 Panasonic Intellectual Property Management Co., Ltd. Illuminance acquisition device, illumination control system, and program
WO2022244351A1 (ja) * 2021-05-17 2022-11-24 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
JP2023003627A (ja) * 2021-06-24 2023-01-17 シヤチハタ株式会社 コンピュータデバイス、方法およびコンピュータプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2208354A4 (en) 2007-10-10 2010-12-22 Gerard Dirk Smits IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING
WO2016025502A1 (en) 2014-08-11 2016-02-18 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US10043282B2 (en) 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
US10484601B2 (en) * 2015-08-31 2019-11-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6854828B2 (ja) 2015-12-18 2021-04-07 ジェラルド ディルク スミッツ 物体のリアルタイム位置検知
US9813673B2 (en) 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
CN110073243B (zh) 2016-10-31 2023-08-04 杰拉德·迪尔克·施密茨 利用动态体素探测的快速扫描激光雷达
EP3563347A4 (en) 2016-12-27 2020-06-24 Gerard Dirk Smits SYSTEMS AND METHODS FOR MACHINE PERCEPTION
CN110612465B (zh) 2017-05-10 2022-03-08 杰拉德·迪尔克·施密茨 扫描反射镜系统和方法
WO2019079750A1 (en) 2017-10-19 2019-04-25 Gerard Dirk Smits METHODS AND SYSTEMS FOR NAVIGATING A VEHICLE EQUIPPED WITH A NEW MILITARY MARKER SYSTEM
WO2019148214A1 (en) 2018-01-29 2019-08-01 Gerard Dirk Smits Hyper-resolved, high bandwidth scanned lidar systems
CN109583375B (zh) * 2018-11-30 2021-04-06 中山大学 一种多特征融合的人脸图像光照识别方法及系统
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
US11372320B2 (en) 2020-02-27 2022-06-28 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
US11925863B2 (en) * 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
CN112686122B (zh) * 2020-12-25 2023-09-29 浙江大华技术股份有限公司 人体及影子的检测方法、装置、电子设备、存储介质
US11740313B2 (en) 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
EP4327185A1 (en) 2021-04-19 2024-02-28 Snap, Inc. Hand gestures for animating and controlling virtual and graphical elements

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249084A (ja) * 2000-03-07 2001-09-14 Matsushita Electric Ind Co Ltd 外観検査装置および外観検査における光学系の較正方法
JP2003259189A (ja) * 2002-03-01 2003-09-12 Sony Corp 撮像装置,画像処理方法
JP2005130268A (ja) * 2003-10-24 2005-05-19 Nikon Corp 画像抽出装置
JP2007201933A (ja) * 2006-01-27 2007-08-09 Secom Co Ltd 画像を用いた監視装置
JP2015043141A (ja) * 2013-08-26 2015-03-05 キヤノン株式会社 ジェスチャ認識装置および制御プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681037B1 (en) * 1999-05-27 2004-01-20 Cognex Corporation Apparatus for locating features of an object using varied illumination
US7599576B2 (en) * 2004-01-23 2009-10-06 Electro Scientific Industries, Inc. Image subtraction of illumination artifacts
JP4849460B2 (ja) * 2005-10-14 2012-01-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 画像中の顔を認識する方法
CN101617535B (zh) 2007-03-28 2011-07-06 富士通株式会社 图像处理装置、图像处理方法
JP4915367B2 (ja) 2008-02-27 2012-04-11 ソニー株式会社 表示撮像装置および物体の検出方法
JP5218168B2 (ja) * 2009-03-11 2013-06-26 ソニー株式会社 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム
CN103824307B (zh) * 2012-11-16 2016-04-06 浙江大华技术股份有限公司 一种确定无效运动目标像素的方法和装置
TWI475495B (zh) * 2013-02-04 2015-03-01 Wistron Corp 圖像的識別方法、電子裝置與電腦程式產品
CN104143191A (zh) * 2014-07-29 2014-11-12 中国科学院遥感与数字地球研究所 一种基于纹理元的遥感图像变化检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249084A (ja) * 2000-03-07 2001-09-14 Matsushita Electric Ind Co Ltd 外観検査装置および外観検査における光学系の較正方法
JP2003259189A (ja) * 2002-03-01 2003-09-12 Sony Corp 撮像装置,画像処理方法
JP2005130268A (ja) * 2003-10-24 2005-05-19 Nikon Corp 画像抽出装置
JP2007201933A (ja) * 2006-01-27 2007-08-09 Secom Co Ltd 画像を用いた監視装置
JP2015043141A (ja) * 2013-08-26 2015-03-05 キヤノン株式会社 ジェスチャ認識装置および制御プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180255224A1 (en) * 2015-09-24 2018-09-06 Panasonic Intellectual Property Management Co., Ltd. Illuminance acquisition device, illumination control system, and program
WO2022244351A1 (ja) * 2021-05-17 2022-11-24 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
JP2023003627A (ja) * 2021-06-24 2023-01-17 シヤチハタ株式会社 コンピュータデバイス、方法およびコンピュータプログラム

Also Published As

Publication number Publication date
US10460195B2 (en) 2019-10-29
CN107408305B (zh) 2020-09-11
JP6312924B2 (ja) 2018-04-18
CN107408305A (zh) 2017-11-28
DE112015006385T5 (de) 2017-12-14
JPWO2016157299A1 (ja) 2017-09-21
US20180039852A1 (en) 2018-02-08

Similar Documents

Publication Publication Date Title
JP6312924B2 (ja) 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体
EP3418944A2 (en) Information processing apparatus, information processing method, and program
US20160171311A1 (en) Computer Vision Pipeline and Methods for Detection of Specified Moving Objects
US20080181457A1 (en) Video based monitoring system and method
JP2012053756A (ja) 画像処理装置及び画像処理方法
CN105260731A (zh) 一种基于光脉冲的人脸活体检测系统及方法
WO2004029659A2 (en) Pedestrian detection and tracking with night vision
US20180293433A1 (en) Gesture detection and recognition method and system
Rujikietgumjorn et al. Optimized pedestrian detection for multiple and occluded people
KR102103770B1 (ko) 보행자 검출 장치 및 방법
JP2004192646A (ja) 人物検出方法および装置
Brémond et al. Saliency maps of high dynamic range images
CN112464885A (zh) 基于机器学习的面部色斑未来变化的图像处理系统
Shakeel et al. Automated multimodal background detection and shadow removal process using robust principal fuzzy gradient partial equation methods in intelligent transportation systems
CN106250878B (zh) 一种结合可见光和红外图像的多模态目标跟踪方法
CN116935133A (zh) 一种基于spect图像识别的心血管病分类方法及系统
Cristani et al. A spatial sampling mechanism for effective background subtraction.
CN110073406A (zh) 面部检测装置及其控制方法、以及程序
JP2000023141A (ja) 移動物体監視装置
Zhang et al. Background modeling by exploring multi-scale fusion of texture and intensity in complex scenes
Zou et al. Improved Camshift tracking algorithm based on silhouette moving detection
GB2446293A (en) Video based monitoring system and method
Rotaru et al. Animal Tracking Method Used in Neuroscience Experiments
JP2009064100A (ja) 画像処理装置およびゲイン調整方法
Liao Facial feature detection in near-infrared images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15887454

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017508833

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15552870

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112015006385

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15887454

Country of ref document: EP

Kind code of ref document: A1