WO2013187047A1 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
WO2013187047A1
WO2013187047A1 PCT/JP2013/003652 JP2013003652W WO2013187047A1 WO 2013187047 A1 WO2013187047 A1 WO 2013187047A1 JP 2013003652 W JP2013003652 W JP 2013003652W WO 2013187047 A1 WO2013187047 A1 WO 2013187047A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection target
unit
image
value
area
Prior art date
Application number
PCT/JP2013/003652
Other languages
English (en)
French (fr)
Inventor
山中 睦裕
淳之 広野
利春 竹ノ内
松田 啓史
吉村 祐一
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012134146A external-priority patent/JP2013258609A/ja
Priority claimed from JP2012214612A external-priority patent/JP2014071482A/ja
Priority claimed from JP2013100524A external-priority patent/JP2014220762A/ja
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN201380031305.2A priority Critical patent/CN104364824A/zh
Priority to US14/407,929 priority patent/US20150125032A1/en
Priority to KR1020147034834A priority patent/KR101640875B1/ko
Publication of WO2013187047A1 publication Critical patent/WO2013187047A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to an object detection apparatus.
  • the object detection device of Document 1 when the person to be detected wears clothing having a color similar to that of the background part, the difference in luminance between the person to be detected and the background part is considered to be small. For this reason, when the contour line is obtained by differentiating the grayscale image, the contour line of the person is unlikely to be a continuous line, and there is a possibility that it is detected in a divided form. Therefore, there is a problem that processing for connecting the divided areas is necessary, and the load of image processing is increased, and it is difficult to integrate the divided areas without error.
  • a background differential method for extracting a changed portion from a background image by obtaining a differential image between the grayscale image and the background image.
  • the background subtraction method since a difference is obtained for each pixel between two grayscale images, for example, when a person to be detected wears clothing having a color similar to the background portion, The difference value becomes smaller.
  • processing is required, and the load of image processing increases, or processing that integrates a plurality of divided areas without error is difficult.
  • each of the two image frames is divided into m in the horizontal direction and n in the vertical direction to generate a plurality of blocks, and the presence or absence of motion is detected for each block by comparing the blocks at the same position.
  • a motion detection apparatus has been proposed (see, for example, Document 2 [Japanese Patent Publication No. 2008-257626]).
  • a desired background frame and a motion detection target frame after the background frame are sequentially divided into m pieces in the horizontal direction and n pieces in the vertical direction.
  • the average luminance value of the pixels is obtained in each block.
  • the difference in luminance average value is obtained between each block of the motion detection target frame and the corresponding background frame block, and if this difference value is equal to or greater than a predetermined threshold, it is determined that there is motion in this block. Yes.
  • the luminance average value of the block at the same position is compared between the background frame and the motion detection target frame, and if the luminance average value changes by a threshold value or more, it is determined that there is movement in the block. is doing.
  • a 4 ⁇ 4 pixel region is formed as one block, a case where pixel values are different between the background frame block C1 and the motion detection target frame block C2 as shown in FIGS. 39 and 40 will be considered.
  • the squares of the blocks C1 and C2 represent pixels, and the numbers in the squares represent the pixel values of each pixel.
  • the luminance average value is the same. It is determined that there is no.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an object detection apparatus that can reliably determine a moving area and a stop area without increasing the amount of image processing. There is.
  • the object detection apparatus includes an image acquisition unit, a difference image creation unit, and a determination unit.
  • the image acquisition unit is configured to sequentially acquire images of the imaging area at predetermined time intervals from a camera that images the predetermined imaging area.
  • the difference image creation unit is configured to obtain a difference image between images continuously acquired by the image acquisition unit.
  • the determination unit is a moving region where there is a moving detection target for each of the blocks formed by dividing the difference image into a plurality of parts in the horizontal direction and the vertical direction, or there is a stopped object. It is configured to determine whether it is a stop area.
  • the determination unit is configured to determine, for each of the plurality of blocks, whether the block is the moving region or the stop region based on pixel values of a plurality of pixels constituting the block. Is done.
  • the determination unit for each of the plurality of blocks, includes a difference value between a plurality of pixels constituting the block and a predetermined threshold value. It is configured to compare the heights and determine whether the block is the moving region or the stop region based on the number of pixels whose difference value exceeds the threshold value.
  • the object detection apparatus in the first or second aspect, includes an object detection unit that detects a detection target from the area determined as the movement area.
  • the object detection unit is configured so that each of the consecutive blocks among the one or more blocks determined as the moving region is a detection target region.
  • the object detection unit overlaps the current detection target area and the previous detection target area, and this time with respect to the area of the previous detection target area.
  • the detection target is It is determined that the object is stationary, and the previous detection target area is set as an area where the detection target exists.
  • the object detection unit is configured such that the same detection target is obtained if the detection target area obtained last time overlaps with the detection target area obtained this time. It is configured to determine that it exists.
  • the object detection unit determines whether or not the detection target existing in the detection target region obtained last time is determined to be stationary, and if it is determined that the detection target is not stationary, moves the detection target.
  • the parameter to represent it is comprised so that the determination conditions for calculating
  • the object detection unit overlaps the first detection target area of the previous time with the current detection target area and detects the current detection. If the target area does not overlap the previous second detection target area, it is determined that the detection target existing in the first detection target area has moved to the current detection target area.
  • the object detection unit is configured such that the current detection target region is the previous first detection target region and the first detection target region.
  • the detection target that is present in the first detection target area is the first detection target area. It is configured to determine that it remains in the detection target area.
  • the object detection unit is configured such that the current detection target region is the previous first detection target region and the first detection target region.
  • the object detection unit is configured such that the current detection target region is the previous first detection target region and the first detection target region.
  • the current detection target area overlaps the previous first detection target area and the second detection target area, and the first detection target existing in the first detection target area and the second detection target
  • the speed of the first detection target is equal to or lower than the speed of the second detection target, the first detection target Is determined to remain in the first detection target region.
  • the object detection unit is configured such that the current detection target area includes the previous first detection target area and the first detection target area. It is determined that the first detection target that overlaps the two detection target areas and exists in the first detection target area is moving, and that the second detection target that exists in the second detection target area is stationary. If so, the first detection target is determined to have moved to the current detection target area.
  • the object detection unit exists in the first detection target region obtained at a certain time.
  • the just before the second detection target region overlaps An image of the first detection target area is configured to be held as a template image.
  • the object detection unit performs a matching process between the image of the first detection target region at this time and the template image when the overlap between the first detection target region and the second detection target region disappears. It is comprised so that the correlation value of both may be calculated
  • the object detection unit is configured to determine that the detection target remains in the first detection target region if the correlation value is higher than a predetermined determination value.
  • the object detection unit is configured to determine that the detection target has moved outside the first detection target region if the correlation value is lower than the determination value.
  • the object detection device includes an imaging device as the camera.
  • the imaging apparatus includes an imaging element, a light control unit, an image generation unit, and an adjustment unit.
  • the image sensor has a plurality of pixels each storing charges, and is configured to convert the charge amount stored in each pixel into a pixel value and output the pixel value.
  • the light control means is configured to control the amount of light subjected to photoelectric conversion in the image sensor.
  • the image generation means is configured to read out the pixel value from the image sensor at a predetermined frame rate and generate an image of one frame for each frame rate from the read out pixel value.
  • the adjusting means evaluates a part or all of the pixel values in the image of the one frame with an evaluation value defined by a numerical value, and the light control means or the control unit so that the evaluation value falls within a predetermined appropriate range.
  • the pixel value is adjusted by controlling at least one of the image generation means.
  • the adjustment unit moves the image generation unit at an adjustment frame rate higher than the frame rate.
  • the image generation means generates the image at the adjustment frame rate, and then returns to the normal mode in which the image is generated at the frame rate.
  • the object detection apparatus includes an imaging device as the camera.
  • the imaging apparatus includes an imaging unit, an exposure adjustment unit, an amplification unit, and a control unit.
  • the imaging unit is configured to capture an image in an imaging range at a predetermined frame rate.
  • the exposure adjustment unit is configured to adjust an exposure condition of the imaging unit.
  • the amplifying unit is configured to amplify the luminance value of the image data output from the imaging unit for each pixel and output the same to the outside.
  • the control unit sets the exposure condition of the exposure adjustment unit and the amplification factor of the amplification unit so that the luminance evaluation value obtained by statistically processing the luminance values of a plurality of pixels of the image data matches a predetermined target value. It is comprised so that at least any one may be adjusted.
  • the control unit adjusts at least one of the exposure condition and the amplification factor when the luminance evaluation value is within a luminance range in which the image data output from the amplification unit can be processed.
  • the adjustment amount is limited so that the rate of change of the luminance evaluation value caused by this is less than or equal to a predetermined reference value, and the adjustment amount is not limited when the luminance evaluation value is outside the luminance range. Composed.
  • FIG. 6 is an explanatory diagram of an operation of the object detection device according to the first embodiment.
  • FIG. 6 is an explanatory diagram of an operation of the object detection device according to the first embodiment.
  • FIG. 6 is an explanatory diagram for explaining the operation of the object detection apparatus according to the first embodiment. It is explanatory drawing of the tracking operation
  • FIG. It is explanatory drawing of the tracking operation
  • FIG. It is explanatory drawing of the tracking operation
  • FIG. It is explanatory drawing of the tracking operation
  • FIG. 3 is an explanatory diagram illustrating an installation example of a camera in the object detection device according to the first embodiment.
  • 6 is an example of an image when a narrow-angle lens is used in the object detection apparatus according to the first embodiment.
  • 6 is an example of an image when a wide-angle lens is used in the object detection apparatus according to the first embodiment. It is explanatory drawing of the image imaged with the camera installed in the wall in the object detection apparatus of Embodiment 1.
  • FIG. 6 is a block diagram of an imaging apparatus according to Embodiment 2. It is explanatory drawing for demonstrating the change of a frame rate.
  • FIG. 6 is an operation explanatory diagram of the imaging apparatus according to Embodiment 2.
  • FIG. 6 is an operation explanatory diagram of the imaging apparatus according to Embodiment 2.
  • FIG. 6 is an operation explanatory diagram of the imaging apparatus according to Embodiment 2.
  • FIG. 6 is an operation explanatory diagram of the imaging apparatus according to Embodiment 2.
  • FIG. 6 is an operation explanatory diagram of the imaging apparatus according to Embodiment 2.
  • FIG. 6 is an operation explanatory diagram of the imaging apparatus according to Embodiment 2.
  • FIG. 6 is a block diagram of an imaging apparatus according to Embodiment 2. It is explanatory drawing explaining the magnitude
  • FIG. 6 is a block diagram of an imaging apparatus according to Embodiment 2. It is explanatory drawing for demonstrating the change of a frame rate.
  • FIG. 6
  • FIG. 6 is an operation explanatory diagram of the imaging apparatus according to Embodiment 2.
  • FIG. 6 is an operation explanatory diagram of the imaging apparatus according to Embodiment 2.
  • It is a block diagram of the illumination control system in Embodiment 3.
  • It is a flowchart of the illumination control system in Embodiment 3.
  • It is a figure explaining adjustment operation of the lighting control system in Embodiment 3.
  • It is a figure explaining adjustment operation of the lighting control system in Embodiment 3.
  • It is a figure explaining adjustment operation of the lighting control system in Embodiment 3.
  • It is a figure explaining adjustment operation of the lighting control system in Embodiment 3.
  • It is a figure explaining adjustment operation of the lighting control system in Embodiment 3.
  • It is a figure explaining adjustment operation of the lighting control system in Embodiment 3.
  • It is a figure explaining adjustment operation of the lighting control system in Embodiment 3.
  • It is a figure explaining adjustment operation of the lighting control system in Embodiment 3.
  • It
  • Embodiment 3 It is a figure explaining adjustment operation of the lighting control system in Embodiment 3. It is a block diagram which shows the human sensor of Embodiment 4. It is a system block diagram which shows the load control system in Embodiment 4. It is explanatory drawing of the detection area
  • FIG. 1 shows a block diagram of the object detection apparatus 1.
  • the object detection device 1 includes a camera 2, an image acquisition unit 3, an arithmetic processing unit 4, an image memory 5, and an output unit 6, and outputs a detection signal from the output unit 6 when a human body that is a detection target (search object) is detected.
  • the detection target of the object detection device 1 is not limited to a human body, and may be a moving object such as a car. In the present embodiment, the object detection device 1 does not necessarily need to include the camera 2.
  • the image acquisition unit 3, the arithmetic processing unit 4, the image memory 5, and the output unit 6 constitute an image processing device that processes an image from the camera 2.
  • the camera 2 is composed of a CCD camera or a CMOS image sensor, and images a predetermined monitoring area.
  • the image acquisition unit 3 captures image data from the camera 2 at a predetermined sampling interval, and outputs the captured image data to the arithmetic processing unit 4. That is, the image acquisition unit 3 is configured to sequentially acquire images in the imaging area at predetermined time intervals (sampling intervals) from the camera 2 that captures the predetermined imaging area.
  • the arithmetic processing unit 4 includes a microcomputer, and functions such as a difference image creation unit 4a, a determination unit 4b, and an object detection unit 4c are realized by executing a built-in program.
  • the difference image creation unit 4a is configured to create (determine) a difference image between images continuously acquired by the image acquisition unit 3.
  • the determination unit 4b is a moving region where there is a moving detection target for each of the blocks generated by dividing the difference image into a plurality of horizontal and vertical directions, or there is a stopped object. It is comprised so that it may be determined whether it is a stop area
  • the object detection unit 4c is configured to detect the detection target from the area determined as the movement area.
  • the image memory 5 is controlled by the arithmetic processing unit 4 to write and read data.
  • the image memory 5 stores image data captured by the image acquisition unit 3 from the camera 2 and image data such as a difference image created in the course of image processing. Configured as follows.
  • the output unit 6 is configured to output the detection signal input from the arithmetic processing unit 4 to a load device (not shown) to operate the load device or to output it to a host monitoring device (not shown). Is done.
  • the object detection apparatus 1 detects a detection target object from a grayscale image obtained by imaging a predetermined monitoring area with the camera 2, and the detection operation will be described based on the flowchart of FIG.
  • the image acquisition unit 3 samples the image data from the camera 2 at a predetermined time interval, and outputs the image data acquired from the camera 2 to the arithmetic processing unit 4 (step S1).
  • the arithmetic processing unit 4 sequentially stores the image data of the grayscale image input from the image acquisition unit 3 in the image memory 5.
  • the difference image creation unit 4a reads the previous grayscale image from the image memory 5, and obtains the difference image between the previous grayscale image and the grayscale image acquired by the image acquisition unit 3 this time. Create (step S2).
  • the difference image between frames is created at a predetermined time interval, but the time interval of the difference between frames does not need to be constant, and the difference image creation unit 4a is captured in time series. You may make it perform the difference between frames of two gray images.
  • the determination unit 4b generates a block having a predetermined size by dividing the difference image obtained in step S2 into a plurality of horizontal and vertical directions, and each block is a moving area or a stop area. Is determined (step S3).
  • the moving area refers to an area where a moving detection target (moving object) (a person in this embodiment) exists
  • the stop area refers to an area where a stopped object (stationary object) exists.
  • steps S1, S2, and S3 are created from N grayscale images, and each block is used using (N-1) inter-frame difference images. This is a step of determining whether or not is a movement area or a stop area.
  • Step S4 is a step of extracting a detection target area where a moving object exists, and a continuous block is extracted as one detection target area from one or a plurality of blocks determined to be a movement area.
  • Step S5 is a step for extracting and tracking a stationary object.
  • Steps S6 to S14 are steps for performing processing for tracking a moving object.
  • the determination unit 4b determines whether each block is a moving area or a stop area for each of the blocks generated by dividing the difference image created in step S2 into a plurality of vertical and horizontal directions. Processing will be described with reference to the drawings.
  • the image acquisition unit 3 captures image data from the camera 2 at a predetermined time interval (frame rate).
  • frame rate a predetermined time interval
  • (a) is a grayscale image captured from the camera
  • (b) is a difference image created from the grayscale image
  • (c) is an explanatory diagram showing a determination result obtained by determining a moving region and a stop region.
  • the difference image creation unit 4a continuously A difference image B1 between the two captured gray images A1 and A2 is created. Note that the moving person X1 is shown in the two grayscale images A1 and A2.
  • the determination unit 4b divides the difference image B1 into a plurality of pieces in the horizontal direction and the vertical direction, and blocks C1 having a predetermined size (m ⁇ n) pixels. , C2, C3,... Are created (see FIG. 3B).
  • the individual blocks are described as blocks C1, C2, C3,..., And the block C is described when the blocks are not specified.
  • the size of the difference image B1 is 300 pixels horizontally and 240 pixels vertically, and when this is divided into 40 in the horizontal direction and 30 in the vertical direction, a total of 1200 blocks C of 8 ⁇ 8 pixels are created,
  • the determination unit 4b determines whether the block C is a movement region or a stop region.
  • the determination unit 4b treats the difference value of each block C as a point in the 64-dimensional space.
  • the determination unit 4b performs learning using conventionally known methods such as discriminant analysis and SVM (support vector machine) based on learning data (movement area and stop area data) prepared in advance. Then, the determination unit 4b obtains in advance a boundary surface that divides the 64-dimensional space into a space where a moving detection target exists (moving space) and a space where a stopped object exists (stop space). .
  • the determination unit 4b is on the moving region side or the stop region side with respect to the boundary surface in the 64-dimensional space. It is determined whether this block C is a moving area or a stop area.
  • FIG. 3C shows the result of determining whether the movement area or the stop area for each block.
  • the area corresponding to the detection target X1 is determined as the movement area D1, and the other area is defined as the stop area D2. It has been judged.
  • the determination unit 4b is at the same position based on (N ⁇ 1) difference images created from N (N is an integer of 2 or more) grayscale images that are continuously captured (m Xn) It may be determined whether the block C of pixels is a movement region or a stop region.
  • the determination unit 4b applies (N ⁇ 1) difference images to a plurality of difference images. Divide into blocks C. Then, the determination unit 4b treats the difference value of the block C at the same position in the (N ⁇ 1) difference images as a point in the [(N ⁇ 1) ⁇ m ⁇ n] dimensional space, and this point is It is determined whether the boundary surface is on the moving space side or the stop space side.
  • the determination unit 4b may determine whether the region is a moving region or a stop region using principal component analysis.
  • the determination unit 4b treats the difference value of the block C of (m ⁇ n) pixels as a point in the (m ⁇ n) dimensional space. Then, the determination unit 4b determines whether each block C is a movement area or a stop area based on learning data prepared in advance (data of the block C determined as a movement area and a stop area).
  • the principal component coefficient to be separated and the threshold value of the principal component score Z are obtained in advance.
  • the principal component coefficients obtained by the principal component analysis are a1, a2, a3... A64
  • the pixel values of 64 pixels constituting the block C are b1, b2, b3.
  • the determination part 4b determines whether the block of determination object is a movement area
  • the same position (m ⁇ n) is obtained based on (N ⁇ 1) difference images created from N gray-scale images captured continuously. It may be determined whether the block C of pixels is a moving area or a stop area. Since only the number of dimensions is different and the processing itself is the same as the above-described processing, a detailed description will be given.
  • the object detection device 1 of the present embodiment includes the image acquisition unit 3, the difference image creation unit 4a, and the determination unit 4b.
  • the image acquisition unit 3 sequentially acquires images in a predetermined imaging area.
  • the difference image creation unit 4a obtains a difference image B1 between the two images A1 and A2 acquired successively by the image acquisition unit 3.
  • the determination unit 4b is a moving area where a moving detection target exists or is stopped for each of a plurality of blocks C obtained by dividing the difference image B1 into a plurality of horizontal and vertical directions. It is determined whether or not this is a stop area. Then, the determination unit 4b determines, for each of the plurality of blocks C, whether the block C is a moving region or a stop region based on the pixel values of the plurality of pixels constituting the block C.
  • the determination unit 4b determines, for each block C generated by dividing the difference image into a plurality of blocks, that the block C is a moving region based on the pixel values of a plurality of pixels constituting the block C. Or whether it is a stop area.
  • a moving object for example, a person
  • a moving object for example, a person
  • the person to be detected is wearing clothes similar in color to the background, the human body is divided into multiple parts Therefore, it is necessary to perform a process of joining regions divided into a plurality of parts.
  • it is determined for each block whether it is a moving area or a stop area, and it is not necessary to connect a plurality of divided areas, thereby reducing the load of image processing. Can do.
  • the determination unit 4b determines whether the area is a movement area or a stop area on a block basis based on the pixel values of a plurality of pixels. Therefore, even if a part of pixel values fluctuates due to noise or the like, the determination unit 4b can make a determination based on most pixel values that are not affected by noise or the like. Can be reduced.
  • the determination unit 4b determines whether this block is a moving region or a stop region based on the pixel values of a plurality of pixels constituting the block. The possibility of determination can be reduced.
  • the difference image creation unit 4a creates (N ⁇ 1) difference images from the N images continuously acquired by the image acquisition unit 3.
  • the determination unit 4b divides each of the (N ⁇ 1) difference images into a plurality of horizontal and vertical directions, and generates a plurality of blocks each having m pixels in the horizontal direction and n pixels in the vertical direction.
  • the determination unit 4b determines the difference value of [(N ⁇ 1) ⁇ m ⁇ n] pixels constituting the block [(N ⁇ 1) for the blocks at the same position in the (N ⁇ 1) difference images. ) ⁇ m ⁇ n] treated as a point on a dimensional space.
  • the determination unit 4b performs multivariate analysis based on the learning images collected in advance, and stops the [(N-1) ⁇ m ⁇ n] -dimensional space from the space where the moving detection target exists. A boundary surface that is partitioned into a space in which a moving object exists is obtained. Then, the determination unit 4b determines whether the points indicated by [(N ⁇ 1) ⁇ m ⁇ n] pixel values constituting each block are on the moving region side or the stopping region side with respect to the boundary surface. To determine whether this block is a moving area or a stop area.
  • the determination unit 4b performs multivariate analysis to determine whether each block is a movement region or a stop region.
  • the determination method of the determination unit 4b is limited to the above method. Instead of the purpose, it may be determined whether the region is a moving region or a stopping region by the following method.
  • the determination unit 4b determines that the pixel is a moving region if the number of pixels whose difference value exceeds a predetermined threshold among a plurality of pixels constituting each block is equal to or greater than a predetermined determination criterion. If the number of pixels whose value exceeds the threshold is less than the criterion, it is determined as a stop area.
  • each block is a moving region or a stop region based on the plurality of difference images
  • FIG. 4 shows that four difference images B1 to B4 are created from five grayscale images A1 to A5 captured continuously, and whether each block is a moving area based on the four difference images. It is explanatory drawing in the case of determining whether it is an area
  • (a) is a grayscale image captured from the camera
  • (b) is an explanatory diagram of a difference image created from the grayscale image.
  • the moving person X1 is shown in the five grayscale images A1 to A5.
  • the image acquisition unit 3 receives the grayscale image A1 from the camera 2 at time (t-2), the grayscale image A2 at time (t-1), the grayscale image A3 at time t, and the grayscale image A4 at time (t + 1).
  • the grayscale image A5 is captured at time (t + 2).
  • the image acquisition unit 3 captures grayscale image data from the camera 2
  • the image acquisition unit 3 outputs the captured image data to the arithmetic processing unit 4.
  • the arithmetic processing unit 4 stores the image data in the image memory 5.
  • the differential image creation unit 4a creates a differential image from the grayscale image captured at the previous timing, and the five grayscale images captured continuously.
  • Four difference images B1 to B4 are created from A1 to A5.
  • the determination unit 4b moves the moving region if the number of pixels whose difference value exceeds the threshold among the 256 pixels constituting the block at the same position in the four difference images B1 to B4 is equal to or greater than the predetermined determination value. If the number of pixels whose difference value exceeds the threshold value is less than the determination value, it is determined as a stop area.
  • the difference image creation unit 4a obtains (N ⁇ 1) from the continuously captured N grayscale images. ) Difference images are created (N is an integer of 2 or more). For each of the (N ⁇ 1) difference images, the determination unit 4b divides the difference image into a plurality of pieces in the horizontal direction and the vertical direction, and generates a block having m pixels in the horizontal direction and n pixels in the vertical direction. (M and n are integers of 2 or more). Then, the determination unit 4b determines the difference between the difference value of [(N ⁇ 1) ⁇ m ⁇ n] pixels constituting a block at the same position in the (N ⁇ 1) difference images and a predetermined threshold value. Each block is compared, and based on the number of pixels whose difference value exceeds the threshold, it is determined whether this block is a moving area or a stopping area.
  • the image acquisition unit 3 continuously captures five grayscale images A1 to A5 from the camera 2 and the differential image creation unit 4a creates four differential images B1 to B4, the determination is made.
  • the unit 4b divides the difference image into a plurality of parts in the horizontal direction and the vertical direction to create a block having a predetermined size.
  • the determination unit 4b compares the difference value of the pixels constituting the block at the same position with a predetermined threshold value in each of the difference images B1 to B4.
  • the determination unit 4b determines that this block is a moving region if the number of pixels whose difference value exceeds the threshold is equal to or greater than a predetermined determination criterion, and the number of pixels whose difference value exceeds the threshold is less than the determination criterion. If there is, it is determined that this block is a stop area.
  • Table 1 below shows an example of a result of determining whether a block at the same position in each of the difference images B1 to B4 is a moving region or a stop region.
  • Example 1 in the half difference images B1 and B2, the block at the same position is determined as the moving area, and in the remaining half difference images B3 and B4, the block at the same position is determined as the stop area.
  • Example 2 the block at the same position in the three difference images B1 to B3 is determined as the moving area, and the block at the same position is determined as the stop area only in the difference image B4.
  • Example 3 a block at the same position is determined as a moving area only by the difference image B4, and a block at the same position is determined as a moving area in the remaining difference images B1 to B3.
  • a method in which the determination unit 4b finally determines whether a block at the same position is a moving region or a stop region based on the determination results in the difference images B1 to B4 is a majority determination method.
  • the determination unit 4b determines a moving area. Since the determination of the area is less than half, the determination unit 4b determines that the area is a stop area. On the other hand, when the determination is made by the movement-priority OR determination method, in Examples 1 to 3, the determination unit 4b determines the movement region in at least one of the difference images B1 to B4. Is determined as a movement area.
  • the determination unit 4b performs the first process and the second process in the process of determining whether the block is a moving area or a stop area.
  • the determination unit 4b compares, for each of the (N ⁇ 1) difference images, the difference value between (m ⁇ n) pixels constituting the block and a predetermined threshold value, Based on the number of pixels whose difference value exceeds the threshold value, it is determined whether the block is a moving area or a stopping area.
  • the determination unit 4b uses the (N-1) difference images for the blocks at the same position in the (N-1) difference images based on the result of the first process. It is determined whether is a moving area or a stopping area.
  • the determination unit 4b determines whether each block is a moving area or a stop area for each of the plurality of difference images. And since the determination part 4b determines whether the block in the same position in a several difference image is a movement area
  • the determination unit 4b determines whether each of the blocks C obtained by dividing the difference image into a plurality of blocks is a moving region or a stop region.
  • the size of the block C is based on the following conditions. Determined in advance.
  • Conditions for determining the size of the block C include the size of the detection target, the distance from the camera 2 to the detection target, the moving speed of the detection target, and the time interval (frame rate) at which the image acquisition unit 3 acquires the image of the camera 2 )and so on.
  • the frame rate is determined as follows.
  • the object detection unit 4c determines that a partially overlapping area in two continuously captured gray images as a detection target that is moving and tracks the object, the two gray images continuously captured are detected.
  • the frame rate is determined so that an overlap occurs in an area where a person exists.
  • the image is designed.
  • the size of the detection target that appears inside is specified to some extent.
  • the frame rate is determined and set in the object detection apparatus 1 so that the existing area overlaps.
  • the distance from the camera 2 to the detection target and the size of the detection target appearing in the image are estimated as follows.
  • the lens of the camera 2 is a narrow-angle lens, it is detected from the camera 2 in the vicinity of the center of the image and in the peripheral portion. The distance to the subject does not change much.
  • FIG. 13 is an example of an image captured by the camera 2 when a narrow-angle lens is used.
  • the installation height of the camera 2 the standard height of the person to be detected (for example, an adult), and the height of the object to be detected at the time of sitting are already known.
  • the distance from the camera 2 to the detection target can be determined within a certain range.
  • the standard size of the detection target person for example, an adult
  • known data such as the number of pixels, the angle of view, and the lens magnification of the camera 2 are used. The designer can estimate the size of the detection target appearing in the image.
  • the camera 2 is installed on the ceiling 9, but the camera 2 may be attached to the wall, and in this case, the detection target is photographed from the lateral direction by the camera 2.
  • FIG. 15 is an example of an image captured by the camera 2 installed on the wall.
  • the designer since the distance from the camera 2 to the detection targets X1 and X2 cannot be specified, the designer sets a position for detecting the detection target in a certain range, and sets the distance from the camera 2 to the position to the detection target. Set as distance.
  • the designer sets the width dimension of the block C in the movement direction of the detection target to (1 / z) of the width dimension of the detection target in the movement direction. ) Set the dimension to be not less than 1 and not more than 1 time.
  • the camera 2 when the camera 2 is installed on the wall as shown in FIG. 15 and the person to be detected moves in the left-right direction in the image, the person who appears in the image when a person at a predetermined distance is photographed
  • the dimension corresponding to the horizontal width of the image is set as the width dimension of the detection target in the moving direction.
  • the length of one side of the rectangular area surrounding the person image appearing in the image is detected in the moving direction.
  • the target width dimension Set as the target width dimension.
  • the variable z is the number of difference images used when determining whether the area is a moving area or a stopping area. For example, when the number of difference images used for determination is four, the width dimension of the block C in the movement direction is set to (1/4) times or more and less than or equal to one time the width dimension of the detection target in the movement direction. .
  • the size of the block C is preferably set to (1/4) times or more and 1 times or less the width dimension of the detection target in the moving direction.
  • the detection target is between the images that are captured continuously. You will stay in almost the same position. Therefore, in order to create z difference images to be used for determination, the (z + 1) grayscale images acquired by the image acquisition unit 3 become similar images, and the difference value becomes small. There is sex.
  • the width dimension of the block C in the moving direction is larger than the above setting range, the ratio of the background in the block C increases and the difference value becomes small, so that there is a possibility of detection omission.
  • each block C becomes an image of a narrow region. Therefore, in order to create z difference images used for determination, an image acquisition unit In (z + 1) grayscale images acquired by No. 3, each block C has a similar pattern. For this reason, the difference value becomes small, and there is a possibility of detection omission.
  • the timing at which almost all of the number of pixels used for the determination of the moving area or the stop area is the detection target is 1
  • the size of the block C is preferably set so as to be about several (2 or 3) frames.
  • the speed of the detection target is not constant, and the size of the detection target in the image changes depending on the distance from the camera to the detection target, the angle of view of the lens, and the position of the detection target in the image as described above.
  • the size of the block C cannot be uniquely determined, if the width dimension of the block C in the movement direction of the detection target is set to be (1 / z) times or more and 1 time or less of the width dimension of the detection target in the movement direction.
  • the block size By setting the block size to such a size, it is possible to reliably detect the detection target by suppressing detection omissions regardless of whether the detection target is moving at low speed or high speed.
  • FIG. 16 shows an example of a grayscale image
  • FIG. 17 shows the result of determining whether each block is a moving area or a stop area.
  • FIGS. 16 and 17 are images when the camera 2 is installed on the wall. Since the detection target X2 stands at a position closer to the camera 2 than the detection target X1, the size of the detection target X2 in the image is large. It is larger than the detection target X1. Since the size of the block C is set in accordance with the detection target X1, the entire detection target X1 is detected as one moving region D2.
  • the size of the detection target X2 is larger than that of the detection target X1
  • the size of the block is relatively smaller than that of the detection target X2, so that the moving region D2 corresponding to the detection target X2 is divided. Detected by shape.
  • the size of the detection target that appears in the image differs between the vicinity of the center of the image and the peripheral portion as shown in FIG. It is also preferable to make it different from the peripheral part.
  • each block is a moving area or a stop area. May be divided into a plurality of blocks in the horizontal direction and the vertical direction to generate blocks. Then, for each block at the same position, a difference value between corresponding pixels may be obtained, and it may be determined whether the region is a moving region or a stop region from the number of pixels where the difference value is equal to or greater than a threshold value.
  • the object detection unit 4c selects a continuous block among one or more blocks determined as the movement region.
  • the detection target areas are collectively collected, and one or more detection target areas are extracted.
  • the object detection part 4c extracts each detection object area
  • the area determined as the stop area by the determination unit 4b is divided into a background area where the detection target does not exist and a still area where the detection target exists but the detection target is stationary. Therefore, in order to accurately detect the detection target, it is necessary to extract a stationary region from the stop region and detect a stationary detection target (for example, a person or a car).
  • the object detection apparatus 1 since it is difficult to detect a stationary person or vehicle from a stop area, the object detection apparatus 1 according to the present embodiment has a temporal change in a moving area in a process in which a moving detection target stops moving. Note that the still area is detected from the change.
  • the object detection device 1 extracts and tracks a stationary region (stationary object) by detecting a change in which a portion that was a moving region at a certain time in the past is no longer a moving region at the present time.
  • a stationary region stationary object
  • the object detection unit 4c sets each successive block as one detection target region among the one or more blocks determined as the movement region by the determination unit 4b.
  • step S5 Every time the image acquisition unit 3 captures an image from the camera 2, the determination unit 4 b performs a determination process for the moving area and the stop area, and the object detection unit 4 c performs a process for detecting a detection target. That is, in step S5, from the relationship between the detection target area obtained last time and the detection target area obtained this time, the current detection target area is deleted by taking over the previous detection target area as the area where the stationary object exists, Select whether to use the current detection area.
  • the object detection unit 4c determines that the detection target existing in the previous detection target area is stationary. Then, the object detection unit 4c tracks the stationary object by deleting the detection target area obtained this time and determining the detection target area obtained last time as a stationary area where the detection target exists.
  • condition 1 is that the detection target area obtained this time is included in the detection target area obtained last time.
  • Condition 2 is that the detection target region obtained this time overlaps with the detection target region obtained last time, and the ratio of the area of the detection target region obtained this time to the area of the detection target region obtained last time is smaller than a predetermined threshold value. It is to become.
  • Condition 3 is that there is no overlapping portion between the detection target area obtained this time and the detection target area obtained last time.
  • the object detection unit 4c when the detection target area obtained this time is included in the detection target area obtained last time (condition 1), or the current detection target area and the previous detection target area overlap and the previous detection When the ratio of the area of the current detection target area to the area of the target area is smaller than a predetermined threshold (condition 2), or when there is no overlapping portion between the current detection target area and the previous detection target area ( If any of the conditions 3), it is determined that the detection target is stationary, and the previous detection target region is configured as a region where the search object (detection target) exists.
  • FIG. 5A shows the detection target areas D1 and E1 detected last time
  • FIG. 5B shows the detection target areas D2 and E2 detected this time.
  • the current detection target areas D2 and E2 overlap the previous detection target areas D1 and E1, respectively, and the ratio of the areas of the current detection target areas D2 and E2 to the areas of the previous detection target areas D1 and E1 Is smaller than a predetermined threshold.
  • the target areas D1 and E1 are determined as still areas where the detection target exists, and the areas are taken over, and the detection target areas D2 and E2 obtained by the current detection are deleted.
  • the object detection unit 4c determines that the same detection target exists if the detection target area obtained last time overlaps with the detection target area obtained this time.
  • the object detection unit 4c obtains the current position of the detection target from the previous and current detection target areas depending on whether or not the detection target existing in the detection target area obtained last time is determined to be stationary. Change the judgment condition. In addition, when the object detection unit 4c determines that the detection target existing in the detection target area obtained last time is not stationary, the object detection unit 4c determines the detection target from the previous detection target area and the current detection target area according to the parameter indicating the movement of the detection target. Change the criteria for determining the current position.
  • the parameter representing the movement of the detection target is, for example, the speed of the detection target.
  • the object detection unit 4c obtains the position of the center of gravity of the detection target area where the detection target exists, and obtains the speed of the detection target from the temporal change in the position of the center of gravity.
  • the object detection unit 4c determines whether there is only one or more previous detection target areas overlapping with the detection target area F2 obtained this time (step S6 in FIG. 2).
  • the detection target region F2 obtained this time overlaps only with the detection target region (first detection target region) F1 obtained last time, and another detection target region (second detection target region) obtained last time ( If it does not overlap (not shown), the object detection unit 4c determines that the detection target existing in the detection target region F1 has moved to the detection target region F2 and tracks it (step S7 in FIG. 2).
  • the object detection unit 4c determines that the detection target has moved to the detection target region F2 detected this time regardless of whether the detection target region F1 detected last time is a movement region or a stationary region. .
  • step S6 When it is determined in step S6 that the detection target area F1a and the detection target area (second detection target area) F1b obtained last time overlap with the detection target area F2 obtained this time (see FIG. 7 to 10), the object detection unit 4c determines whether or not the first detection target existing in the first detection target region F1a is stationary (step S8).
  • step S8 if the first detection target in the first detection target region F1a is stationary (Yes in step S8), the object detection unit 4c exists in the first detection target region F1a as shown in FIG. It is determined that the detected object remains in the first detection object region F1a (step S9).
  • the object detection unit 4c determines that the first detection target existing in the first detection target region F1a is moving (No in Step S8), the object detection unit 4c exists in the second detection target region F1b. It is determined whether or not the second detection target is stationary (step S10).
  • the object detection unit 4c compares the speed V1 of the first detection target with the speed V2 of the second detection target (step S11). Based on the result, the detection target moved to the current detection target region F2 is determined.
  • the object detection unit 4c performs the first detection that was present in the first detection target area F1a at the previous detection as shown in FIG. It is determined that the target has moved to the current detection target area F2 (step S12).
  • the object detection unit 4c determines that the first detection target existing in the area remains in the first detection target region F1a (step S13).
  • the object detection unit 4c determines in step S10 that the second detection target existing in the second detection target region F1b is stationary, the object detection unit 4c includes the first detection target region F1a as shown in FIG. It is determined that one detection target has moved to the current detection target region F2 (step S14).
  • the object detection unit 4c determines that the detection target existing in the detection target area F1 has moved to the current detection target area F1.
  • the object detection unit 4c determines that the detection target existing in the first detection target region F1a remains in the first detection target region F1a.
  • the first detection target area F2 overlaps the previous detection target area (first detection target area) F1a and the detection target area (second detection target area) F1b, and exists in the first detection target area F1a.
  • the object detection unit 4c performs the following determination process.
  • the object detection unit 4c determines that the first detection target has moved to the current detection target area F2. If the speed V1 of the first detection target is equal to or lower than the speed V2 of the second detection target, the object detection unit 4c determines that the first detection target remains in the first detection target area F1a.
  • the first detection target area F2 overlaps the previous detection target area (first detection target area) F1a and the detection target area (second detection target area) F1b, and exists in the first detection target area F1a.
  • the object detection unit 4c determines that the first detection target is the current detection target region. It is judged that it moved to F2.
  • the object detection unit 4c determines whether or not the detection target existing in the detection target region obtained last time is stationary, and if not, depending on the parameter (for example, speed) indicating the motion of the detection target. Since the determination condition for obtaining the current position of the detection target from the previous and current detection target areas is changed, the position of the detection target can be determined in more detail.
  • the detection target g1 existing in the detection target region (first detection target region) G1 extracted at a certain time is stationary, and the first detection target region G1
  • the object detection unit 4c performs the following processing.
  • FIG. 11 shows the position of the second detection target region H1 at times (T-2), (T-1), T, (T + 1), and (T + 2).
  • the second detection target region H1 It moves from the upper left of FIG. 11 to the lower right according to progress.
  • the object detection unit 4c determines that the detection target g1 existing in the first detection target region G1 obtained at a certain time point is stationary, and is obtained in the first detection target region G1 thereafter.
  • the image of the first detection target region G1 immediately before the second detection target region H1 overlaps is held as a template image.
  • the object detection unit 4c when there is no overlap between the first detection target region G1 and the second detection target region H1 (time (T + 2)), the image of the first detection target region G1 and the template image at this time And a correlation value between the two is obtained.
  • the object detection unit 4c determines that the detection target g1 remains in the first detection target region G1, and if the correlation value is lower than the determination value, the object detection unit 4c determines that the detection target g1 has moved to the outside of the first detection target region G1.
  • the object detection apparatus 1 can detect the position of the detection target more accurately.
  • the detection target is obtained by combining both the stationary object and the moving object.
  • a human body can be detected more accurately.
  • the object detection device 1 of the present embodiment has the following first feature.
  • the object detection apparatus 1 includes an image acquisition unit 3, a difference image creation unit 4a, and a determination unit 4b.
  • the image acquisition unit 3 is configured to sequentially acquire images of a predetermined imaging area.
  • the difference image creation unit 4a is configured to obtain a difference image (for example, a difference image B1 between the two images A1 and A2) obtained by the image acquisition unit 3 continuously.
  • the determination unit 4b is a moving area where a moving detection target exists or is stopped for each of a plurality of blocks C obtained by dividing the difference image B1 into a plurality of horizontal and vertical directions. Is configured to determine whether a stop area exists.
  • the determination unit 4b is configured to determine, for each of the plurality of blocks C, whether the block C is a moving region or a stop region based on pixel values of a plurality of pixels that configure the block C. Is done.
  • the object detection device 1 of the present embodiment has any one of the following second to fifth features.
  • the second to fifth features are arbitrary features.
  • the difference image creation unit 4a is configured to create (N ⁇ 1) difference images from the N images continuously acquired by the image acquisition unit 3.
  • the determination unit 4b is configured to divide each of the (N ⁇ 1) difference images into a plurality of horizontal and vertical directions, and generate a plurality of blocks each having m pixels in the horizontal direction and n pixels in the vertical direction. Is done.
  • the determination unit 4b determines the difference value of [(N ⁇ 1) ⁇ m ⁇ n] pixels constituting the block [(N ⁇ 1) for the blocks at the same position in the (N ⁇ 1) difference images. )
  • ⁇ m ⁇ n] is configured to be treated as a point on a dimensional space.
  • the determination unit 4b performs multivariate analysis based on learning images collected in advance, and stops the [(N ⁇ 1) ⁇ m ⁇ n] dimensional space from the space where the moving detection target exists. It is configured to obtain a boundary surface that is partitioned into a space in which an existing object exists. In the [(N ⁇ 1) ⁇ m ⁇ n] dimensional space, the determination unit 4b determines that the point indicated by the difference value of [(N ⁇ 1) ⁇ m ⁇ n] pixels constituting the block is relative to the boundary surface. By determining which side is located, it is configured to determine whether the block is a movement area or a stop area.
  • the determination unit 4b compares, for each of the plurality of blocks, the difference value between a plurality of pixels constituting the block and a predetermined threshold value, and determines the number of pixels whose difference value exceeds the threshold value. Originally, it is configured to determine whether the block is a moving area or a stopping area.
  • the difference image creation unit 4a is configured to create (N ⁇ 1) difference images from the N grayscale images continuously acquired by the image acquisition unit 3 (N is 2). Or an integer).
  • the determination unit 4b is configured to divide each of the (N ⁇ 1) difference images into a plurality of horizontal and vertical directions, and generate a plurality of blocks each having m pixels in the horizontal direction and n pixels in the vertical direction. (M and n are integers of 2 or more).
  • the determination unit 4b compares the difference values of [(N ⁇ 1) ⁇ m ⁇ n] pixels constituting a block at the same position with (N ⁇ 1) difference images and the predetermined threshold value.
  • the block is configured to determine whether the block is a moving area or a stopping area based on the total number of pixels whose difference value exceeds the threshold.
  • the difference image creation unit 4a is configured to create (N ⁇ 1) difference images from the N images continuously acquired by the image acquisition unit 3.
  • the determination unit 4b is configured to divide each of the (N ⁇ 1) difference images into a plurality of horizontal and vertical directions, and generate a plurality of blocks each having m pixels in the horizontal direction and n pixels in the vertical direction. Is done.
  • the determination unit 4b compares, for each of the (N ⁇ 1) difference images, the difference value of the (m ⁇ n) pixels constituting the block and a predetermined threshold value, and the difference value determines the threshold value.
  • the block is configured to determine whether the block is a moving area or a stop area based on the number of pixels exceeding the number.
  • the determining unit 4b determines (N-1) It is configured to finally determine whether the target block is a moving area or a stop area from the difference image of one sheet.
  • the object detection device 1 of the present embodiment has the following sixth feature.
  • the object detection device 1 includes an object detection unit 4c that detects a detection target from an area determined to be a movement area.
  • the object detection unit 4c is configured so that consecutive blocks among the one or more blocks determined as the moving region are set as detection target regions.
  • the object detection unit 4c overlaps the current detection target area and the previous detection target area and corresponds to the area of the previous detection target area. If the area ratio of the detection target area is smaller than a predetermined threshold, or if there is no overlapping portion between the current detection target area and the previous detection target area, the detection target is stationary. It is determined that the detection target area is the area where the detection target exists.
  • the sixth feature is an optional feature.
  • the object detection device 1 of the present embodiment has the following seventh feature.
  • the object detection unit 4c is configured to determine that the same detection target exists if the detection target area obtained last time overlaps with the detection target area obtained this time.
  • the object detection unit 4c determines whether or not the detection target existing in the previously detected detection target area is stationary, and if it is determined that the detection target is not stationary, the parameter indicating the movement of the detection target Accordingly, the determination condition for obtaining the current position of the detection target from the previous and current detection target regions is changed.
  • the seventh feature is an arbitrary feature.
  • the object detection apparatus 1 of the present embodiment has the following eighth feature.
  • the parameter is a speed at which the detection target moves.
  • the object detection unit 4c is configured to calculate the speed at which the detection target moves based on the temporal change in the barycentric position of the detection target region.
  • the eighth feature is an arbitrary feature.
  • the object detection device 1 of the present embodiment has the following ninth to thirteenth features.
  • the ninth to thirteenth features are arbitrary features.
  • the object detection unit 4c requires that the previous first detection target area F1 and the current detection target area F2 overlap, and the current detection target area F2 overlaps the previous second detection target area.
  • the detection target existing in the first detection target region F1 is configured to be determined to have moved to the current detection target region F2.
  • the object detection unit 4c has the current detection target area F2 overlapped with the previous first detection target area F1a and the second detection target area F1b, respectively, and exists in the first detection target area F1a.
  • the detection target that has existed in the first detection target region F1a is determined to remain in the first detection target region F1a.
  • the object detection unit 4c includes a first detection target region F1 in which the current detection target region F2 overlaps the previous first detection target region F1a and the second detection target region F1b, and exists in the first detection target region F1a. If it is determined that both the detection target and the second detection target existing in the second detection target region F1b are moving, if the speed of the first detection target is higher than the speed of the second detection target, It is configured to determine that the first detection target has moved to the current detection target region F2.
  • the object detection unit 4c includes a second detection target area F2 that overlaps the first detection target area F1a and the second detection target area F1b, and the second detection target area F1a.
  • the first detection target Is determined to remain in the first detection target area F1a.
  • the object detection unit 4c includes a first detection target region F1 in which the current detection target region F2 overlaps the previous first detection target region F1a and the second detection target region F1b and exists in the first detection target region F1a.
  • the first detection target is moved to the current detection target region F2. Configured to judge.
  • the object detection unit 4c determines that the detection target g1 existing in the first detection target region G1 obtained at a certain time point is stationary, and the first detection target region G1 When at least a part of the second detection target area H1 obtained thereafter overlaps, an image of the first detection target area G1 immediately before the second detection target area H1 overlaps is held as a template image. When the first detection target region G1 and the second detection target region H1 are no longer overlapped, the object detection unit 4c performs matching processing between the image of the first detection target region G1 and the template image at this point in time. The correlation value is determined.
  • the object detection unit 4c is configured to determine that the detection target remains in the first detection target region G1 if the correlation value is higher than a predetermined determination value.
  • the object detection unit 4c is configured to determine that the detection target has moved outside the first detection target region G1 if the correlation value is lower than the determination value.
  • the determination unit 4b determines, based on the pixel values of a plurality of pixels constituting the block, for each of the blocks generated by dividing the difference image into a plurality of blocks. In addition, it is determined whether the block is a movement area or a stop area.
  • a moving object for example, a person
  • a moving object for example, a person
  • the person to be detected is wearing clothes similar in color to the background, the human body is divided into multiple parts Therefore, it is necessary to perform a process of joining regions divided into a plurality of parts.
  • it is determined for each block whether it is a moving area or a stop area, and it is not necessary to connect a plurality of divided areas, thereby reducing the load of image processing. Can do.
  • each block is a moving area or a stopping area from the representative values (for example, average values) of the pixel values of the plurality of pixels constituting each block. If the pixel value fluctuates and the representative value changes accordingly, the determination may be erroneous.
  • the determination unit 4b determines whether the area is a movement area or a stop area on a block basis based on the pixel values of a plurality of pixels. Therefore, even if a part of pixel values fluctuates due to noise or the like, the determination unit 4b can make a determination based on most pixel values that are not affected by noise or the like. Can be reduced.
  • the determination unit 4b determines whether this block is a moving region or a stop region based on the pixel values of a plurality of pixels constituting the block. The possibility of determination can be reduced.
  • the object detection apparatus 1 of the present embodiment includes an imaging apparatus 10 shown in FIG.
  • the object detection apparatus 1 according to the present embodiment includes an image acquisition unit 3, an arithmetic processing unit 4, an image memory 5, and an output unit 6, as in the first embodiment. That is, this embodiment mainly relates to the imaging device 10. Note that description of the image acquisition unit 3, the arithmetic processing unit 4, the image memory 5, and the output unit 6 is omitted.
  • the exposure amount adjustment in the imaging apparatus cannot be followed and a part or all of the image may be completely white or completely black.
  • an imaging apparatus that captures images at a frame rate suitable for the purpose of use such as time-lapse recording or image processing, the number of frames required for adjusting the exposure amount that has changed suddenly increases, which may lead to a situation unsuitable for the purpose of use. .
  • the present embodiment has been made in view of the above-described problems, and aims to improve the response of exposure amount adjustment while suppressing increase in power consumption and heat generation.
  • the imaging apparatus 10 includes an imaging element 11, an optical block 12 corresponding to a light control unit, an image generation unit 13, an adjustment unit 14, and the like.
  • the imaging device 11 has a plurality of pixels each storing charges, converts the amount of charges stored in each pixel into a pixel value, and outputs the pixel value.
  • a CCD image sensor or a CMOS image sensor It is comprised with solid-state image sensors, such as.
  • the image sensor 11 has a so-called electronic shutter function by changing the charge accumulation time.
  • the optical block 12 is configured by housing optical members such as a lens 120, a diaphragm 121, and a neutral density filter 122 in a housing 123, and light collected by the lens 120 passes through an opening of the diaphragm 121. Further, the light is attenuated (attenuated) by the neutral density filter 122 and enters the image sensor 11.
  • the diaphragm 121 is composed of, for example, a plurality of diaphragm blades, and controls the amount of light passing therethrough by changing the overlapping degree of the respective diaphragm blades to increase or decrease the aperture diameter.
  • the neutral density filter 122 is composed of a transmissive liquid crystal panel, and controls the amount of light passing through the liquid crystal panel by changing the transmittance (the amount of light used for photoelectric conversion in the image sensor 11).
  • the pixel value is adjusted by controlling the diaphragm 121 or the neutral density filter 122, the charge accumulation time of the image sensor 11, the amplification degree in the image generator 13, and the like.
  • the evaluation value is defined by a numerical value.
  • the evaluation value may be an average value obtained by averaging the pixel values of all the pixels of the image sensor 11, or may be the highest (larger) pixel value among the pixel values of all the pixels of the image sensor 11.
  • the appropriate range of evaluation values is set to a range according to the type of evaluation value (average value or maximum pixel value).
  • the horizontal axis indicates time
  • the vertical axis indicates the evaluation value
  • the hatched range indicates the appropriate range of the evaluation value.
  • the adjustment unit 14 reduces the aperture 121 or the decrease.
  • the amount of light incident on the image sensor 11 is reduced by half by controlling at least one of the optical filters 122 or the charge accumulation time of the image sensor 11.
  • the evaluation value of the image P5 of the next frame can be within the appropriate range.
  • the adjustment unit 14 enters, for example, the diaphragm 121 and the neutral density filter 122 into the image sensor 11.
  • the pixel value is decreased by reducing the amount of light and shortening the charge accumulation time of the image sensor 11.
  • the evaluation value of the image P5 of the next frame may be below the lower limit of the appropriate range.
  • the adjustment unit 14 increases the amount of light incident on the image sensor 11 through the diaphragm 121 and the neutral density filter 122 and extends the charge accumulation time of the image sensor 11. To increase the pixel value. As a result, the evaluation value of the image P6 of the next frame may slightly exceed the upper limit of the appropriate range.
  • the adjustment unit 14 controls at least one of the diaphragm 121 and the neutral density filter 122 to reduce the amount of light incident on the image sensor 11.
  • the evaluation value of the image P7 of the next frame can be within the appropriate range.
  • the pixel value may be increased or decreased by adjusting the amplification degree of the pixel value in the image generation unit 13 together with, or instead of, the charge accumulation time of the diaphragm 121, the neutral density filter 122, or the image sensor 11. .
  • an adjustment period of several frames (for example, time of T11 ⁇ 3 in the example of FIG. 22) is required to converge the evaluation value within an appropriate range.
  • the images P5 and P6 generated by the image generation unit 13 may be inappropriate images such as a screen that is too bright or a screen that is too dark.
  • the predetermined level is set to, for example, four times the upper limit value of the appropriate range and 1/4 of the lower limit value of the appropriate range.
  • the value of the predetermined level is not limited to this.
  • the pixel value when the pixel value is represented by a digital value of 8 bits (256 levels), the pixel value may be 128 or more or 8 or less. .
  • the evaluation value of the image P4 reaches the upper limit value of the pixel value and is saturated, and it takes an adjustment period of 3 frames until the adjustment unit 14 converges the evaluation value within the appropriate range.
  • the adjustment period is T12 ⁇ 3 ( ⁇ T11 ⁇ 3), which is significantly shortened (see FIG. 20).
  • the adjustment unit 14 If the evaluation value of the image P43 generated in the adjustment mode is within the appropriate range, the adjustment unit 14 returns the image generation unit 13 from the adjustment mode to the normal mode (the frame rate is 1 / T11 mode). Therefore, as explained in the prior art, since the period of the adjustment mode (adjustment period) in which the power consumption increases is extremely short compared with the case where the frame rate in the normal mode is increased, the power consumption and the heat generation amount are increased. It is possible to improve the response of the exposure adjustment while suppressing the above.
  • the image generation unit 13 does not output an image generated in the adjustment mode to the outside if the receiving device can tolerate frame loss (frame dropping).
  • the image generation unit 13 needs to output an image at the same frame rate as in the normal mode even in the adjustment mode. Therefore, when the image generated in the adjustment mode reaches a predetermined number of frames (the number of frames that can be generated within the same time as the frame period T11 in the normal mode), the adjustment unit 14 moves the image generation unit 13 from the adjustment mode to the normal mode. It is desirable to return to the mode.
  • a frame rate of 30 fps can be obtained by returning to the normal mode after generating an image of 3 frames in the adjustment mode. Can output images.
  • the adjustment unit when the elapsed time from the point of shifting to the adjustment mode reaches a predetermined time may return the image generation unit 13 from the adjustment mode to the normal mode. That is, the adjustment unit 14 may return the image generation unit 13 from the adjustment mode to the normal mode when the elapsed time from the time when the adjustment mode is reached reaches a predetermined time.
  • the time for the image generation unit 13 to read out the pixel values from the image sensor 11 is shorter than in the normal mode. Therefore, when the image generation unit 13 does not output an image to the outside in the adjustment mode, the adjustment unit 14 controls the image generation unit 13 to read only the pixel values of some pixels of the image sensor 11 in the adjustment mode. It is preferable to make it.
  • the adjustment unit 14 may cause the image generation unit 13 to read out only the pixel values of the pixels within the central rectangular range excluding the peripheral portion among the plurality of pixels of the image sensor 11. .
  • the pixel values of pixels arranged vertically and horizontally may be thinned out and read by the image generation unit 13. In this way, in the adjustment mode, if the adjustment unit 14 controls the image generation unit 13 to read out only the pixel values of some of the pixels of the image sensor 11, the operating frequency of the image generation unit 13 is not increased. In addition, it is possible to easily increase the frame rate from the normal mode to the adjustment frame rate.
  • the maximum value of the charge accumulation time of the image sensor 11 becomes smaller (shorter), so that the charge accumulation time set in the normal mode immediately before the transition is the adjustment mode after the transition. It may not be possible.
  • the charge accumulation time set in the normal mode is reduced to a value (quotient) obtained by dividing the charge accumulation time set in the adjustment mode by the maximum value (see FIG. 25).
  • the adjustment unit 14 sets the charge accumulation time in the adjustment mode to the upper limit value, and the optical block 12 Alternatively, it is preferable to adjust the pixel value by controlling the image generation unit 13 to change parameters other than the charge accumulation time.
  • the amplification degree may be increased at the time of shifting to the adjustment mode so that the ratio is the reciprocal of the value obtained by dividing the charge accumulation time set in the normal mode by the maximum value of the charge accumulation time in the adjustment mode.
  • the upper limit of the amplification factor in order to compensate for the decrease in the maximum value of the charge accumulation time in the adjustment mode with the amplification factor of the image generation unit 13, it is desirable to set the upper limit of the amplification factor to a value higher than the upper limit of the amplification factor in the normal mode. For example, assuming that the maximum value of the charge accumulation time in the normal mode is four times the maximum value of the charge accumulation time in the adjustment mode, the upper limit of the amplification degree in the adjustment mode may be set to four times the amplification degree in the normal mode (See FIG. 26). In this way, the evaluation value at the time of low illumination can be maintained at the same level in the normal mode and the adjustment mode.
  • the adjustment unit 14 determines an appropriate charge accumulation time and amplification factor at the upper limit of the charge accumulation time and the upper limit of the amplification factor in the normal mode, and matches the determined charge accumulation time and amplification factor. It is desirable to adjust other parameters (aperture 120 and dimming shutter 121).
  • the adjustment unit 14 is configured to readjust the charge accumulation time by controlling the optical block 12 when returning to the normal mode. When the readjusted charge accumulation time is different from the last charge accumulation time in the adjustment mode, the adjustment unit 14 controls the optical block 12 or the image generation unit 13 to change parameters other than the charge accumulation time to change the pixel value Adjust.
  • the imaging device 10 includes the imaging device 11, the light control unit (optical block 12), the image generation unit (image generation unit 13), the adjustment unit (adjustment unit 14), Is provided.
  • the imaging device 11 has a plurality of pixels each storing charges, and is configured to convert the amount of charges stored in each pixel into a pixel value and output the pixel value.
  • the light control means (optical block 12) is configured to control the amount of light provided for photoelectric conversion in the image sensor 11.
  • the image generation means is configured to read out pixel values from the image sensor 11 at a predetermined frame rate and generate an image of one frame for each frame rate from the read out pixel values.
  • the adjustment unit evaluates part or all of the pixel values in one frame image with an evaluation value defined by a numerical value, and controls the light control unit (such that the evaluation value falls within a predetermined appropriate range).
  • the pixel value is adjusted by controlling at least one of the optical block 12) and the image generating means (image generating unit 13).
  • the adjustment unit moves the image generation unit (image generation unit 13) from the frame rate (normal frame rate).
  • the mode is shifted to an adjustment mode for generating an image at a higher adjustment frame rate, and the image generation means (image generation unit 13) generates an image at the adjustment frame rate, and then generates an image at the frame rate (normal frame rate). It is configured to return to the normal mode.
  • the object detection device 1 of the present embodiment has the following fourteenth feature in addition to the first feature described above. Note that the object detection apparatus 1 of the present embodiment may selectively have the above-described second to thirteenth features.
  • the object detection device 1 includes an imaging device 10 as a camera 2 (see FIG. 1).
  • the imaging device 10 includes an imaging device 11, a light control unit (optical block 12), an image generation unit (image generation unit 13), and an adjustment unit (adjustment unit 14).
  • the imaging device 11 has a plurality of pixels each storing charges, and is configured to convert the amount of charges stored in each pixel into a pixel value and output the pixel value.
  • the light control means (optical block 12) is configured to control the amount of light provided for photoelectric conversion in the image sensor 11.
  • the image generation means (image generation unit 13) is configured to read out pixel values from the image sensor 11 at a predetermined frame rate and generate an image of one frame for each frame rate from the read out pixel values.
  • the adjustment unit evaluates part or all of the pixel values in one frame image with an evaluation value defined by a numerical value, and controls the light control unit (such that the evaluation value falls within a predetermined appropriate range).
  • the pixel value is adjusted by controlling at least one of the optical block 12) and the image generating means (image generating unit 13).
  • the adjustment unit moves the image generation unit (image generation unit 13) from the frame rate (normal frame rate).
  • the mode is shifted to an adjustment mode for generating an image at a higher adjustment frame rate, and the image generation means (image generation unit 13) generates an image at the adjustment frame rate, and then generates an image at the frame rate (normal frame rate). It is configured to return to the normal mode.
  • the object detection apparatus 1 of the present embodiment may have any one of the following fifteenth to seventeenth features.
  • the adjustment unit (adjustment unit 14) returns the image generation unit (image generation unit 13) from the adjustment mode to the normal mode when the evaluation value of the image generated in the adjustment mode is within the appropriate range. Configured to let
  • the adjustment unit (adjustment unit 14) returns the image generation unit (image generation unit 13) from the adjustment mode to the normal mode when the number of frames generated in the adjustment mode reaches a predetermined number of frames. Configured.
  • the adjustment unit causes the image generation unit (image generation unit 13) to return from the adjustment mode to the normal mode when the elapsed time from the time of transition to the adjustment mode reaches a predetermined time. Configured as follows.
  • the object detection device 1 of the present embodiment may further have the following 18th to 22nd features selectively.
  • the adjustment means has the charge accumulation time adjusted by controlling the light control means (optical block 12) in the normal mode exceeds the upper limit value of the charge accumulation time in the adjustment mode.
  • the charge accumulation time in the adjustment mode is set to the upper limit value, and the light control means (optical block 12) or the image generation means (image generation unit 13) is controlled to change the parameters other than the charge accumulation time to change the pixel value. Configured to adjust.
  • the adjustment means is configured to readjust the charge accumulation time by controlling the light control means (optical block 12) after returning to the normal mode.
  • the adjustment unit (adjustment unit 14) controls the light control unit (optical block 12) or the image generation unit (image generation unit 13) when the readjusted charge accumulation time is different from the last charge accumulation time in the adjustment mode. Then, the pixel value is adjusted by changing parameters other than the charge accumulation time.
  • the adjustment unit controls the image generation unit (image generation unit 13) to increase or decrease the amplification degree when the pixel value is amplified. Is configured to be higher than the upper limit of the amplification degree in the normal mode.
  • the image generation means (image generation unit 13) is configured not to output an image generated in the adjustment mode to the outside.
  • the adjustment unit controls the image generation unit (image generation unit 13) to read out only the pixel values of some pixels of the image sensor 11 in the adjustment mode. Composed.
  • the adjustment mode period (adjustment period) in which the power consumption increases is extremely short compared with the case where the frame rate in the normal mode is increased. Therefore, there is an effect that it is possible to improve the responsiveness of the exposure amount adjustment while suppressing the increase in the power consumption and the heat generation amount.
  • the object detection device 1 of the present embodiment includes an imaging device 21 shown in FIG. Further, the object detection device 1 of the present embodiment includes an object detection device 22 similar to the image processing device of the first embodiment. In other words, the present embodiment mainly relates to the imaging device 21.
  • an image sensor that captures an image of a control region
  • a calculation unit that identifies the position of a person existing in the control region from image information captured by the image sensor, and lighting control of the light source based on the calculation result of the calculation unit
  • An illumination system including a control unit has been proposed (see, for example, Document 4 [Japanese Patent Publication No. 2011-108417]).
  • the calculation unit obtains a pixel whose luminance value has changed between frames by obtaining a difference between frames of images captured by the image sensor, and obtains an object to be processed, that is, a position where a person is present.
  • image sensors are used for people to see the image, so if the subject's brightness changes for some reason, the exposure is automatically adjusted so that the subject's brightness matches the specified brightness range.
  • the exposure adjustment to be adjusted is performed promptly.
  • the position of a person is specified by obtaining a difference between frames of images captured by the image sensor. Therefore, if the exposure amount changes between frames due to exposure adjustment, the luminance of each pixel between frames. The value changed, and there was a possibility that people could not be detected correctly.
  • the present embodiment has been made in view of the above-described problems, and the object of the present embodiment is to reduce the influence of the process of adjusting the luminance value of the image on the image process when the brightness of the imaging region changes. There is.
  • the imaging device 21 captures an image of a preset imaging region. As illustrated in FIG. 27, the imaging device 21 includes an imaging unit 211, an amplification unit 212, an exposure adjustment unit 213, and a control unit 214.
  • the imaging unit 211 is a solid-state imaging device such as a CCD image sensor or a CMOS image sensor, a lens that collects light from the imaging region on the solid-state imaging device, and an analog output signal of the solid-state imaging device as a digital image signal (image A / D converter etc. for converting to (data).
  • the imaging unit 211 captures an illumination range of a lighting fixture 24 described later at a predetermined frame rate (Frame Rate), and outputs image data of the illumination range to the amplification unit 212 as needed.
  • the image data output from the imaging unit 211 includes image data of a monochrome grayscale image in which the brightness of each pixel is expressed in black and white shades (for example, 256 gradations).
  • the amplifying unit 212 amplifies the luminance value of the image data output from the imaging unit 211 for each pixel and outputs it to the outside (in the present embodiment, the object detection device 22).
  • the exposure adjustment unit 213 adjusts the exposure conditions by changing the exposure time of the imaging unit 211.
  • the exposure adjustment unit 213 may control the exposure condition by changing the F value by controlling the aperture mechanism.
  • the exposure conditions may be controlled by changing both the exposure time and the F value.
  • the control unit 214 averages the luminance values of a plurality of pixels of the imaging unit 211, obtains the average value as a luminance evaluation value, and the exposure condition of the exposure adjustment unit 213 so that the luminance evaluation value matches a predetermined target value. (In this embodiment, the exposure time) and the amplification factor of the amplification unit 212 are adjusted.
  • the control unit 214 changes both the exposure condition and the amplification factor in order to match the luminance evaluation value with a predetermined target value.
  • the luminance evaluation value may be adjusted by changing only the exposure condition. Then, the luminance evaluation value may be adjusted by changing only the amplification factor.
  • control unit 214 obtains the average value of the luminance values of the plurality of pixels included in the evaluation target area as the luminance evaluation value, but divides the evaluation target area into a plurality of parts to obtain the average value, and statistically processes them. Then, the luminance evaluation value may be obtained. Further, the control unit 214 may obtain a luminance evaluation value that represents a luminance value of a plurality of pixels by performing a statistical process other than the average process.
  • the control unit 214 also has a function of switching a cycle (frame rate) at which the imaging unit 211 captures an image.
  • the control unit 214 can switch the frame rate to either 5 fps (frame per second) or 13.3 fps, and the frame rate is normally set to 5 fps.
  • the imaging device 21 is used in a load control system (illumination control system) as shown in FIG.
  • This load control system includes the above-described imaging device 21, object detection device 22, lighting control device 23, and lighting fixture 24.
  • the imaging device 21 is installed above the lighting space (for example, the ceiling) by the lighting fixture 24 and captures an image looking down on the lower lighting space.
  • the object detection device 22 detects the presence or absence of a detection target (for example, a person) in the detection region (that is, the illumination space of the lighting fixture 24) based on the image captured by the imaging device 21, and the detection result is used as the illumination control device 23. Output to.
  • a detection target for example, a person
  • the lighting control device 23 turns on the lighting fixture 24, and when the detection result that the person is not present is input from the object detection device 22.
  • the lighting fixture 24 is turned off.
  • the object detection device 22 includes an input unit 221, an image processing unit 222, an image memory 223, and an output unit 224.
  • the input unit 221 outputs the image data input from the imaging device 21 to the image processing unit 222 at a predetermined frame rate.
  • the input unit 221 corresponds to the image acquisition unit 3 in the first embodiment.
  • the image memory 223 includes a large-capacity volatile memory such as a DRAM (Dynamic Random Access Memory), and the image processing unit 222 controls data writing and reading.
  • the image memory 223 stores, for example, image data for one to several frames input from the imaging device 21 and data such as a difference image created in the course of image processing.
  • the image memory 223 corresponds to the image memory 5 in the first embodiment.
  • the image processing unit 222 is composed of, for example, a microcomputer specialized for image processing, and a function of determining whether or not a person is included in the image data is realized by executing a built-in program.
  • the image processing unit 222 When an image signal is input from the input unit 221 at a predetermined frame rate, the image processing unit 222 reads the image data of the previous frame from the image memory 223 and performs inter-frame difference, so that the luminance value between the frames is obtained. Pixel regions that have changed by more than a predetermined threshold are extracted. For example, the image processing unit 222 determines whether or not there is a person in the imaging region by comparing the area of the extracted pixel region with a specified range set based on the size of the person appearing in the image. The determination result is output to the output unit 224. The image processing unit 222 stores the image data input from the input unit 221 in the image memory 223, and the image memory 223 stores image data for one to several frames.
  • the image processing unit 222 corresponds to the arithmetic processing unit 4 in the first embodiment.
  • the image processing unit 222 determines whether there is a person in the imaging region by performing the same processing as the arithmetic processing unit 4.
  • the output unit 224 has a function of performing communication with the lighting control device 23 connected via the signal line.
  • the output unit 224 The determination result is transmitted to the lighting control device 23.
  • the output unit 224 corresponds to the output unit 6 in the first embodiment.
  • the lighting control device 23 controls lighting and extinguishing of the plurality of lighting fixtures 24 based on the determination result input from the output unit 224 of the object detection device 22.
  • the lighting control device 23 turns off the lighting fixture 24 to be controlled.
  • the lighting control device 23 turns on the lighting fixture 24 to be controlled. Thereafter, when the determination result that there is a person is not input from the object detection device 22, the lighting control device 23 turns off the lighting fixture 24 when a predetermined lighting holding time has elapsed.
  • the luminaire 24 is turned on while there is a person in the lighting space, so that the necessary brightness can be secured, and when there is no more person from the lighting space, the luminaire 24 is turned off when a predetermined lighting holding time elapses. Therefore, wasteful power consumption can be reduced.
  • the image of the imaging device 21 is not an image for viewing by a person but is used for image processing for moving object detection, so that it is not necessary to adjust the screen brightness quickly. Rather, if the screen brightness is changed quickly, for example, by changing the exposure conditions, there is a possibility that the moving object cannot be correctly detected due to the influence.
  • the control unit 214 when the screen brightness becomes too dark or bright so that image processing for moving object detection cannot be performed, the control unit 214 performs the exposure condition of the exposure adjustment unit 213 and the amplification of the amplification unit 212.
  • the luminance evaluation value is immediately matched to a predetermined target value by changing the rate.
  • the control unit 214 gradually sets the exposure condition and the amplification factor so that the brightness evaluation value approaches the predetermined target value. The image processing for moving object detection is not adversely affected.
  • control unit 214 adjusts the brightness value of the screen in accordance with the brightness (brightness evaluation value) of the screen will be described with reference to the flowchart of FIG.
  • the imaging unit 211 images the imaging region at a predetermined frame rate (normally 5 fps), and outputs image data to the amplification unit 212 every time the imaging region is imaged.
  • a predetermined frame rate normally 5 fps
  • the amplification unit 212 amplifies the luminance value of each pixel of the image data with a predetermined amplification factor, and outputs it to the object detection device 22.
  • control unit 214 When the control unit 214 captures the image data output from the amplification unit 212 for each frame (step S21 in FIG. 28), the control unit 214 obtains the average value of the luminance values of a plurality of pixels and sets this average value as the luminance evaluation value L1.
  • the control unit 214 When obtaining the luminance evaluation value L1, the control unit 214 obtains a difference between the luminance evaluation value L1 and a predetermined target value T1, and the amplification factor of the amplification unit 212 and the exposure adjustment unit 213 so that the difference becomes small. Adjust the exposure conditions.
  • the luminance value of each pixel is 256 gradations (0 to 255), and the target value T1 of the luminance evaluation value L1 is normally set to 64.
  • the imaging device 21 of the present embodiment is used not to capture an image for human viewing but to capture an image in which the object detection device 22 in the subsequent stage performs image processing for moving object detection. Therefore, even if an image is too bright or too dark for the human eye, the control unit 214 evaluates the brightness by adjusting the exposure conditions and the amplification factor if the brightness range allows image processing without problems.
  • the exposure condition and the adjustment amount of the amplification factor are limited so that the value L1 does not change greatly.
  • the operation of the control unit 214 will be described assuming that the lower limit value of the luminance range in which image processing can be performed without problems is LM1 (for example, 32) and the upper limit value is LM4 (for example, 128).
  • control unit 214 When the control unit 214 obtains the brightness evaluation value L1 in step S21, the control unit 214 compares the above-described brightness range upper limit value LM4 with the brightness evaluation value L1 (step S22).
  • the control unit 214 further compares the level of the luminance evaluation value L1 with a predetermined threshold (second threshold) LM5 (for example, 160). (Step S23).
  • the control unit 214 changes the exposure time and the amplification factor so that the luminance evaluation value L1 becomes the target value T1. (Step S26).
  • step S23 if the luminance evaluation value L1 exceeds the threshold LM5 (Yes in step S23), the control unit 214 increases the frame rate to 13.3 fps (step S24), and normally sets the target value T1 of the luminance evaluation value L1. The value is switched to a value T2 (for example, 56) lower than the hour (step S25).
  • control unit 214 After increasing the frame rate and switching the target value to a value T2 lower than normal, the control unit 214 changes the exposure time and amplification factor so that the luminance evaluation value L1 becomes the target value T2 (step S2). S26), the luminance evaluation value L1 is adjusted to the target value T2 in a short time (next frame).
  • the control unit 214 limits the adjustment amount of the exposure time and the amplification factor in order to limit the change rate of the luminance evaluation value L1 to a reference value described later.
  • the exposure time and the amplification factor are adjusted so that the luminance evaluation value L1 immediately matches the target value without processing. Therefore, the control unit 214 can match the luminance evaluation value L1 with the target value in a short time, and can shorten the time until desired image processing can be performed.
  • control unit 214 compares the lower limit value LM1 and the luminance evaluation value L1 of the luminance range described above (step S27). .
  • the control unit 214 further compares the level of the luminance evaluation value L1 with a predetermined threshold (first threshold) LM0 (for example, 28). (Step S28).
  • the control unit 214 changes the exposure time and the amplification factor so that the luminance evaluation value L1 becomes the target value T1. (Step S26).
  • step S28 if the luminance evaluation value L1 is less than the threshold value LM0 (Yes in step S28), the control unit 214 increases the frame rate to 13.3 fps (step S29), and sets the target value T1 of the luminance evaluation value L1 to the normal time. The value is switched to a higher value T3 (for example, 104) (step S30).
  • the control unit 214 After increasing the frame rate and switching the target value to a value T3 that is higher than normal, the control unit 214 changes the exposure time and amplification factor so that the luminance evaluation value L1 becomes the target value T3 (step S3). S26), the luminance evaluation value L1 is adjusted to the target value T3 in a short time (next frame).
  • the control unit 214 limits the adjustment amount of the exposure time and the amplification factor in order to limit the rate of change of the luminance evaluation value L1 to a reference value described later.
  • the exposure time and the amplification factor are adjusted so that the luminance evaluation value L1 immediately matches the target value without processing. Therefore, the control unit 214 can match the luminance evaluation value L1 with the target value in a short time, and can shorten the time until desired image processing can be performed.
  • step S27 If the luminance evaluation value L1 is greater than or equal to the lower limit value LM1 in step S27 (No in step S27), the control unit 214 compares the luminance evaluation value L1 with a predetermined threshold LM3 (for example, 66) (step S31). ).
  • a predetermined threshold LM3 for example, 66
  • the control unit 214 sets the exposure time and amplification factor so that the luminance value is reduced by 1/128.
  • the brightness evaluation value L1 is finely adjusted by changing (step S32).
  • step S31 If the luminance evaluation value L1 is equal to or smaller than the threshold LM3 in step S31 (No in step S31), the control unit 214 compares the luminance evaluation value L1 with the threshold LM2 (for example, 62) (step S33).
  • the control unit 214 changes the exposure time and the amplification factor so that the luminance value is increased by 1/128. Then, the brightness evaluation value L1 is finely adjusted (step S34).
  • step S33 when the luminance evaluation value L1 is equal to or greater than the threshold LM2, that is, LM2 ⁇ L1 ⁇ LM3, the control unit 214 determines that the luminance evaluation value L1 substantially matches the target value T1, and determines the exposure time and The process ends without changing the amplification factor.
  • the control unit 214 increases the frame rate when the luminance evaluation value L1 exceeds the threshold value LM5, but may increase the frame rate when the luminance evaluation value L1 exceeds the upper limit value LM4.
  • the control unit 214 switches the target value to a value T2 that is smaller than the normal value when the luminance evaluation value L1 exceeds the threshold value LM5. However, if the luminance evaluation value L1 exceeds the upper limit value LM4, the control value is changed from the normal value. May be switched to a smaller value T2.
  • control unit 214 increases the frame rate when the luminance evaluation value L1 falls below the threshold LM0, but may increase the frame rate when the luminance evaluation value L1 falls below the lower limit LM1.
  • the control unit 214 switches the target value to a value T3 that is higher than the normal value when the luminance evaluation value L1 falls below the threshold value LM0. However, if the luminance evaluation value L1 falls below the lower limit value LM1, the control value is changed from the normal value. May be switched to a higher value T3.
  • the process of adjusting the screen brightness by the control unit 214 is as described above, and the manner in which the control unit 214 adjusts the screen brightness based on the brightness evaluation value L1 will be described in more detail with reference to FIGS. .
  • FIG. 29 shows the adjustment operation when the luminance evaluation value L1 is within the luminance range where image processing can be performed without problems, that is, when the luminance evaluation value L1 is not less than the lower limit value LM1 and not more than the upper limit value LM4.
  • the control unit 214 changes the exposure time and amplification factor, and increases the luminance value by 1/128 for each frame, thereby increasing the luminance evaluation value L1. Gradually approach the target value T1.
  • the control unit 214 changes the exposure time and the amplification factor, and decreases the luminance value by 1/128 for each frame. L1 is gradually brought closer to the target value T1.
  • the screen brightness gradually becomes dark as the lighting device 24 fades off during the period from time t1 to time t2.
  • the control unit 214 adjusts the exposure time and the amplification factor so that the luminance value is increased by 1/128 for each frame, but since the pace at which the screen luminance becomes darker by turning off the fade is faster, Adjustment of exposure time and amplification factor cannot catch up, and the screen brightness gradually becomes darker.
  • the control unit 214 thereafter adjusts the exposure time and the amplification factor so that the luminance value is increased by 1/128 for each frame, whereby the luminance evaluation value is obtained.
  • L1 gradually increases and coincides with the target value T1 at time t3.
  • the control unit 214 determines that the change rate of the luminance evaluation value L1 is a predetermined reference value (for example, 1/128 per frame).
  • the exposure time and the amplification factor are changed so as not to exceed. Therefore, even when the luminance evaluation value L1 changes due to the change of the exposure time and the amplification factor, the change rate falls within a predetermined reference value, so there is no problem using the image data after adjusting the luminance value. Image processing can be performed.
  • the control unit 214 changes the exposure condition and the amplification factor so that the change rate of the luminance value does not exceed 1/128 per frame.
  • the change of the luminance value generated between frames by adjusting the conditions and the amplification factor becomes 2 or less.
  • the influence of the process of adjusting the brightness value on the image process using the image data can be reduced, and the image process is performed without any problem. be able to.
  • FIG. 30 shows an operation for correcting the screen brightness when capturing an image viewed by a person.
  • the change rate of the brightness value generated by changing the exposure time and the amplification factor is limited. Absent.
  • the screen brightness gradually decreases due to, for example, the lighting fixture 24 being turned off by fading.
  • the control unit 214 adjusts the exposure condition and the amplification factor, thereby performing luminance evaluation in the next frame.
  • the value L1 is matched with the target value T1. In this case, since the screen brightness changes abruptly in the period from time t11 to time t12 and in the period from time t13 to time t14, it is difficult to distinguish from the brightness change caused by the presence of the moving object. Image processing cannot be performed.
  • the control unit 214 sets the change rate of the luminance value by changing the exposure time and the amplification factor to 128.
  • the brightness is limited to a factor of 1 so that the change in luminance value is moderate.
  • the change of the luminance value caused by changing the exposure condition and the amplification factor can be reduced to a size that does not hinder the image processing, and the image processing can be performed without any trouble.
  • FIG. 31 shows an operation when the luminance evaluation value L1 falls below the lower limit value LM1 of the luminance range in which image processing can be performed without any problem.
  • the brightness of the imaging region is gradually darkened, for example, when the lighting fixture 24 is faded off.
  • the control unit 214 adjusts the exposure time and amplification factor so that the luminance value increases by 1/128 for each frame.
  • the pace at which the screen brightness is darkened by the fade-off is faster, the adjustment of the exposure time and the amplification rate cannot catch up, and the screen brightness gradually darkens.
  • control unit 214 adjusts the exposure condition and the amplification factor so that the change rate of the luminance value is equal to or less than a predetermined reference value, and brings the luminance evaluation value L1 close to the target value T1. The change in the generated luminance value is reduced, and image processing can be performed without any trouble.
  • the control unit 214 changes the exposure time and the amplification factor so that the luminance evaluation value L1 matches the target value T1 in the next frame.
  • the luminance value changes greatly between the frame (time t21) in which the luminance evaluation value L1 falls below the lower limit value LM1, and the next frame (time t22)
  • image processing for moving object detection cannot be performed.
  • the luminance evaluation value L1 is not less than the lower limit value LM1 and not more than the upper limit value LM4 after the time t22, the change rate of the luminance value due to the change of the exposure time and the amplification factor is limited to 1/128. Processing can be performed without any problem.
  • the control unit 214 adjusts the exposure time and the amplification factor so that the luminance value is increased by 1/128 for each frame, but from time t22 to time t23, the screen luminance becomes dark due to fade-off. Is faster and the screen brightness gradually becomes darker.
  • the control unit 214 adjusts the exposure time and the amplification factor so that the luminance value is increased by 1/128 for each frame, whereby the luminance evaluation value L1. Turns up and coincides with the target value T1.
  • FIG. 32 shows an operation when the luminance evaluation value L1 falls below a predetermined threshold value LM0 that is smaller than the luminance range in which image processing can be performed without hindrance.
  • the brightness of the imaging region is gradually darkened, for example, when the lighting fixture 24 is faded off.
  • control unit 214 adjusts the exposure time and the amplification factor so that the luminance value increases by 1/128 for each frame.
  • the pace is faster and the screen brightness gradually decreases.
  • the luminance evaluation value L1 changes greatly between the frame (time t31) in which the luminance evaluation value L1 falls below the threshold LM0 and the next frame (time t32), image processing for moving object detection cannot be performed.
  • the luminance evaluation value L1 is not less than the lower limit value LM1 and not more than the upper limit value LM4, and the change rate of the luminance value due to adjustment of the exposure time and amplification factor is limited to 1/128 or less. It can be done without hindrance.
  • control unit 214 returns the frame rate and the target value to the original values.
  • control unit 214 adjusts the exposure time and the amplification factor so that the luminance value is increased by 1/128 for each frame, but the screen luminance is darkened by fading off from time t32 to time t33. The pace is faster and the screen brightness gradually decreases. Then, when the lighting fixture 24 is completely turned off at time t33, the control unit 214 adjusts the exposure time and the amplification factor so that the luminance value is increased by 1/128 for each frame, whereby the luminance evaluation value L1. Turns up and coincides with the target value T1.
  • FIG. 33 shows an adjustment operation when the target value T1 is not changed.
  • the lighting fixture 24 is faded off from time t40 to time t45, and the brightness of the imaging region gradually decreases accordingly.
  • the control unit 214 adjusts the exposure time and the amplification factor so that the luminance value is increased by 1/128 for each frame.
  • the pace is faster and the screen brightness gradually decreases.
  • the control unit 214 adjusts the luminance value so that the luminance evaluation value L1 becomes the target value T1 by changing the exposure time and the amplification factor.
  • the control unit 214 changes the exposure time and the amplification factor so as to set the luminance evaluation value L1 to the target value T1 at time t43, and both the period from time t41 to t42 and the period from time t43 to t44.
  • image processing for moving object detection could not be performed.
  • the control unit 214 switches the target value of the luminance evaluation value L1 to a larger value T2. Therefore, after the luminance evaluation value L1 is adjusted to the target value T2, the luminance evaluation value L1 decreases as the fade is turned off, and the time required to fall below the lower limit value LM1 is compared with the case where the target value is not changed. Become longer.
  • the luminance evaluation value L1 is between the time t33 when fade-off ends. It does not fall below the lower limit LM1. Therefore, the number of times that the control unit 214 adjusts the exposure time and the amplification factor to match the luminance value with the target value is reduced, and the period during which image processing cannot be performed to adjust the screen luminance can be shortened.
  • FIG. 34 shows an adjustment operation when the frame rate is increased when the luminance evaluation value L1 deviates from a luminance range in which image processing can be performed without any problem
  • FIG. 35 shows an adjustment operation when the frame rate is not changed.
  • the frame rate is constant, if the luminance evaluation value L1 deviates from the luminance range in which image processing can be performed without problems, a relatively long time D12 is required until the luminance evaluation value L1 falls within the luminance range. During this time, however, the luminance value changes greatly and image processing cannot be performed.
  • the control unit 214 increases the frame rate, and the luminance is higher than that in the case where the frame rate is constant.
  • the time D11 until the evaluation value L1 falls within the above luminance range can be shortened. Therefore, the period during which the luminance evaluation value L1 is not suitable for image processing is shortened, and the image processing can be restarted early.
  • the values of the threshold values LM0 to LM5 described above can be changed as appropriate according to the contents of the image processing.
  • the imaging device 21 of the present embodiment includes the imaging unit 211 that captures an image in the imaging range at a predetermined frame rate, the exposure adjustment unit 213 that adjusts the exposure condition of the imaging unit 211, and the imaging unit 211.
  • the amplifying unit 212 that amplifies the luminance value of the image data output from each pixel and outputs it to the outside, and the luminance evaluation value obtained by statistically processing the luminance values of a plurality of pixels of the image data match a predetermined target value
  • the control unit 214 adjusts at least one of the exposure condition of the exposure adjustment unit 213 and the amplification factor of the amplification unit 212.
  • the control unit 214 is configured not to limit the adjustment amount when the adjustment amount is limited to be equal to or less than a predetermined reference value, and when the luminance evaluation value is outside the luminance range.
  • the object detection device 1 of the present embodiment has the following twenty-third feature in addition to the first feature described above. Note that the object detection apparatus 1 of the present embodiment may selectively have the above-described second to thirteenth features.
  • the object detection device 1 includes an imaging device 21 as the camera 2.
  • the imaging device 21 includes an imaging unit 211, an exposure adjustment unit 213, an amplification unit 212, and a control unit 214.
  • the imaging unit 211 is configured to capture an image in the imaging range at a predetermined frame rate.
  • the exposure adjustment unit 213 is configured to adjust the exposure condition of the imaging unit 211.
  • the amplifying unit 212 is configured to amplify the luminance value of the image data output from the imaging unit 211 for each pixel and output it to the outside.
  • the control unit 214 includes the exposure condition of the exposure adjustment unit 213 and the amplification factor of the amplification unit 212 so that the luminance evaluation value obtained by statistically processing the luminance values of the plurality of pixels of the image data matches a predetermined target value. It is configured to adjust at least one of them.
  • the control unit 214 adjusts at least one of the exposure condition and the amplification factor.
  • the adjustment amount is limited so that the rate of change of the evaluation value is equal to or less than a predetermined reference value, and the adjustment amount is not limited when the luminance evaluation value is outside the above luminance range.
  • the control unit 214 limits the adjustment amount so as to be equal to or less than the reference value. Therefore, it is possible to reduce the influence of the process for adjusting the brightness of the image on the image process.
  • the control unit 214 is configured not to limit the adjustment amount when the luminance evaluation value is out of the above luminance range, the luminance evaluation value can be matched with the target value in a short time, Time until desired image processing can be performed can be shortened.
  • the luminance range in which image data can be processed is the luminance range excluding the luminance range in which image processing cannot be performed because the luminance value is too dark, and the luminance range in which image processing cannot be performed because the luminance value is too bright. It is.
  • the object detection device 1 of the present embodiment may have any one of the following twenty-fourth to thirty-second features.
  • the control unit 214 sets the luminance evaluation value L1 within the luminance range. It is configured to increase the target value as compared with the case where it is within the range.
  • the luminance evaluation value L1 decreases and falls below the luminance range
  • the luminance evaluation value L1 is adjusted to a target value set to a larger value than when the luminance evaluation value L1 is within the luminance range. The Therefore, when the luminance evaluation value L1 continues to decrease thereafter, the time until the luminance evaluation value L1 falls below the luminance range again becomes longer.
  • the control unit 214 sets the target value compared to the case where the luminance evaluation value L1 is equal to or higher than the threshold value LM0. Is configured to increase.
  • the luminance evaluation value L1 decreases and falls below the threshold value LM0
  • the luminance evaluation value L1 is adjusted to a target value set to a larger value than when the luminance evaluation value L1 is equal to or greater than the threshold value LM0. Therefore, when the luminance evaluation value L1 continues to decrease thereafter, the time until the luminance evaluation value L1 falls below the luminance range again can be increased.
  • the control unit 214 increases the frame rate compared to the case where the luminance evaluation value L1 is within the luminance range. Configured.
  • the time required for the luminance evaluation value L1 to fall within the luminance range can be shortened, and the period during which the luminance evaluation value L1 changes according to the adjustment operation of the control unit 214 can be shortened. Can be shortened.
  • the control unit 214 when the luminance evaluation value L1 is lower than the predetermined threshold value LM0 lower than the luminance range, the control unit 214 has a frame rate compared to the case where the luminance evaluation value L1 is equal to or higher than the threshold value LM0. Configured to be high.
  • the time required for the luminance evaluation value L1 to fall within the luminance range can be shortened, and the period during which the luminance evaluation value L1 changes according to the adjustment operation of the control unit 214 can be shortened. Can be shortened.
  • the control unit 214 makes the target value smaller than when the luminance evaluation value L1 is within the luminance range. Configured.
  • the luminance evaluation value L1 increases and exceeds the luminance range, the luminance evaluation value L1 is adjusted to a target value set to a smaller value than when the luminance evaluation value L1 is within the luminance range. The Therefore, when the luminance evaluation value L1 continues to increase thereafter, the time until the luminance evaluation value L1 exceeds the luminance range again can be increased.
  • the control unit 214 decreases the target value compared to the case where the luminance evaluation value is equal to or less than the threshold value LM5. Configured to do.
  • the luminance evaluation value L1 increases and exceeds the threshold value LM5, the luminance evaluation value L1 is adjusted to a target value set to a smaller value than when the luminance evaluation value L1 is equal to or less than the threshold value LM5. Therefore, when the luminance evaluation value L1 continues to increase thereafter, the time until the luminance evaluation value L1 exceeds the luminance range again can be increased.
  • the control unit 214 increases the frame rate compared to the case where the luminance evaluation value L1 is within the luminance range. Configured as follows.
  • the time required for the luminance evaluation value L1 to fall within the luminance range can be shortened, and the period during which the luminance evaluation value L1 changes according to the adjustment operation of the control unit 214 can be shortened. Can be shortened.
  • the control unit 214 determines that the frame is lower than the case where the luminance evaluation value L1 is equal to or less than the threshold LM5. Configured to increase the rate.
  • the time required for the luminance evaluation value L1 to fall within the luminance range can be shortened, and the period during which the luminance evaluation value L1 changes according to the adjustment operation of the control unit 214 can be shortened. Can be shortened.
  • the control unit 214 sets the target value compared to the case where the luminance evaluation value L1 is equal to or less than the second threshold value LM5. It is configured to reduce and increase the frame rate.
  • the luminance evaluation value L1 decreases and falls below the first threshold value LM0
  • the luminance evaluation value L1 is adjusted to a target value set to a larger value than when the luminance evaluation value L1 is equal to or greater than the first threshold value LM0. Is done. Therefore, when the luminance evaluation value L1 continues to decrease thereafter, the time until the luminance evaluation value L1 falls below the luminance range again can be increased.
  • the luminance evaluation value L1 increases and exceeds the second threshold value LM5, the luminance evaluation value L1 is adjusted to a target value set to a smaller value than when the luminance evaluation value L1 is equal to or less than the second threshold value LM5. The Therefore, when the luminance evaluation value L1 continues to increase thereafter, the time until the luminance evaluation value L1 exceeds the luminance range again can be increased.
  • the control unit 214 increases the frame rate. Therefore, the time required for the luminance evaluation value L1 to fall within the above luminance range is set. Can be shortened. Therefore, since the period during which the luminance evaluation value L1 changes according to the operation of the control unit 214 adjusting the luminance value can be shortened, the time during which image processing cannot be performed can be shortened.
  • the present embodiment relates to a human sensor that detects the presence of a person in a detection area, and a load control system that controls a load according to a detection result of the human sensor.
  • the present embodiment has been made in view of the above problems, and aims to make it possible to detect a stationary person and to detect the presence of a person for each of a plurality of areas.
  • the present embodiment relates to a load control system in which the load is a lighting load
  • the load to be controlled is not limited to the lighting load, for example, an air conditioning load (air conditioning equipment that adjusts indoor temperature and humidity) and the like It may be.
  • the load control system of the present embodiment includes a human sensor 31, a control device 32, and a plurality of lighting loads 33 as shown in FIG.
  • the control device 32 generates a control command for each lighting load 33 in accordance with human detection information (described later) transmitted from the human sensor 31 via the transmission line, and transmits the generated control command to each illumination via the signal line. Transmit to the load 33.
  • the illumination load 33 includes a light source (not shown) such as an incandescent lamp, a fluorescent lamp, or an LED lamp, and a lighting device (not shown) for turning on / off and dimming the light source according to a control command.
  • a light source such as an incandescent lamp, a fluorescent lamp, or an LED lamp
  • a lighting device for turning on / off and dimming the light source according to a control command.
  • Arranged on the ceiling of an illumination space for example, one floor of an office building.
  • the human sensor 31 includes an imaging unit 310, an image processing unit 311, a communication unit 312, a setting unit 313, a storage unit 314, and the like.
  • the imaging unit 310 includes an imaging element such as a CMOS image sensor and a CCD image sensor, a lens, an A / D converter that converts an analog output signal of the imaging element into a digital image signal (image data), and the like.
  • an imaging element such as a CMOS image sensor and a CCD image sensor
  • a lens an A / D converter that converts an analog output signal of the imaging element into a digital image signal (image data), and the like.
  • the imaging unit 310 the camera 2 of the first embodiment, the imaging device 10 of the second embodiment, and the imaging device 21 of the third embodiment can be used.
  • the storage unit 314 includes a rewritable nonvolatile semiconductor memory such as a flash memory, and stores various information necessary for image processing and determination processing in the image processing unit 311 as described later.
  • the communication unit 312 performs data transmission with the control device 32 via a transmission line.
  • the setting unit 313 includes a switch for setting various information stored in the storage unit 314 or an interface for taking in the information given from a setting device (not shown).
  • the human sensor 31 is installed at a position where the entire illumination space by the illumination load 33 can be imaged, such as a ceiling or a wall of the illumination space.
  • the image processing unit 311 includes a microcomputer or a DSP, and performs various image processing on the image data captured from the image capturing unit 310, and determines the presence of a person using the image processing result. Execute the process.
  • image data of the detection area captured in a situation where no person is present in the detection area is stored in the storage unit 314 as background image data.
  • the image processing unit 311 obtains a difference between the image data of the detection region captured from the imaging unit 310 and the background image data, and a pixel region corresponding to a human contour or a human region (hereinafter referred to as a human body pixel region) from the difference image. .)), And if a human body pixel region is extracted, it is determined that a person exists.
  • the image processing unit 311 obtains a representative position in the human body pixel region, and compares the distance by which the representative position is displaced within a predetermined time (a predetermined number of frames) with a threshold value, so that a human action (stay, rest, Move). That is, when the distance is less than the threshold value, the person is staying or standing still at the same place, and when the distance is equal to or greater than the threshold value, it is determined that the person is moving.
  • the representative position is the position of the center of gravity of the human body pixel region or the position of a specific part of the human body (for example, the head).
  • the human body pixel area cannot be extracted by the extraction method based on the difference between frames, but the human body pixel area can be extracted by the extraction method based on the background difference.
  • the image processing unit 311 determines the position (coordinates) and the number (number of people) of the extracted human body pixel areas. It should be noted that these determination results, that is, the presence / absence of a person in the detection area and the number of people present, the position, and the person's behavior (stay, rest or movement) are transmitted from the communication unit 312 via the transmission line as the information (person detection information). To the control device 32.
  • the image processing unit 311 includes an image acquisition unit 3, an arithmetic processing unit 4, an image memory 5, and an output unit 6 as in the first embodiment.
  • description of the image acquisition unit 3, the arithmetic processing unit 4, the image memory 5, and the output unit 6 is omitted.
  • the control device 32 controls the illumination load 33 according to the human detection information received from the human sensor 31. For example, the control device 32 gives a control command to the illumination load 33 in which the illumination range and the person's presence position overlap among the plurality of illumination loads 33 so that the illumination range and the person's existence position do not overlap. A control command is given to the load 33 to turn off the light at a dimming rate lower than that of the light-off or full lighting (100%). In addition, the control device 32 gives a control command while the person is moving to light the lighting load 33 at a relatively low dimming rate, and while the person is staying, All lighting is performed by giving a control command to the illumination load 33 at the existing position.
  • each pixel value of the image data captured from the imaging unit 310 corresponds to the brightness of the detection area
  • the image processing unit 311 determines the brightness (illuminance) in the detection area from the pixel value of the image data. be able to. Then, the brightness determination result (brightness level) obtained by the image processing unit 311 is transmitted from the communication unit 312 to the control device 32 via the transmission line together with the human detection information.
  • the control device 32 changes the dimming rate of the illumination load 33 by giving a control command so that the brightness level received from the human sensor 31 matches the desired value. Thereby, it is possible to always maintain an appropriate illumination space when a person is present. Note that the control device 32 may turn off the illumination load 33 if the brightness is too bright even if the dimming rate of the illumination load 33 is lowered to the lower limit due to the influence of external light (for example, daylight) incident from the window.
  • external light for example, daylight
  • the image processing unit 311 it is preferable to divide the image of the detection area into a plurality of areas and determine the presence / absence of a person, the number of people present, the position, the person's behavior, brightness, and the like for each area.
  • FIG. 38 shows an example of the layout of one floor of an office building, which is an illumination space.
  • the entire floor is a detection area 100, a passage 113 is provided in the center, and a plurality of ( Six divided areas 101 to 112 in the illustrated example are provided. These plural (12 in the illustrated example) divided regions 101 to 112 overlap with the illumination ranges of different illumination loads 33, respectively.
  • the setting unit 313 sets the position information of the plurality of divided areas 101 to 113, for example, the coordinates of the four vertices of each divided area 101 to 113, and the set position information is stored in the storage unit 314. Is remembered.
  • the image processing unit 311 determines the presence / absence of a person and the number of persons, position, person's behavior, brightness, and the like for each of the divided areas 101 to 113, and The human detection information and the brightness level for each of the areas 101 to 113 are transmitted from the communication unit 312 to the control device 32.
  • the image processing unit 311 and the setting unit 313 correspond to a determination unit. However, it is not necessary to detect the presence of a person in all the divided areas 101 to 113. For example, a divided area occupied by a document shelf is excluded from a target for detecting the presence of a person. It doesn't matter.
  • the control device 32 controls the illumination load 33 corresponding to each divided area 101 to 112 according to the human detection information and the brightness level for each divided area 101 to 113 transmitted from the human sensor 31. For example, when there is a person only in the divided area 101, the control device 32 gives a control command only to the illumination load 33 corresponding to the divided area 101 and turns on all the lights. Alternatively, when a person is present only in the divided area 113 corresponding to the passage, the control device 32 gives a control command to the illumination load 33 corresponding to the other divided areas 101 to 112 to adjust with a relatively low dimming rate. Turn on the light. However, the illumination load 33 may be installed in the passage (divided region 113), and the control device 32 may control the illumination load 33 according to the presence or absence of a person in the divided region 113.
  • the human sensor 31 includes the imaging unit (imaging unit 310), the determination unit (the image processing unit 311 and the setting unit 313), and the (communication unit 312).
  • the imaging means (imaging unit 310) is configured to capture an image of the detection area.
  • the determining means (image processing unit 311 and setting unit 313) is configured to determine the presence / absence of a person in the detection area and the number of people present, the position, and the behavior of the person from the image captured by the imaging means (imaging unit 310). Is done.
  • the transmission unit (communication unit 312) is configured to transmit the determination result of the determination unit (image processing unit 311 and setting unit 313) to the control device 32 that performs load control.
  • the determination means (the image processing unit 311 and the setting unit 313) divides the image of the detection area into a plurality of areas, determines the presence / absence of a person and the number of persons, positions, and actions of the person for each area, and A person's pixel area is extracted and a person's action is judged based on the distance by which the representative position in the person's pixel area is displaced within a predetermined time.
  • the determination means may be able to select the number and arrangement of areas for the image of the detection area and the necessity of human detection for the area.
  • the load control system of the present embodiment includes a human sensor 31 and a control device 32 that controls one or more loads according to the determination result transmitted from the human sensor 31.
  • the load may be the illumination load 33 installed in the illumination space.
  • the determination unit (the image processing unit 311 and the setting unit 313) may determine the brightness of the detection area from the pixel value of the image of the detection area.
  • the transmission means (communication unit 312) may transmit the brightness determination result to the control device 32 together with the determination result of the presence / absence of the person, the number of people present, the position, and the person's action.
  • the control device 32 may control the illumination load 33 so that the brightness received from the human sensor 31 matches the desired brightness.
  • the human sensor 31 and the load control system of the present embodiment since the presence / absence of a person is detected from the image of the detection area imaged by the imaging unit 310, a conventional example using a pyroelectric element. In contrast, the presence of a stationary person can also be detected. In addition, it is possible to detect the presence of a person for each of the plurality of areas 101 to 113 divided from the detection area 100. That is, the human sensor 31 and the load control system of the present embodiment have an effect that it is possible to detect a stationary person and to detect the presence of a person for each of a plurality of areas.
  • the human sensor 31 may have the same configuration as that of the object detection device 1 of the first embodiment. That is, the human sensor (object detection device) 31 of the present embodiment has the first feature described above. Further, the human sensor 31 of the present embodiment may selectively have the above-described second to thirteenth features in addition to the above-described first feature.
  • the imaging unit 310 in the present embodiment may have the same configuration as the imaging device 10 of the second embodiment. That is, the human sensor 31 of the present embodiment may selectively have the above-described fourteenth to twenty-second features.
  • the imaging unit 310 in the present embodiment may have a configuration similar to that of the imaging device 21 in the third embodiment. That is, the human sensor 31 of the present embodiment may selectively have the above-described twenty-third to thirty-second features.

Abstract

 本発明に係る物体検出装置は、所定の撮像エリアを撮像するカメラから前記撮像エリアの画像を所定の時間間隔で順次取得する画像取得部と、前記画像取得部によって連続的に取得された画像間の差分画像を求める差分画像作成部と、前記差分画像を横方向及び縦方向にそれぞれ複数に分割してできるブロックの各々について移動している検出対象が存在する移動領域であるか、停止している物体が存在する停止領域であるかを判定する判定部と、を備える。前記判定部は、複数の前記ブロックの各々について、前記ブロックを構成する複数の画素の画素値をもとに、前記ブロックが前記移動領域であるか前記停止領域であるかを判定するように構成される。

Description

物体検出装置
 本発明は、物体検出装置に関するものである。
 従来、時間的に連続した2枚の画像を取り込み、2枚の画像を微分した後、微分して得られた2枚の画像を比較して差分画像を求め、この差分画像から移動物体を検出する移動物体検出装置があった(例えば文献1[日本国公開特許公報第平6-201715号]参照)。
 上述した文献1の物体検出装置では、検知対象の人物が背景部分と似たような色の衣服を着用している場合、検知対象の人物と背景部分とで輝度の差が小さくなると考えられる。そのため、濃淡画像を微分して輪郭線を求めた場合に人物の輪郭線が連続した線になりにくく、複数に分断された形で検出される可能性がある。よって、複数に分断された領域を繋ぎ合わせる処理が必要になり、画像処理の負荷が増大したり、分断された複数の領域を誤りなく統合させる処理が難しいという問題があった。
 また、濃淡画像から人物などの検出対象を検出する方法として、濃淡画像と背景画像との差分画像を求めることによって、背景画像から変化した部分を抽出する背景差分法がある。背景差分法では2枚の濃淡画像で画素毎に差分を求めているため、例えば検出対象の人物が背景部分と似た色の衣服を着用している場合、比較対象の濃淡画像と背景画像とで差分値が小さくなる。その結果、人物の全身が1個の領域として検出されにくくなり、上記の例と同様、人体が複数に分断された形で検出される可能性があるから、複数に分断された領域を繋ぎ合わせる処理が必要になり、画像処理の負荷が増大したり、分断された複数の領域を誤りなく統合させる処理が難しいという問題があった。
 そこで、2枚の画像フレームをそれぞれ水平方向にm個、垂直方向にn個に分割して複数のブロックを生成し、同じ位置にあるブロックを比較することで、ブロック毎に動きの有無を検出する動き検出装置が提案されている(例えば文献2[日本国公開特許公報第2008-257626号]参照)。
 この動き検出装置では、順次入力される画像フレームのうち、所望の背景フレームと、背景フレームの後の動き検出対象フレームとを、それぞれ水平方向にm個、垂直方向にn個に分割して複数のブロックを生成し、各々のブロックで画素の輝度平均値を求める。そして、動き検出対象フレームの各ブロックと、対応する背景フレームのブロックとで、輝度平均値の差分を求め、この差分値が所定の閾値以上であれば、このブロックで動きがあったと判断している。
 上述の動き検出装置では、背景フレームと動き検出対象フレームとで、同じ位置にあるブロックの輝度平均値を比較し、輝度平均値が閾値以上変化していれば、そのブロックで動きがあったと判断している。
 ここで、4×4画素の領域を1つのブロックとした場合に、図39及び図40に示すように背景フレームのブロックC1と動き検出対象フレームのブロックC2とで画素値が異なる場合を考える。ブロックC1,C2のマス目は画素を表し、マス目内の数字は各画素の画素値を表している。図39及び図40の例では、背景フレームと動き検出対象フレームとで、各画素の画素値は変化しているにも関わらず、輝度平均値が同じになるため、2つのフレーム間で動きはないと判定される。
 また、図41及び図42に示すように背景フレームのブロックC3と動き検出対象フレームのブロックC4とで、ノイズなどの影響で1つの画素のみ画素値が異なっている場合を考える。この場合、1つの画素を除いて他の画素では輝度値が同じ値になっているにも関わらず、ブロックC3,C4間で輝度平均値が異なっていることから、2つのフレーム間で動きがあると判定されてしまう。
 本発明は上記課題に鑑みて為されたものであり、その目的とするところは、画像処理の処理量を増大させることなく、移動領域と停止領域の判別を確実に行える物体検出装置を提供することにある。
 本発明に係る第1の形態の物体検出装置は、画像取得部と、差分画像作成部と、判定部と、を備える。前記画像取得部は、所定の撮像エリアを撮像するカメラから、前記撮像エリアの画像を所定の時間間隔で順次取得するように構成される。前記差分画像作成部は、前記画像取得部によって連続的に取得された画像間の差分画像を求めるように構成される。前記判定部は、前記差分画像を横方向及び縦方向にそれぞれ複数に分割してできるブロックの各々について、移動している検出対象が存在する移動領域であるか、停止している物体が存在する停止領域であるかを判定するように構成される。前記判定部は、複数の前記ブロックの各々について、前記ブロックを構成する複数の画素の画素値をもとに、前記ブロックが前記移動領域であるか前記停止領域であるかを判定するように構成される。
 本発明に係る第2の形態の物体検出装置では、第1の形態において、前記判定部は、複数の前記ブロックの各々について、前記ブロックを構成する複数の画素の差分値と所定の閾値との高低を比較し、差分値が前記閾値を超えた画素数をもとに、前記ブロックが前記移動領域であるか前記停止領域であるかを判定するように構成される。
 本発明に係る第3の形態の物体検出装置では、第1または第2の形態において、前記物体検出装置は、前記移動領域と判定された領域から検出対象を検出する物体検出部を備える。前記物体検出部は、前記移動領域と判定された1乃至複数の前記ブロックのうち連続する前記ブロックをそれぞれ検知対象領域とするように構成される。前記物体検出部は、今回求めた検知対象領域が前回求めた検知対象領域に含まれる場合、又は、今回の検知対象領域と前回の検知対象領域とが重なり且つ前回の検知対象領域の面積に対する今回の検知対象領域の面積の比率が所定の閾値よりも小さい場合、又は、今回の検知対象領域と前回の検知対象領域とで重なり合う部分が全く存在しない場合の何れかであれば、前記検出対象が静止していると判断して、前回の検知対象領域を前記検出対象が存在している領域とするように構成される。
 本発明に係る第4の形態の物体検出装置では、第3の形態において、前記物体検出部は、前回求めた検知対象領域と今回求めた検知対象領域とが重なっていれば同一の検出対象が存在すると判断するように構成される。前記物体検出部は、前回求めた検知対象領域に存在する前記検出対象が静止していると判断されたか否かに応じて、また静止していないと判断された場合は前記検出対象の動きを表すパラメータに応じて、前回及び今回の検知対象領域から前記検出対象の現在位置を求めるための判定条件を変更するように構成される。
 本発明に係る第5の形態の物体検出装置では、第3または第4の形態において、前記物体検出部は、前回の第1検知対象領域と今回の検知対象領域が重なり、且つ、今回の検知対象領域が前回の第2検知対象領域に重なっていなければ、前記第1検知対象領域に存在していた検出対象が、今回の検知対象領域に移動したと判断するように構成される。
 本発明に係る第6の形態の物体検出装置では、第3~第5の形態のいずれか1つにおいて、前記物体検出部は、今回の検知対象領域が、前回の第1検知対象領域及び第2検知対象領域にそれぞれ重なり、前記第1検知対象領域に存在していた検出対象が静止していると判定された場合、前記第1検知対象領域に存在していた検出対象が、前記第1検知対象領域に留まっていると判断するように構成される。
 本発明に係る第7の形態の物体検出装置では、第3~第6の形態のいずれか1つにおいて、前記物体検出部は、今回の検知対象領域が、前回の第1検知対象領域及び第2検知対象領域にそれぞれ重なり、前記第1検知対象領域に存在する第1検出対象と、前記第2検知対象領域に存在する第2検出対象とが、両方共に移動していると判断された場合、前記第1検出対象の速度が前記第2検出対象の速度よりも速ければ、前記第1検出対象が今回の検知対象領域に移動したと判断するように構成される。前記物体検出部は、今回の検知対象領域が、前回の第1検知対象領域及び第2検知対象領域にそれぞれ重なり、前記第1検知対象領域に存在する第1検出対象と、前記第2検知対象領域に存在する第2検出対象とが、両方共に移動していると判断された場合、前記第1検出対象の速度が前記第2検出対象の速度と同等以下であれば、前記第1検出対象が第1検知対象領域に留まっていると判断するように構成される。
 本発明に係る第8の形態の物体検出装置では、第3~第7の形態のいずれか1つにおいて、前記物体検出部は、今回の検知対象領域が、前回の第1検知対象領域及び第2検知対象領域にそれぞれ重なり、前記第1検知対象領域に存在する第1検出対象が移動していると判断され、前記第2検知対象領域に存在する第2検出対象が静止していると判断された場合、前記第1検出対象が今回の検知対象領域に移動したと判断するように構成される。
 本発明に係る第9の形態の物体検出装置では、第3~第8の形態のいずれか1つにおいて、前記物体検出部は、ある時点で求められた第1検知対象領域に存在している検出対象が静止していると判断され、前記第1検知対象領域に、それ以後に求められた第2検知対象領域の少なくとも一部が重なった場合、前記第2検知対象領域が重なる直前における前記第1検知対象領域の画像をテンプレート画像として保持するように構成される。前記物体検出部は、前記第1検知対象領域と前記第2検知対象領域との重なりが無くなった時点で、この時点の前記第1検知対象領域の画像と前記テンプレート画像とのマッチング処理を行って両者の相関値を求めるように構成される。前記物体検出部は、前記相関値が所定の判定値よりも高ければ、前記検出対象が前記第1検知対象領域に留まっていると判断ように構成される。前記物体検出部は、前記相関値が前記判定値よりも低ければ、前記検出対象が前記第1検知対象領域の外側に移動したと判断するように構成される。
 本発明に係る第10の形態の物体検出装置では、第1~第9の形態のいずれか1つにおいて、前記物体検出装置は、前記カメラとして撮像装置を備える。前記撮像装置は、撮像素子と、光制御手段と、画像生成手段と、調整手段と、を備える。前記撮像素子は、それぞれに電荷が蓄積される複数の画素を有し前記各画素に蓄積される電荷量を画素値に変換して出力するように構成される。前記光制御手段は、前記撮像素子において光電変換に供される光の量を制御するように構成される。前記画像生成手段は、所定のフレームレートで前記撮像素子から前記画素値を読み出し且つ読み出した前記画素値から前記各フレームレート毎に1フレームの画像を生成するように構成される。前記調整手段は、前記1フレームの画像における前記画素値の一部又は全部を数値で定義される評価値で評価し、当該評価値が所定の適正範囲内に収まるように前記光制御手段又は前記画像生成手段の少なくとも何れか一方を制御して前記画素値を調整するように構成される。前記調整手段は、前記フレームレート毎に生成される前記画像の前記評価値が前記適正範囲から所定レベル以上外れた場合、前記画像生成手段を、前記フレームレートよりも高い調整用フレームレートで前記画像を生成する調整モードに移行させ、前記画像生成手段が前記調整用フレームレートで前記画像を生成した後、前記フレームレートで前記画像を生成する通常モードに復帰させるように構成される。
 本発明に係る第11の形態の物体検出装置では、第1~第9の形態のいずれか1つにおいて、前記物体検出装置は、前記カメラとして撮像装置を備える。前記撮像装置は、撮像部と、露光調整部と、増幅部と、制御部と、を備える。前記撮像部は、所定のフレームレートで撮像範囲の画像を撮像するように構成される。前記露光調整部は、前記撮像部の露光条件を調整するように構成される。前記増幅部は、前記撮像部から出力される画像データの輝度値を画素毎に増幅して外部に出力するように構成される。前記制御部は、前記画像データの複数画素の輝度値を統計処理して求めた輝度評価値が所定の目標値に一致するように、前記露光調整部の露光条件及び前記増幅部の増幅率のうち少なくとも何れか一方を調整するように構成される。前記制御部は、前記増幅部から出力される画像データを画像処理することができる輝度範囲に前記輝度評価値が収まっている場合は前記露光条件及び前記増幅率のうち少なくとも何れか一方を調整することによって生じる前記輝度評価値の変化率が所定の基準値以下となるように調整量を制限し、且つ、前記輝度評価値が前記輝度範囲外である場合は調整量の制限を行わないように構成される。
実施形態1の物体検出装置のブロック図である。 実施形態1の物体検出装置の動作を説明するフローチャートである。 実施形態1の物体検出装置の動作の説明図である。 実施形態1の物体検出装置の動作の説明図である。 実施形態1の物体検出装置の動作を説明する説明図である。 実施形態1の物体検出装置による追跡動作の説明図である。 実施形態1の物体検出装置による追跡動作の説明図である。 実施形態1の物体検出装置による追跡動作の説明図である。 実施形態1の物体検出装置による追跡動作の説明図である。 実施形態1の物体検出装置による追跡動作の説明図である。 実施形態1の物体検出装置による追跡動作の説明図である。 実施形態1の物体検出装置におけるカメラの設置例を示す説明図である。 実施形態1の物体検出装置において狭角レンズを使用した場合の画像例である。 実施形態1の物体検出装置において広角レンズを使用した場合の画像例である。 実施形態1の物体検出装置において壁に設置されたカメラで撮像した画像の説明図である。 ブロックの大きさを説明する説明図である。 ブロックの大きさを説明する説明図である。 実施形態2における撮像装置のブロック図である。 フレームレートの変更を説明するための説明図である。 実施形態2における撮像装置の動作説明図である。 実施形態2における撮像装置の動作説明図である。 実施形態2における撮像装置の動作説明図である。 実施形態2における撮像装置の動作説明図である。 実施形態2における撮像装置の動作説明図である。 実施形態2における撮像装置の動作説明図である。 実施形態2における撮像装置の動作説明図である。 実施形態3における照明制御システムのブロック図である。 実施形態3における照明制御システムのフローチャートである。 実施形態3における照明制御システムの調整動作を説明する図である。 実施形態3における照明制御システムの調整動作を説明する図である。 実施形態3における照明制御システムの調整動作を説明する図である。 実施形態3における照明制御システムの調整動作を説明する図である。 実施形態3における照明制御システムの調整動作を説明する図である。 実施形態3における照明制御システムの調整動作を説明する図である。 実施形態3における照明制御システムの調整動作を説明する図である。 実施形態4の人センサを示すブロック図である。 実施形態4における負荷制御システムを示すシステム構成図である。 実施形態4における検知領域の説明図である。 背景フレームのブロックの画素値を示した図である。 動き検出対象フレームのブロックの画素値を示した図である。 背景フレームのブロックの画素値を示した図である。 動き検出対象フレームのブロックの画素値を示した図である。
 (実施形態1)
 図1に物体検出装置1のブロック図を示す。物体検出装置1は、カメラ2と画像取得部3と演算処理部4と画像メモリ5と出力部6とを備え、検出対象(探索物体)である人体を検出すると出力部6から検出信号を出力する。尚、物体検出装置1の検出対象は人体に限定されるものではなく、車などの移動物体でもよい。なお、本実施形態において、物体検出装置1は、必ずしもカメラ2を備えている必要はない。画像取得部3と、演算処理部4と、画像メモリ5と、出力部6とは、カメラ2からの画像を処理する画像処理装置を構成する。
 カメラ2は、CCDカメラやCMOSイメージセンサからなり、所定の監視エリアを撮像する。
 画像取得部3は、カメラ2から所定のサンプリング間隔で画像データを取り込み、取り込んだ画像データを演算処理部4に出力する。つまり、画像取得部3は、所定の撮像エリアを撮像するカメラ2から、撮像エリアの画像を所定の時間間隔(サンプリング間隔)で順次取得するように構成される。
 演算処理部4はマイクロコンピュータからなり、組み込みのプログラムを実行することによって、差分画像作成部4a、判定部4b、物体検出部4cなどの機能が実現される。
 差分画像作成部4aは、画像取得部3によって連続的に取得された画像間の差分画像を作成(求める)するように構成される。
 判定部4bは、差分画像を横方向及び縦方向にそれぞれ複数に分割して生成されたブロックの各々について、移動している検出対象が存在する移動領域であるか、停止している物体が存在する停止領域であるかを判定するように構成される。
 物体検出部4cは、移動領域と判定された領域から検出対象を検出するように構成される。
 画像メモリ5は、演算処理部4によってデータの書き込み、読み出しが制御され、例えば画像取得部3がカメラ2から取り込んだ画像データや、画像処理の過程で作成した差分画像などの画像データを記憶するように構成される。
 出力部6は、演算処理部4から入力された検知信号を負荷機器(図示せず)に出力して、負荷機器を動作させたり、上位の監視装置(図示せず)に出力するように構成される。
 この物体検出装置1は、所定の監視エリアをカメラ2で撮像して得た濃淡画像から検出対象の物体を検出するのであるが、その検出動作を図2のフローチャートに基づいて説明する。
 画像取得部3は、所定の時間間隔でカメラ2から画像データをサンプリングし、カメラ2から取得した画像データを演算処理部4に出力する(ステップS1)。
 演算処理部4は、画像取得部3から入力された濃淡画像の画像データを画像メモリ5に逐次記憶させている。差分画像作成部4aは、画像取得部3が濃淡画像を取得すると、画像メモリ5から前回の濃淡画像を読み込み、前回の濃淡画像と、画像取得部3が今回取得した濃淡画像との差分画像を作成する(ステップS2)。
 尚、本実施形態では所定の時間間隔でフレーム間の差分画像を作成しているが、フレーム間差分の時間間隔が一定である必要は無く、差分画像作成部4aは、時系列で撮像された2つの濃淡画像のフレーム間差分を行うようにしてもよい。
 その後、判定部4bが、ステップS2で得られた差分画像を横方向及び縦方向にそれぞれ複数に分割して所定の大きさのブロックを生成し、ブロック毎に移動領域であるか停止領域であるかを判定する(ステップS3)。
 尚、移動領域とは、移動している検出対象(移動物体)(本実施形態では人)が存在する領域をいい、停止領域とは、停止している物体(静止物体)が存在する領域をいう。
 このように、ステップS1,S2,S3は、N枚の濃淡画像から(N-1)枚のフレーム間差分画像を作成し、(N-1)枚のフレーム間差分画像を用いて、各ブロックが移動領域であるか停止領域であるかを判定するステップである。
 そして、判定部4bの判定結果をもとに、物体検出部4cは検出対象の物体を検出する処理(ステップS4~ステップS14)を行う。尚、ステップS4は、移動物体が存在する検知対象領域を抽出するステップであり、移動領域と判定された1乃至複数のブロックのうち、連続するブロックをひとつの検知対象領域として抽出する。ステップS5は、静止物体の抽出と追跡を行うステップである。また、ステップS6~S14は、移動物体を追跡する処理を行うステップである。
 ここで、判定部4bが、ステップS2で作成された差分画像を縦横複数に分割して生成されたブロックの各々について、各ブロックが移動領域であるか停止領域であるかを判定するステップS3の処理について、図面を参照しながら説明する。
 画像取得部3は所定の時間間隔(フレームレート)でカメラ2から画像データを取り込んでいる。図3において、(a)はカメラから取り込んだ濃淡画像、(b)は濃淡画像から作成した差分画像、(c)は移動領域と停止領域を判定した判定結果を示す説明図である。図3(a)に示すように、時刻(t-2)において濃淡画像A1が取り込まれ、その後の時刻(t-1)で濃淡画像A2が取り込まれると、差分画像作成部4aが連続的に撮像された2つの濃淡画像A1,A2の差分画像B1を作成する。尚、2つの濃淡画像A1,A2には移動中の人物X1が映っている。
 判定部4bは、差分画像作成部4aによって差分画像B1が作成されると、この差分画像B1を横方向及び縦方向にそれぞれ複数に分割して所定の大きさ(m×n)画素のブロックC1,C2,C3,…を作成する(図3(b)参照)。尚、以下の説明で個々のブロックについて説明する場合はブロックC1,C2,C3,…と表記し、ブロックを特定せずに説明する場合はブロックCと表記することとする。
 例えば差分画像B1の大きさが横300画素、縦240画素であり、これを横方向に40個、縦方向に30個に分割すると、8×8画素のブロックCが合計1200個作成され、各々のブロックCについて判定部4bは移動領域か停止領域かを判定する。
 ここで、ブロックCは8×8=64(個)の画素で構成されているので、判定部4bは、各ブロックCの差分値を64次元空間の点として扱う。判定部4bは、予め用意された学習用のデータ(移動領域及び停止領域のデータ)をもとに、判別分析やSVM(サポートベクターマシン)などの従来周知の手法を用いて学習を行う。そして、判定部4bは、64次元空間を、移動している検出対象が存在する空間(移動空間)と停止している物体が存在する空間(停止空間)とに分ける境界面を予め求めておく。
 その後、判定部4bに各ブロックCのデータが実際に入力されると、判定部4bは、このデータが64次元空間で上記の境界面に対して移動領域側にあるか、停止領域側にあるかを判断することで、このブロックCが移動領域か停止領域かの判定を行う。
 図3(c)はブロック毎の移動領域か停止領域かの判定を行った結果を示しており、検出対象X1に対応する領域が移動領域D1と判定され、それ以外の領域が停止領域D2と判定されている。
 尚、判定部4bは、連続的に撮像されたN枚(Nは2以上の整数)の濃淡画像から作成された(N-1)枚の差分画像をもとに、同じ位置にある(m×n)画素のブロックCが移動領域か停止領域かを判定してもよい。
 この場合、判定部4bは、(N-1)枚の差分画像で同じ位置にあるブロックCの差分値を、[(N-1)×m×n]次元空間の点として扱う。例えば4枚の差分画像でブロックCの大きさが8×8画素であれば、4×8×8=256次元空間の点として扱うことになる。そして、上述と同様、判定部4bは、予め用意された学習用のデータをもとに、判別分析やSVMなどの手法を用いて学習を行い、[(N-1)×m×n]次元空間を移動空間と停止空間に分ける境界面を予め求めておく。
 その後、連続的に撮像されたN枚の濃淡画像をもとに(N-1)枚の差分画像が作成されると、判定部4bは、(N-1)枚の差分画像をそれぞれ複数のブロックCに分割する。そして、判定部4bは、(N-1)枚の差分画像で同じ位置にあるブロックCの差分値を[(N-1)×m×n]次元空間の点として扱い、この点が上記の境界面に対して移動空間側にあるか停止空間側にあるかを判定する。
 また上記の説明では、判別分析やSVMなどの手法を用いた判定方法について説明したが、判定部4bが主成分分析を用いて移動領域であるか停止領域であるかを判定してもよい。判定部4bは、(m×n)画素のブロックCの差分値を(m×n)次元空間の点として扱う。そして、判定部4bは、予め用意された学習用のデータ(移動領域及び停止領域と判定されたブロックCのデータ)をもとに、各ブロックCが移動領域であるか停止領域であるかを分離する主成分係数と、主成分得点Zの閾値とを予め求めておく。例えばブロックCの大きさが8×8画素の場合、各ブロックCの差分値は64次元空間の点として扱われる。そして、判定部4bに差分画像のデータが入力されると、判定部4bは、ブロック毎に主成分得点Zを、Z=a1×b1+a2×b2+a3×b3+…+a64×b64なる式を用いて算出する。ここで、主成分分析によって求められた主成分係数をa1,a2,a3…a64とし、ブロックCを構成する64画素の画素値をb1,b2,b3…b64とする。そして、判定部4bは、実際の差分画像から求めた主成分得点Zを、予め設定された閾値と比較することで、判定対象のブロックが移動領域であるか停止領域であるかを判定する。
 尚、主成分分析を用いた判定においても、連続的に撮像されたN枚の濃淡画像から作成された(N-1)枚の差分画像をもとに、同じ位置にある(m×n)画素のブロックCが移動領域であるか停止領域であるかを判定してもよい。次元数が異なるだけで、処理自体は上述の処理と同じであるから、詳細な説明は説明する。
 以上説明したように、本実施形態の物体検出装置1は、画像取得部3と、差分画像作成部4aと、判定部4bとを備えている。画像取得部3は所定の撮像エリアの画像を順次取得する。差分画像作成部4aは、画像取得部3によって連続的に取得された2枚の画像A1,A2の差分画像B1を求める。判定部4bは、差分画像B1を横方向及び縦方向にそれぞれ複数に分割してできる複数のブロックCの各々について、移動している検出対象が存在する移動領域であるか、停止している物体が存在する停止領域であるかを判定する。そして、判定部4bは、複数のブロックCの各々について、そのブロックCを構成する複数の画素の画素値をもとに、そのブロックCが移動領域であるか停止領域であるかを判定する。
 このように、判定部4bは、差分画像を複数に分割して生成されたブロックCの各々について、そのブロックCを構成する複数画素の画素値をもとに、そのブロックCが移動領域であるか停止領域であるかを判定している。
 フレーム間差分や背景差分で得られた差分画像から移動物体(例えば人物)を抽出する場合に、検出対象の人物が背景と似た色の服を着ていると、人体が複数に分断された形で検出されてしまい、複数に分断された領域を繋ぎ合わせる処理が必要になる。それに対して、本実施形態ではブロック毎に移動領域であるか停止領域であるかを判定しており、複数に分断された領域を繋ぎ合わせる処理が不要になるから、画像処理の負荷を減らすことができる。
 また、各ブロックを構成する複数画素の画素値の代表値(例えば平均値)から、各ブロックが移動領域か停止領域かを判定する場合は、ノイズなどの影響を受けて一部の画素値が変動し、それによって代表値が変化すると、判定結果を誤る可能性がある。それに対して本実施形態では、判定部4bが、複数の画素の画素値をもとにブロック単位で移動領域か停止領域かを判定している。よって、判定部4bは、ノイズなどの影響で一部の画素値が変動したとしても、ノイズなどの影響を受けていない大部分の画素値をもとに判定が行えるから、誤判定の可能性を低減できる。
 また、各ブロックを構成する複数画素の画素値の代表値が同じになったとしても、ブロックを構成する複数画素の画素値が異なる場合があり、このブロックが移動領域であるか停止領域であるかを代表値だけから判定した場合、判定を誤る可能性がある。それに対して、本実施形態では、判定部4bが、ブロックを構成する複数の画素の画素値をもとに、このブロックが移動領域であるか停止領域であるかを判定しているので、誤判定の可能性を低減できる。
 また本実施形態では、差分画像作成部4aが、画像取得部3が連続的に取得したN枚の画像から(N-1)枚の差分画像を作成する。判定部4bは、(N-1)枚の差分画像の各々を横方向及び縦方向にそれぞれ複数に分割して、横方向がm画素、縦方向がn画素のブロックを複数生成する。判定部4bは、(N-1)枚の差分画像で同じ位置にあるブロックについて、ブロックを構成する[(N-1)×m×n]個の画素の差分値を、[(N-1)×m×n]次元空間上の点として扱う。判定部4bは、予め収集された学習用の画像をもとに多変量解析を行って、[(N-1)×m×n]次元の空間を、移動する検出対象が存在する空間と停止している物体が存在する空間とに仕切る境界面を求めておく。そして、判定部4bは、各ブロックを構成する[(N-1)×m×n]個の画素値が示す点が上記の境界面に対して移動領域側にあるか停止領域側にあるかを判定することで、このブロックが移動領域であるか停止領域であるかを判定する。
 尚、上記の説明では判定部4bは、多変量解析を行って各ブロックが移動領域であるか停止領域であるかを判定しているが、判定部4bの判定方法を上記の方法に限定する趣旨のものではなく、以下のような方法で移動領域か停止領域かを判定してもよい。
 例えば判定部4bは、複数のブロックの各々について、各ブロックを構成する複数の画素のうち、差分値が所定の閾値を超える画素数が所定の判定基準以上であれば移動領域と判定し、差分値が閾値を超える画素数が判定基準未満であれば停止領域と判定する。
 移動している検知対象が存在する移動領域であれば、連続的に撮影された2枚の濃淡画像A1,A2で画素値の変化が大きくなり、ブロックを構成する画素の差分値が大きくなると考えられる。したがって、差分値が閾値を超える画素数と所定の判定基準との高低を比較することによって、移動領域か停止領域かを判定でき、簡単な処理で移動領域か停止領域かを判定することができる。
 また、連続的に撮像された3枚以上の濃淡画像から複数枚の差分画像を作成し、複数枚の差分画像をもとに各ブロックが移動領域であるか停止領域であるかを判定する場合には、以下のような方法で移動領域か停止領域かを判定してもよい。
 図4は、連続して撮像された5枚の濃淡画像A1~A5から4枚の差分画像B1~B4を作成し、この4枚の差分画像をもとに各ブロックが移動領域であるか停止領域であるかを判定する場合の説明図である。図4において、(a)はカメラから取り込んだ濃淡画像、(b)は濃淡画像から作成した差分画像の説明図である。尚、図4(a)の例では5枚の濃淡画像A1~A5に移動中の人物X1が写っている。
 画像取得部3は、カメラ2から時刻(t-2)に濃淡画像A1を、時刻(t-1)に濃淡画像A2を、時刻tに濃淡画像A3を、時刻(t+1)に濃淡画像A4を、時刻(t+2)に濃淡画像A5をそれぞれ取り込む。画像取得部3は、カメラ2から濃淡画像の画像データを取り込むと、取り込んだ画像データを演算処理部4に出力する。演算処理部4は、画像取得部3から画像データが入力されると、この画像データを画像メモリ5に記憶させる。
 差分画像作成部4aは、画像取得部3が濃淡画像を取り込む毎に、1つ前のタイミングで取り込んだ濃淡画像との差分画像を作成しており、連続的に撮像された5枚の濃淡画像A1~A5から、4枚の差分画像B1~B4を作成する。
 差分画像作成部4aによって差分画像が作成されると、判定部4bは、差分画像を、横方向及び縦方向にそれぞれ分割して、所定の大きさ(例えば8×8=64画素)のブロックを作成する。
 そして、判定部4bは、4枚の差分画像B1~B4で同じ位置にあるブロックを構成する256(=64×4)個の画素の差分値と閾値との高低をそれぞれ比較し、差分値が閾値を超える画素数の合計に基づいて、このブロックが移動領域か停止領域かを判定する。
 移動領域であれば連続する2枚の濃淡画像で画素値の変化が大きくなり、差分値が閾値を超える画素が多くなると考えられる。よって、判定部4bは、4枚の差分画像B1~B4で同じ位置にあるブロックを構成する256個の画素のうち、差分値が閾値を超える画素数が所定の判定値以上であれば移動領域と判定し、差分値が閾値を超える画素数が判定値未満であれば停止領域と判定する。
 このように、画像取得部3がカメラ2から連続的に撮像されたN枚の濃淡画像を取り込むと、差分画像作成部4aが、連続的に撮影されたN枚の濃淡画像から(N-1)枚の差分画像を作成する(Nは2以上の整数。)。判定部4bは、(N-1)枚の差分画像の各々について、差分画像を横方向及び縦方向にそれぞれ複数に分割して、横方向がm画素、縦方向がn画素のブロックを生成する(m,nは2以上の整数)。そして、判定部4bは、(N-1)枚の差分画像で同じ位置にあるブロックを構成する[(N-1)×m×n]個の画素の差分値と所定の閾値との高低をそれぞれ比較し、差分値が閾値を超える画素数をもとに、このブロックが移動領域か停止領域かを判定する。
 ところで、複数枚の差分画像で同じ位置にあるブロックが移動領域か停止領域かを判定する場合に、個々の差分画像で対象ブロックが移動領域か停止領域かを判定し、その判定結果を用いて、対象のブロックが移動領域か停止領域かを最終的に判断しても良い。
 例えば図4に示すように、画像取得部3がカメラ2から5枚の濃淡画像A1~A5を連続的に取り込み、差分画像作成部4aが4枚の差分画像B1~B4を作成した場合、判定部4bは、差分画像が作成される毎に差分画像を横方向及び縦方向にそれぞれ複数に分割して所定の大きさのブロックを作成する。
 判定部4bは、差分画像B1~B4の各々で、同じ位置にあるブロックを構成する画素の差分値と所定の閾値とをそれぞれ比較する。ここで、判定部4bは、差分値が閾値を超える画素数が所定の判定基準以上であれば、このブロックが移動領域であると判定し、差分値が閾値を超える画素数が判定基準未満であれば、このブロックが停止領域であると判定する。
 下記の表1は、差分画像B1~B4の各々について同じ位置にあるブロックが移動領域であるか停止領域であるかを判定した結果の一例を示している。
 例1では、半分の差分画像B1,B2では同じ位置のブロックが移動領域と判定され、残りの半分の差分画像B3,B4では同じ位置のブロックが停止領域と判定される。
 例2では、3つの差分画像B1~B3で同じ位置のブロックが移動領域と判断され、差分画像B4のみで同じ位置のブロックが停止領域と判断されている。
 例3では、差分画像B4のみで同じ位置のブロックが移動領域と判断され、残りの差分画像B1~B3では同じ位置のブロックが移動領域と判断されている。
 ここで、判定部4bが、差分画像B1~B4での判定結果に基づいて、同じ位置にあるブロックが移動領域であるか停止領域であるかを最終的に判定する方式には多数決判定方式と移動優先のOR判定方式とがあり、2つの方式での判定結果を表1に示す。
Figure JPOXMLDOC01-appb-T000001
 多数決判定方式で判定する場合、例1、例2では差分画像B1~B4の半数以上で移動領域と判定されているので、判定部4bは最終的に移動領域と判定するが、例3では移動領域との判定が半数に満たないので、判定部4bは停止領域と判定する。一方、移動優先のOR判定方式で判定する場合、例1~例3では差分画像B1~B4のうち少なくとも1つの差分画像で移動領域と判定されているから、判定部4bは何れの例でも最終的に移動領域と判定する。
 つまり、判定部4bは、ブロックが移動領域か停止領域かを判定する処理において、第1処理と、第2処理と、を実行する。第1処理では、判定部4bは、(N-1)枚の差分画像の各々について、ブロックを構成する(m×n)個の画素の差分値と所定の閾値との高低をそれぞれ比較し、差分値が閾値を超える画素数をもとに、ブロックが移動領域か停止領域かを判定する。第2処理では、判定部4bは、(N-1)枚の差分画像で同じ位置にあるブロックについて、第1処理での結果に基づいて、(N-1)枚の差分画像で対象のブロックが移動領域か停止領域かを判定する。
 このように、判定部4bは、複数枚の差分画像の各々について各ブロックが移動領域であるか停止領域であるかをそれぞれ判定する。そして判定部4bは、各差分画像での判定結果に基づいて、複数の差分画像で同じ位置にあるブロックが移動領域であるか停止領域であるかを判定しているので、移動領域か停止領域かの判定をより確実に行うことができる。
 ところで、判定部4bは、差分画像を複数に分割して得たブロックCの各々について移動領域であるか停止領域であるかの判定を行うが、ブロックCの大きさは、以下の条件に基づいて予め決定される。
 ブロックCの大きさを決定する条件としては、検出対象の大きさ、カメラ2から検出対象までの距離、検出対象の移動速度、画像取得部3がカメラ2の画像を取得する時間間隔(フレームレート)などがある。これらの条件のうちフレームレートは以下のようにして決定される。
 物体検出部4cは、連続的に撮影される2枚の濃淡画像において部分的に重なっている領域を移動中の検出対象と判断して追跡するので、連続的に撮影される2枚の濃淡画像で人が存在する領域に重なりが生じるように、フレームレートが決定される。
 尚、検出対象の標準的な大きさ(例えば成人の標準的な身長)と、カメラ2から検出対象までの距離と、カメラ2の画角やレンズの倍率とをもとに、設計段階で画像中に現れる検出対象の大きさはある程度特定されている。
 そして、設計者は、画像中に現れる検出対象の大きさと、検出対象の標準的な移動速度(例えば人が歩く速度)をもとに、連続的に撮影される2枚の濃淡画像で人が存在する領域に重なりが生じるように、フレームレートを決定し、物体検出装置1に設定する。
 尚、カメラ2から検出対象までの距離や、画像中に現れる検出対象の大きさは以下のようにして推定される。
 図12に示すように、天井9に設置されたカメラ2が下方の撮像エリアを撮像する場合、カメラ2のレンズが狭角レンズであれば、画像の中心付近と周辺部とでカメラ2から検出対象までの距離はあまり変わらない。
 図13は、狭角レンズを使用する場合にカメラ2で撮像された画像の一例である。ここで、カメラ2の設置高さや、検出対象である人(例えば成人)の標準的な身長や、着席時の検出対象の高さは既知であるので、設計者は、これらの情報をもとにカメラ2から検出対象までの距離をある程度の範囲で決定することができる。
 そして、カメラ2から検出対象までの距離が判れば、検出対象である人(例えば成人)の標準的な大きさと、カメラ2の画素数や画角やレンズ倍率などの既知のデータをもとに、設計者は、画像中に現れる検出対象の大きさを推定することができる。
 図12の例ではカメラ2が天井9に設置されているが、カメラ2を壁に取り付けてもよく、この場合はカメラ2によって検出対象が横方向から撮影される。
 図15は、壁に設置されたカメラ2で撮像された画像の一例である。この場合はカメラ2から検出対象X1,X2までの距離が特定できないため、設計者は、検出対象を検出する位置をある範囲に設定し、カメラ2からその位置までの距離を、検出対象までの距離として設定する。
 上述のようにして画像中に現れる検出対象の大きさが推定されると、設計者は、検出対象の移動方向におけるブロックCの幅寸法を、移動方向における検出対象の幅寸法の(1/z)倍以上且つ1倍以下の寸法に設定する。
 尚、図15のようにカメラ2が壁に設置され、画像内で検出対象の人物が左右方向に移動する場合、所定の距離だけ離れた位置にいる人物を撮影した際に画像内に現れる人物の像の横幅に相当する寸法が、移動方向における検出対象の幅寸法として設定される。
 また、図12のようにカメラ2が天井に設置され、画像内を自由な方向に人が移動する場合、画像内に現れる人物の像を囲む矩形領域の一辺の長さが、移動方向における検出対象の幅寸法として設定される。
 また、変数zは、移動領域か停止領域かを判定する際に使用される差分画像の枚数である。例えば判定に使用される差分画像の枚数が4枚の場合、移動方向におけるブロックCの幅寸法は、移動方向における検出対象の幅寸法の(1/4)倍以上且つ1倍以下に設定される。
 ここで、以下のような理由により、ブロックCの大きさは、移動方向における検出対象の幅寸法の(1/4)倍以上且つ1倍以下に設定されるのが好ましい。
 画像のサンプルレートに比べて検出対象の移動速度が速い場合(すなわち連続的に撮像された画像間で検出対象の重なりが少なくなる場合)、判定に用いるz枚の差分画像を作成するために、画像取得部3が取得した(z+1)枚の濃淡画像において、検出対象の像が存在するブロックの数が少なくなる。よって、背景のみのブロックの数が増加することになり、連続的に撮像された画像の差分値が小さくなって、検出漏れの発生する可能性がある。
 一方、画像のサンプルレートに比べて検出対象の移動速度が遅い場合(すなわち連続的に撮像された画像間で検出対象の重なりが多くなる場合)、連続的に撮像された画像間で検出対象がほぼ同じ位置に滞在することになる。よって、判定に用いるz枚の差分画像を作成するために、画像取得部3が取得した(z+1)枚の濃淡画像が似通った画像となり、差分値が小さくなるため、やはり検出漏れの発生する可能性がある。
 また、移動方向におけるブロックCの幅寸法が上記の設定範囲よりも大きくなると、ブロックC内で背景の占める割合が増加して、差分値が小さくなるため、検出漏れの発生する可能性がある。
 また、移動方向におけるブロックCの幅寸法が上記の設定範囲よりも小さくなると、個々のブロックCが狭い領域の画像となるため、判定に用いるz枚の差分画像を作成するために、画像取得部3が取得した(z+1)枚の濃淡画像において、各ブロックCが似通ったパターンとなる。そのため差分値が小さくなって、検出漏れの発生する可能性がある。
 以上のことから、移動中の検出対象が存在するブロックのうち移動領域と判定させたいブロックCでは、移動領域か停止領域かの判定に用いる画素数のほぼ全部が検出対象となるタイミングが、1~数(2あるいは3)フレーム程度となるように、ブロックCの大きさを設定するのが好ましい。
 実際には検出対象の速度は一定ではなく、上述のようにカメラから検出対象までの距離、レンズの画角及び画像中の検出対象の位置などによって、画像中の検出対象の大きさも変化するので、ブロックCの大きさを一意には決定できないが、検出対象の移動方向におけるブロックCの幅寸法を、移動方向における検出対象の幅寸法の(1/z)倍以上且つ1倍以下とすれば、検出対象が存在するブロックの何れかは移動領域と判定されることが実験の結果から判明した。
 このような大きさにブロックの大きさを設定することで、検出対象の移動速度が低速でも高速でも検出漏れを抑制して、検出対象を確実に検出できる。
 ここで、図16は濃淡画像の一例を示し、図17はブロック毎に移動領域か停止領域かを判定した結果を示している。図16、図17は壁にカメラ2が設置された場合の画像であり、検出対象X2は検出対象X1よりもカメラ2に近い位置に立っているため、画像内で検出対象X2の大きさが検出対象X1に比べて大きくなっている。ブロックCの大きさは検出対象X1に合わせて設定されているため、検出対象X1は全体が1つの移動領域D2として検出されている。それに対して、検出対象X2の大きさは検出対象X1よりも大きいため、検出対象X2に比べるとブロックの大きさが相対的に小さくなり、そのため検出対象X2に対応する移動領域D2は分断された形状で検出されている。
 尚、カメラ2のレンズが広角レンズの場合、図14に示すように画像の中心付近と周辺部とで、画像に現れる検出対象の大きさが異なるため、ブロックの大きさを画像の中心付近と周辺部とで異ならせることも好ましい。
 また、上記の説明では、差分画像を横方向及び縦方向にそれぞれ複数に分割してブロックを生成した後、各ブロックが移動領域か停止領域かを判定しているが、先ず濃淡画像A1,A2をそれぞれ横方向及び縦方向に複数に分割してブロックを生成してもよい。そして、同じ位置にあるブロック毎に、対応する画素の差分値を求め、差分値が閾値以上となる画素数から移動領域か停止領域かを判定してもよい。
 上述のように、判定部4bによって移動領域であるか停止領域であるかの判定が行われると、物体検出部4cは、移動領域と判定された1乃至複数のブロックのうち、連続するブロックを一つにまとめて検知対象領域としており、1乃至複数の検知対象領域が抽出される。そして、物体検出部4cは、各々の検知対象領域を、検知対象の移動物体が存在する領域として抽出する(図2のステップS4)。
 ところで、判定部4bによって停止領域と判定された領域は、検出対象が存在しない背景領域と、検出対象は存在するがその検出対象が静止している静止領域とに分けられる。したがって、検出対象を正確に検出するためには、停止領域から静止領域を抽出して、静止している検出対象(例えば人や車)を検出する必要がある。
 一般的に静止している人や車を停止領域から検出するのは困難であるから、本実施形態の物体検出装置1は、動いている検出対象が動かなくなる過程で移動領域が時間的に変化することに注目し、その変化から静止領域を検出する。
 すなわち、物体検出装置1は、過去のある時点では移動領域であった部分が、現時点で移動領域でなくなるという変化を検出することで、静止領域(静止物体)の抽出と追跡を行っており、以下にその具体的な方法を説明する。
 物体検出部4cは、判定部4bによって移動領域と判定された1乃至複数のブロックのうち、連続するブロックをそれぞれ1つの検知対象領域とする。
 画像取得部3がカメラ2から画像を取り込む毎に、判定部4bが移動領域と停止領域の判定処理を行うとともに、物体検出部4cが検出対象を検出する処理を行う。すなわち、ステップS5では、前回求めた検知対象領域と今回求めた検知対象領域の関係から、静止物体が存在する領域として、前回の検知対象領域をそのまま引き継いで今回の検知対象領域を削除するか、今回の検知対象領域を採用するかを選択する。
 ここで、以下に述べる条件1,条件2,条件3の何れかが成立すれば、物体検出部4cは、前回の検知対象領域に存在していた検出対象が静止したと判断する。そして、物体検出部4cは、今回求めた検知対象領域を削除し、前回求めた検知対象領域を検出対象が存在している静止領域と判定することで、静止物体を追跡する。
 ここにおいて、条件1とは、今回求めた検知対象領域が、前回求めた検知対象領域に含まれることである。条件2とは、今回求めた検知対象領域と前回求めた検知対象領域とが重なり、且つ、前回求めた検知対象領域の面積に対する今回求めた検知対象領域の面積の比率が所定の閾値よりも小さくなることである。条件3とは、今回求めた検知対象領域と前回求めた検知対象領域とで重なり合う部分が全く存在しないことである。
 つまり、物体検出部4cは、今回求めた検知対象領域が前回求めた検知対象領域に含まれる場合(条件1)、又は、今回の検知対象領域と前回の検知対象領域とが重なり且つ前回の検知対象領域の面積に対する今回の検知対象領域の面積の比率が所定の閾値よりも小さい場合(条件2)、又は、今回の検知対象領域と前回の検知対象領域とで重なり合う部分が全く存在しない場合(条件3)の何れかであれば、検出対象が静止していると判断して、前回の検知対象領域を探索物体(検出対象)が存在している領域とするように構成される。
 例えば図5(a)、(b)に示すように前回と今回とで検出対象領域が変化した場合を考える。図5(a)は前回検出された検知対象領域D1,E1を示し、図5(b)は今回検出された検知対象領域D2,E2を示している。
 この検知例では今回の検知対象領域D2,E2が前回の検知対象領域D1,E1とそれぞれ重なり、且つ、前回の検知対象領域D1,E1の面積に対する今回の検知対象領域D2,E2の面積の比率が所定の閾値よりも小さくなっている。
 これは、前回の検知対象領域D1,E1に存在する検出対象が止まりかけており、この検出対象の動いている部位が少なくなっているためと考えられるので、物体検出部4cは、前回の検知対象領域D1,E1を、検出対象が存在している静止領域と判定して、その領域を引き継ぐとともに、今回の検出で得られた検知対象領域D2,E2を削除する。
 次に、移動物体を追跡するステップS6~S14の処理について以下に説明する。
 物体検出部4cは、前回求めた検知対象領域と今回求めた検知対象領域とが重なっていれば同一の検出対象が存在すると判断する。
 そして、物体検出部4cは、前回求めた検知対象領域に存在する検出対象が静止していると判断したか否かに応じて、前回及び今回の検知対象領域から検出対象の現在位置を求めるための判定条件を変更する。また物体検出部4cは、前回求めた検知対象領域に存在する検出対象が静止していないと判断した場合、検出対象の動きを表すパラメータに応じて、前回及び今回の検知対象領域から検出対象の現在位置を求めるための判定条件を変更する。
 この判定条件を具体的にどのように変化させるかについて、以下に具体例を参考にして説明する。
 尚、検出対象の動きを表すパラメータとは例えば検出対象の速度である。物体検出部4cは、検出対象が存在する検知対象領域の重心位置を求め、この重心位置の時間的な変化から検出対象の速度を求めている。
 先ず、物体検出部4cは、今回求めた検知対象領域F2と重なる前回の検知対象領域が1つだけか、複数あるかを判定する(図2のステップS6)。
 図6に示すように、今回求めた検知対象領域F2が、前回求めた検知対象領域(第1検知対象領域)F1のみと重なり、前回求めた別の検知対象領域(第2検知対象領域)(図示せず)に重なっていなければ、物体検出部4cは、検知対象領域F1に存在していた検出対象が、検知対象領域F2に移動したと判断して追跡する(図2のステップS7)。
 この場合、物体検出部4cは、前回検出された検知対象領域F1が移動領域であるか、静止領域であるかに関係無く、今回検出された検知対象領域F2に検出対象が移動したと判定する。
 またステップS6において今回求めた検知対象領域F2に前回求めた検知対象領域(第1検知対象領域)F1a及び検知対象領域(第2検知対象領域)F1bがそれぞれ重なっていると判定された場合(図7~図10参照)、物体検出部4cは、第1検知対象領域F1aに存在している第1検出対象が静止しているか否かを判定する(ステップS8)。
 ここで、第1検知対象領域F1aにいた第1検出対象が静止していれば(ステップS8のYes)、物体検出部4cは、図7に示すように第1検知対象領域F1aに存在していた検出対象が第1検知対象領域F1aに留まっていると判断する(ステップS9)。
 また、物体検出部4cは、第1検知対象領域F1aに存在していた第1検出対象が移動していると判断した場合(ステップS8のNo)、第2検知対象領域F1bに存在している第2検出対象が静止しているか否かを判定する(ステップS10)。
 ここで、第2検出対象が移動していれば(ステップS10のNo)、物体検出部4cは、第1検出対象の速度V1と、第2検出対象の速度V2とを比較し(ステップS11)、その結果をもとに今回の検知対象領域F2に移動した検出対象を判定する。
 第1検出対象の速度V1が第2検出対象の速度V2よりも速ければ、物体検出部4cは、図8に示すように、前回検出時に第1検知対象領域F1aに存在していた第1検出対象が、今回の検知対象領域F2に移動したと判断する(ステップS12)。
 第1検出対象の速度(移動速度)V1が第2の検出対象の速度(移動速度)V2以下であれば、物体検出部4cは、図9に示すように前回検出時に第1検知対象領域F1aに存在していた第1検出対象が第1検知対象領域F1aに留まっていると判断する(ステップS13)。
 また物体検出部4cは、ステップS10で第2検知対象領域F1bに存在する第2検出対象が静止していると判断すると、図10に示すように第1検知対象領域F1aに存在していた第1検出対象が今回の検知対象領域F2に移動したと判断する(ステップS14)。
 以上の判定処理を纏めると、前回の検知対象領域(第1検知対象領域)F1と今回の検知対象領域F2が重なり、且つ、今回の検知対象領域F2が前回の他の検知対象領域(第2検知対象領域)に重なっていなければ、物体検出部4cは、検知対象領域F1に存在していた検出対象が、今回の検知対象領域F1に移動したと判断する。
 また、今回の検知対象領域F2が前回の第1検知対象領域F1a及び第2検知対象領域F1bにそれぞれ重なり、且つ、第1検知対象領域F1aに存在していた検出対象が静止していると判定された場合、物体検出部4cは、第1検知対象領域F1aに存在していた検出対象が、第1検知対象領域F1aに留まっていると判断する。
 また、今回の検知対象領域F2が前回の検知対象領域(第1検知対象領域)F1a及び検知対象領域(第2検知対象領域)F1bにそれぞれ重なり、第1検知対象領域F1aに存在する第1検出対象と、第2検知対象領域F1bに存在する第2検出対象とが、両方共に移動していると判断された場合、物体検出部4cは以下の判定処理を行う。
 第1検出対象の速度V1が第2検出対象の速度V2よりも速ければ、物体検出部4cは、第1検出対象が今回の検知対象領域F2に移動したと判断する。第1検出対象の速度V1が第2検出対象の速度V2と同等以下であれば、物体検出部4cは第1検出対象は第1検知対象領域F1aに留まっていると判断する。
 また、今回の検知対象領域F2が前回の検知対象領域(第1検知対象領域)F1a及び検知対象領域(第2検知対象領域)F1bにそれぞれ重なり、第1検知対象領域F1aに存在する第1検出対象が移動していると判断され、第2検知対象領域F2に存在する第2検出対象が静止していると判断された場合、物体検出部4cは、第1検出対象が今回の検知対象領域F2に移動したと判断する。
 このように、物体検出部4cは、前回求めた検知対象領域に存在する検出対象が静止しているか否か、また静止していない場合は検出対象の動きを表すパラメータ(例えば速度)に応じて、前回及び今回の検知対象領域から検出対象の現在位置を求めるための判定条件を変更するので、検出対象の位置をより詳細に判定することができる。
 また、図11に示すように、ある時点で抽出された検知対象領域(第1検知対象領域)G1に存在している検出対象g1が静止しており、この第1検知対象領域G1に、それ以後に抽出された検知対象領域(第2検知対象領域)H1の少なくとも一部が時刻Tにおいて重なった場合、物体検出部4cは以下のような処理を行う。
 尚、図11において第2検知対象領域H1の領域中に記した文字は、第2検知対象領域H1がその位置にあるときの時刻を示している。図11には時刻(T-2)、(T-1)、T、(T+1)、(T+2)における第2検知対象領域H1の位置が図示されており、第2検知対象領域H1は時間の経過に応じて図11の左上から右下へと移動している。
 時刻Tにおいて、移動してきた第2検知対象領域H1の一部が第1検知対象領域G1に重なるのであるが、物体検出部4cは、第2検知対象領域H1が重なる直前の時刻(T-1)における第1検知対象領域G1の画像をテンプレート画像として保持する。
 つまり、物体検出部4cは、ある時点で求められた第1検知対象領域G1に存在している検出対象g1が静止していると判断され、第1検知対象領域G1に、それ以後に求められた第2検知対象領域H1の少なくとも一部が重なった場合、第2検知対象領域H1が重なる直前における第1検知対象領域G1の画像をテンプレート画像として保持する。
 その後、物体検出部4cは、第1検知対象領域G1と第2検知対象領域H1との重なりが無くなった時点(時刻(T+2))で、この時点の第1検知対象領域G1の画像とテンプレート画像とのマッチング処理を行い、両者の相関値を求める。
 この相関値が所定の判定値よりも高ければ、物体検出部4cは検出対象g1が第1検知対象領域G1内に留まっていると判断し、相関値が判定値よりも低ければ、物体検出部4cは検出対象g1が第1検知対象領域G1の外側に移動したと判断する。
 これにより、物体検出装置1は検出対象の位置をより正確に検出することができる。
 以上のようにして静止物体(例えば人体の静止している部位)と移動物体(例えば人体の移動している部位)が検出されると、静止物体と移動物体の両方を合わせることで、検出対象(例えば人体)をより正確に検出することができる。
 以上述べたように、本実施形態の物体検出装置1は、以下の第1の特徴を有する。第1の特徴では、物体検出装置1は、画像取得部3と、差分画像作成部4aと、判定部4bとを備えている。画像取得部3は所定の撮像エリアの画像を順次取得するように構成される。差分画像作成部4aは、画像取得部3によって連続的に取得された画像の差分画像(例えば2枚の画像A1,A2の差分画像B1)を求めるように構成される。判定部4bは、差分画像B1を横方向及び縦方向にそれぞれ複数に分割してできる複数のブロックCの各々について、移動している検出対象が存在する移動領域であるか、停止している物体が存在する停止領域であるかを判定するように構成される。判定部4bは、複数のブロックCの各々について、そのブロックCを構成する複数の画素の画素値をもとに、そのブロックCが移動領域であるか停止領域であるかを判定するように構成される。
 また、本実施形態の物体検出装置1は、第1の特徴に加えて、以下の第2~第5の特徴のいずれか1つを有する。なお、第2~第5の特徴は任意の特徴である。
 第2の特徴では、差分画像作成部4aは、画像取得部3が連続的に取得したN枚の画像から(N-1)枚の差分画像を作成するように構成される。判定部4bは、(N-1)枚の差分画像の各々を横方向及び縦方向にそれぞれ複数に分割して、横方向がm画素、縦方向がn画素のブロックを複数生成するように構成される。判定部4bは、(N-1)枚の差分画像で同じ位置にあるブロックについて、ブロックを構成する[(N-1)×m×n]個の画素の差分値を、[(N-1)×m×n]次元空間上の点として扱うように構成される。判定部4bは、予め収集された学習用の画像をもとに多変量解析を行い、[(N-1)×m×n]次元空間を、移動する検出対象が存在する空間と停止している物体が存在する空間とに仕切る境界面を求めておくように構成される。判定部4bは、[(N-1)×m×n]次元空間において、ブロックを構成する[(N-1)×m×n]個の画素の差分値が示す点が、境界面に対して何れの側にあるかを判定することで、ブロックが移動領域であるか停止領域であるかを判定するように構成される。
 第3の特徴では、判定部4bは、複数の前記ブロックの各々について、ブロックを構成する複数の画素の差分値と所定の閾値との高低を比較し、差分値が閾値を超えた画素数をもとに、ブロックが移動領域であるか停止領域であるかを判定するように構成される。
 第4の特徴では、差分画像作成部4aは、画像取得部3が連続的に取得したN枚の濃淡画像から(N-1)枚の差分画像を作成するように構成される(Nは2以上の整数)。判定部4bは、(N-1)枚の差分画像の各々を横方向及び縦方向にそれぞれ複数に分割して、横方向がm画素、縦方向がn画素のブロックを複数生成するように構成される(m,nは2以上の整数)。判定部4bは、(N-1)枚の差分画像で同じ位置にあるブロックを構成する[(N-1)×m×n]個の画素の差分値と所定の閾値との高低をそれぞれ比較し、差分値が閾値を超える画素数の合計に基づいて、ブロックが移動領域か停止領域かを判定するように構成される。
 第5の特徴では、差分画像作成部4aは、画像取得部3が連続的に取得したN枚の画像から(N-1)枚の差分画像を作成するように構成される。判定部4bは、(N-1)枚の差分画像の各々を横方向及び縦方向にそれぞれ複数に分割して、横方向がm画素、縦方向がn画素のブロックを複数生成するように構成される。判定部4bは、(N-1)枚の差分画像の各々について、ブロックを構成する(m×n)個の画素の差分値と所定の閾値との高低をそれぞれ比較し、差分値が閾値を超える画素数をもとに、ブロックが移動領域であるか停止領域であるかを判定するように構成される。判定部4bは、(N-1)枚の差分画像で同じ位置にあるブロックについて、各々の差分画像で対象のブロックが移動領域か停止領域かを判定した結果に基づいて、(N-1)枚の差分画像で対象のブロックが移動領域か停止領域かを最終的に判定するように構成される。
 また、本実施形態の物体検出装置1は、以下の第6の特徴を有する。第6の特徴では、物体検出装置1は、移動領域と判定された領域から検出対象を検出する物体検出部4cを備える。物体検出部4cは、移動領域と判定された1乃至複数のブロックのうち連続するブロックをそれぞれ検知対象領域とするように構成される。物体検出部4cは、今回求めた検知対象領域が前回求めた検知対象領域に含まれる場合、又は、今回の検知対象領域と前回の検知対象領域とが重なり且つ前回の検知対象領域の面積に対する今回の検知対象領域の面積の比率が所定の閾値よりも小さい場合、又は、今回の検知対象領域と前回の検知対象領域とで重なり合う部分が全く存在しない場合の何れかであれば、検出対象が静止していると判断して、前回の検知対象領域を検出対象が存在している領域とするように構成される。なお、第6の特徴は任意の特徴である。
 また、本実施形態の物体検出装置1は、第6の特徴に加えて、以下の第7の特徴を有する。第7の特徴では、物体検出部4cは、前回求めた検知対象領域と今回求めた検知対象領域とが重なっていれば同一の検出対象が存在すると判断するように構成される。物体検出部4cは、前回求めた検知対象領域に存在する検出対象が静止していると判断されたか否かに応じて、また静止していないと判断された場合は検出対象の動きを表すパラメータに応じて、前回及び今回の検知対象領域から検出対象の現在位置を求めるための判定条件を変更するように構成される。なお、第7の特徴は任意の特徴である。
 また、本実施形態の物体検出装置1は、第7の特徴に加えて、以下の第8の特徴を有する。第8の特徴では、パラメータは検出対象が移動する速度である。物体検出部4cは、検出対象が移動する速度を、検知対象領域の重心位置の時間的な変化をもとに算出するように構成される。なお、第8の特徴は任意の特徴である。
 また、本実施形態の物体検出装置1は、第6の特徴に加えて、下記の第9~第13の特徴を備える。なお、第9~第13の特徴は任意の特徴である。
 第9の特徴では、物体検出部4cは、前回の第1検知対象領域F1と今回の検知対象領域F2が重なり、且つ、今回の検知対象領域F2が前回の第2検知対象領域に重なっていなければ、第1検知対象領域F1に存在していた検出対象が、今回の検知対象領域F2に移動したと判断するように構成される。
 第10の特徴では、物体検出部4cは、今回の検知対象領域F2が、前回の第1検知対象領域F1a及び第2検知対象領域F1bにそれぞれ重なり、第1検知対象領域F1aに存在していた検出対象が静止していると判定された場合、第1検知対象領域F1aに存在していた検出対象が、第1検知対象領域F1aに留まっていると判断するように構成される。
 第11の特徴では、物体検出部4cは、今回の検知対象領域F2が、前回の第1検知対象領域F1a及び第2検知対象領域F1bにそれぞれ重なり、第1検知対象領域F1aに存在する第1検出対象と、第2検知対象領域F1bに存在する第2検出対象とが、両方共に移動していると判断された場合、第1検出対象の速度が第2検出対象の速度よりも速ければ、第1検出対象が今回の検知対象領域F2に移動したと判断するように構成される。物体検出部4cは、今回の検知対象領域F2が、前回の第1検知対象領域F1a及び第2検知対象領域F1bにそれぞれ重なり、第1検知対象領域F1aに存在する第1検出対象と、第2検知対象領域F1bに存在する第2検出対象とが、両方共に移動していると判断された場合、第1検出対象の速度が第2検出対象の速度と同等以下であれば、第1検出対象が第1検知対象領域F1aに留まっていると判断するように構成される。
 第12の特徴では、物体検出部4cは、今回の検知対象領域F2が、前回の第1検知対象領域F1a及び第2検知対象領域F1bにそれぞれ重なり、第1検知対象領域F1aに存在する第1検出対象が移動していると判断され、第2検知対象領域F1bに存在する第2検出対象が静止していると判断された場合、第1検出対象が今回の検知対象領域F2に移動したと判断するように構成される。
 第13の特徴では、物体検出部4cは、ある時点で求められた第1検知対象領域G1に存在している検出対象g1が静止していると判断され、第1検知対象領域G1に、それ以後に求められた第2検知対象領域H1の少なくとも一部が重なった場合、第2検知対象領域H1が重なる直前における第1検知対象領域G1の画像をテンプレート画像として保持するように構成される。物体検出部4cは、第1検知対象領域G1と第2検知対象領域H1との重なりが無くなった時点で、この時点の第1検知対象領域G1の画像とテンプレート画像とのマッチング処理を行って両者の相関値を求めるように構成される。物体検出部4cは、相関値が所定の判定値よりも高ければ、検出対象が第1検知対象領域G1に留まっていると判断ように構成される。物体検出部4cは、相関値が判定値よりも低ければ、検出対象が第1検知対象領域G1の外側に移動したと判断するように構成される。
 以上述べた本実施形態の物体検出装置1によれば、判定部4bは、差分画像を複数に分割して生成されたブロックの各々について、そのブロックを構成する複数の画素の画素値をもとに、そのブロックが移動領域であるか停止領域であるかを判定している。
 フレーム間差分や背景差分で得られた差分画像から移動物体(例えば人物)を抽出する場合に、検出対象の人物が背景と似た色の服を着ていると、人体が複数に分断された形で検出されてしまい、複数に分断された領域を繋ぎ合わせる処理が必要になる。それに対して、本実施形態ではブロック毎に移動領域であるか停止領域であるかを判定しており、複数に分断された領域を繋ぎ合わせる処理が不要になるから、画像処理の負荷を減らすことができる。
 また、各ブロックを構成する複数画素の画素値の代表値(例えば平均値)から、各ブロックが移動領域であるか停止領域であるかを判定する場合は、ノイズなどの影響を受けて一部の画素値が変動し、それによって代表値が変化すると、判定を誤る可能性がある。それに対して本実施形態では、判定部4bが、複数の画素の画素値をもとにブロック単位で移動領域か停止領域かを判定している。よって、判定部4bは、ノイズなどの影響で一部の画素値が変動したとしても、ノイズなどの影響を受けていない大部分の画素値をもとに判定が行えるから、誤判定の可能性を低減できる。
 また、各ブロックを構成する複数画素の画素値の代表値が同じになったとしても、ブロックを構成する複数画素の画素値が異なる場合があり、このブロックが移動領域であるか停止領域であるかを代表値だけから判定した場合、判定を誤る可能性がある。それに対して、本実施形態では、判定部4bが、ブロックを構成する複数の画素の画素値をもとに、このブロックが移動領域であるか停止領域であるかを判定しているので、誤判定の可能性を低減できる。
 (実施形態2)
 本実施形態の物体検出装置1は、カメラ2として、図18に示す撮像装置10を備える。また、本実施形態の物体検出装置1は、実施形態1と同様に、画像取得部3と、演算処理部4と、画像メモリ5と、出力部6と、を備える。つまり、本実施形態は、主に撮像装置10に関する。なお、画像取得部3と、演算処理部4と、画像メモリ5と、出力部6とについては、説明を省略する。
 従来から、映像の記録や種々の画像処理のために画像(動画像又は静止画像)を撮像する撮像装置においては、通常、画像の露光量(明るさ)が適正な範囲内に収まるように露光量の調整が行われている(例えば、文献3[日本国公開特許公報第2009-182461号]参照)。
 ところで、被写体の明るさが大きく且つ急激に変化した場合、撮像装置における露光量調整が追随できずに画像の一部又は全部が真っ白あるいは真っ黒になってしまうことがある。特に、タイムラプス記録や画像処理といった使用目的に合わせたフレームレートで撮像する撮像装置では、急変した露光量の調整に要するフレーム数が多くなってしまうため、使用目的に適さない状況となる虞がある。
 一方、フレームレートの高い撮像装置では、露光量の調整に要するフレーム数が同じであったとしても、不適切な露光状態の画像が撮像される時間は大幅に短縮される。しかしながら、フレームレートが高くなるほど撮像素子の電荷蓄積時間が短くなるので、低照度下における露光量が不足しやすくなる。また、撮像素子の蓄積電荷を読み出す周期が短くなるため、電荷読み出し用の回路の動作周波数が高くなって消費電力や発熱量の増大を招くという問題がある。
 本実施形態は、上記課題に鑑みて為されたものであり、消費電力や発熱量の増大を抑えつつ露光量調整の応答性向上を図ることを目的とする。
 以下、図面を参照して本実施形態に係る撮像装置10を詳細に説明する。本実施形態の撮像装置10は、図18に示すように撮像素子11、光制御手段に相当する光学ブロック12、画像生成部13、調整部14などを備える。
 撮像素子11は、それぞれに電荷が蓄積される複数の画素を有し、各画素に蓄積される電荷量を画素値に変換して出力するものであって、例えば、CCDイメージセンサやCMOSイメージセンサなどの固体撮像素子で構成される。なお、この撮像素子11は、電荷蓄積時間を可変とすることによる、いわゆる電子シャッターの機能を搭載している。
 光学ブロック12は、レンズ120や絞り121、減光フィルタ122などの光学部材が筐体123内に収納されて構成されており、レンズ120で集光された光が絞り121の開口を通過し、さらに減光フィルタ122で減光(減衰)されて撮像素子11に入射する。絞り121は、例えば、複数枚の絞り羽根で構成され、各絞り羽根の重なり具合を変化させて開口径を増減することにより、通過する光の量を制御する。減光フィルタ122は、透過型の液晶パネルからなり、液晶パネルの透過率を変化させることで通過する光の量(撮像素子11において光電変換に供される光の量)を制御する。
 画像生成部13は、所定のフレームレートで撮像素子11から画素値を読み出し、且つ読み出した画素値に増幅などの信号処理を行って各フレームレート(=1/T11)毎に1フレームの画像P1,P2,…を生成する(図19参照)。ただし、撮像素子11は、画像生成部13からの指示に基づいて各画素に蓄積されている電荷量を画素値に変換して出力する。
 調整部14は、1フレームの画像Pn(n=1,2,…)における画素値の一部又は全部を数値で評価し、当該評価値が所定の適正範囲内に収まるように光学ブロック12の絞り121又は減光フィルタ122、撮像素子11の電荷蓄積時間、画像生成部13における増幅度などを制御して画素値を調整する。なお、評価値は、数値で定義される。評価値は、例えば、撮像素子11の全ての画素の画素値を平均した平均値でもよいし、あるいは、撮像素子11の全ての画素の画素値のうちで最も高い(大きい)画素値でもよい。また、評価値の適正範囲は、評価値の種類(平均値や最大の画素値)に応じた範囲に設定される。
 調整部14の動作をさらに詳しく説明する。なお、図20~図22における横軸は時間、縦軸は評価値を示し、ハッチングされた範囲が評価値の適正範囲を示している。
 例えば、図21に示すように画像P4の評価値が一つ前のフレームの画像P3の評価値の2倍に増大して適正範囲の上限を超えた場合、調整部14は、絞り121又は減光フィルタ122の少なくとも何れか一方、若しくは撮像素子11の電荷蓄積時間を制御して撮像素子11に入射する光量を半分に減らす。その結果、次のフレームの画像P5の評価値を適正範囲内に収めることができる。
 しかしながら、図22に示すように画像P4の評価値が画素値の上限値に達して飽和してしまった場合、調整部14は、例えば、絞り121及び減光フィルタ122を撮像素子11に入射する光量を減らすとともに撮像素子11の電荷蓄積時間を短縮して画素値を減少させる。その結果、次のフレームの画像P5の評価値が適正範囲の下限を下回ってしまう可能性がある。
 そして、画像P5の評価値が適正範囲の下限を下回った場合、調整部14は、絞り121及び減光フィルタ122を撮像素子11に入射する光量を増やすとともに撮像素子11の電荷蓄積時間を伸長して画素値を増大させる。その結果、次のフレームの画像P6の評価値が適正範囲の上限を僅かに上回ってしまう可能性がある。
 画像P6の評価値が適正範囲の上限を僅かに上回った場合、調整部14は、絞り121又は減光フィルタ122の少なくとも何れか一方を制御して撮像素子11に入射する光量を減らす。その結果、次のフレームの画像P7の評価値を適正範囲内に収めることができる。なお、絞り121や減光フィルタ122、あるいは撮像素子11の電荷蓄積時間とともに、若しくはそれらに代えて、画像生成部13における画素値の増幅度を調整することで画素値を増減させても構わない。
 このように評価値が大幅且つ急峻に変化した場合、評価値を適正範囲内に収束させるために数フレーム分の調整期間(例えば、図22の例ではT11×3の時間)が必要となる。そして、この調整期間において画像生成部13で生成される画像P5,P6は、画面が明るすぎたり、反対に画面が暗すぎるといった不適切な画像になる虞がある。
 そこで、画像P4の評価値が適正範囲から所定レベル以上外れた場合、調整部14は、画像生成部13を制御して、フレームレート(通常フレームレート)(=1/T11)よりも高い調整用フレームレート(=1/T12,T12≪T11)で画像P41,P42,…を生成する調整モードに移行させるようにする(図19参照)。
 なお、所定レベルは、例えば、適正範囲の上限値の4倍及び適正範囲の下限値の4分の1に設定される。ただし、所定レベルの値はこれに限定されるものではなく、例えば、画素値が8ビット(256段階)のディジタル値で表される場合、画素値が128以上又は8以下を所定レベルとしてもよい。
 而して、上述のように画像P4の評価値が画素値の上限値に達して飽和し、調整部14が評価値を適正範囲内に収束させるまでに3フレーム分の調整期間を要したしても、調整期間はT12×3(≪T11×3)となって大幅に短縮される(図20参照)。
 そして、調整モードにおいて生成される画像P43の評価値が適正範囲内に収まれば、調整部14は、画像生成部13を調整モードから通常モード(フレームレートが1/T11のモード)に復帰させる。したがって、従来技術で説明したように通常モードにおけるフレームレートを高くする場合と比較して、電力消費が増える調整モードの期間(調整期間)が極めて短時間で済むため、消費電力や発熱量の増大を抑えつつ露光量調整の応答性向上を図ることができる。
 このように、調整部14は、画像生成部13を、フレームレートが通常フレームレート(=1/T11)に設定される通常モードと、フレームレートが通常フレームレートよりも高い調整用フレームレート(=1/T12)に設定される調整モードとのいずれかで動作させる。そして、調整部14は、フレームレート毎に生成される画像の評価値が適正範囲から所定レベル以上外れた場合、画像生成部13を、フレームレート(通常フレームレート)よりも高い調整用フレームレートで画像を生成する調整モードに移行させ、画像生成部13が調整用フレームレートで画像を生成した後、フレームレート(通常フレームレート)で画像を生成する通常モードに復帰させる。調整部14は、調整モードにおいて生成される画像の評価値が適正範囲内に収まれば、画像生成部13を調整モードから通常モードに復帰させる。
 ところで、画像生成部13におけるフレームレートが一時的に高くなった場合、撮像装置で撮像された画像を表示する表示装置や撮像された画像を画像処理する画像処理装置などの受け取り側の機器との間で不整合が生じる可能性がある。したがって、受け取り側の機器がフレームの欠落(コマ落ち)を許容可能であれば、画像生成部13が、調整モードにおいて生成する画像を外部に出力しないことが好ましい。
 一方、受け取り側の機器がフレームの欠落を許容できない場合、調整モードにおいても、通常モード時と同じフレームレートで画像生成部13が画像を出力する必要がある。そのために調整部14は、調整モードにおいて生成される画像が所定のフレーム数(通常モードのフレーム周期T11と同じ時間内に生成可能なフレーム数)に達すれば、画像生成部13を調整モードから通常モードに復帰させることが望ましい。
 例えば、通常モードのフレームレートが30fps(フレーム毎秒)、調整モードの調整用フレームレートが120fpsと仮定すると、調整モードにおいて3フレームの画像を生成した後に通常モードに復帰させれば、30fpsのフレームレートで画像を出力できる。
 あるいは、調整モードで生成される画像のフレーム数をカウントする代わりに、調整モードに移行した時点からの経過時間が所定時間(通常モードのフレーム周期T11と同じ時間)に達したときに、調整部14が画像生成部13を調整モードから通常モードに復帰させても構わない。つまり、調整部14は、調整モードに移行した時点からの経過時間が所定時間に達すれば、画像生成部13を調整モードから通常モードに復帰させてもよい。
 ここで、調整モードにおいては、画像生成部13が撮像素子11から画素値を読み出す時間が通常モードのときよりも短くなる。故に、調整モードにおいて画像生成部13が外部に画像を出力しない場合、調整部14は、調整モードにおいて、画像生成部13を制御して撮像素子11の一部の画素の画素値のみを読み出させることが好ましい。
 例えば、調整部14は、図23に示すように撮像素子11の複数の画素のうちで周辺部分を除いた中央の矩形の範囲内の画素の画素値のみを画像生成部13に読み出させればよい。あるいは、図24に示すように縦横に並ぶ画素の画素値を間引いて画像生成部13に読み出させればよい。このように調整モードにおいて、調整部14が画像生成部13を制御して撮像素子11の一部の画素の画素値のみを読み出させるようにすれば、画像生成部13の動作周波数を上げずに通常モードのフレームレートから調整用フレームレートに容易に上げることができる。
 ところで、通常モードから調整モードに移行する際は、撮像素子11の電荷蓄積時間の最大値が小さく(短く)なるので、移行直前に通常モードで設定された電荷蓄積時間が、移行後の調整モードでは実現できない場合がある。
 例えば、移行後の調整モードにおいては、通常モードで設定された電荷蓄積時間を調整モードの電荷蓄積時間の最大値で除した値(商)まで減少する(図25参照)。
 したがって、通常モードと調整モードで低照度時の評価値を同程度に維持するためには、電荷蓄積時間以外のパラメータを調整し、電荷蓄積時間の減少に伴う画素値の減少分を補償する必要がある。このとき、絞り121及び減光フィルタ122を調整する場合の応答性に比べて、画像生成部13の増幅度を調整する場合の応答性が優っているので、画像生成部13の増幅度を調整して画素値を補償することが好ましい。
 而して、調整部14は、通常モードにおいて調整した電荷蓄積時間が、調整モードにおける電荷蓄積時間の上限値を超えている場合、調整モードにおける電荷蓄積時間を上限値に設定し、光学ブロック12又は画像生成部13を制御して電荷蓄積時間以外のパラメータを変更して画素値を調整することが好ましい。例えば、通常モードで設定された電荷蓄積時間を調整モードの電荷蓄積時間の最大値で除した値の逆数の比率となるように、調整モードへの移行時に増幅度を増大すればよい。
 また、調整モードにおいて電荷蓄積時間の最大値低下分を画像生成部13の増幅度で補償するに当たり、増幅度の上限を、通常モードにおける増幅度の上限よりも高い値に設定することが望ましい。例えば、通常モードにおける電荷蓄積時間の最大値が調整モードにおける電荷蓄積時間の最大値の4倍と仮定すると、調整モードにおける増幅度の上限を通常モードにおける増幅度の4倍に設定すればよい(図26参照)。このようにすれば、通常モードと調整モードで低照度時の評価値を同程度に維持することができる。
 なお、調整モードから通常モードに復帰する際には、調整モードの電荷蓄積時間の上限並びに増幅度の上限において設定された電荷蓄積時間及び増幅度が通常モードでは不適切となる場合がある。故に、通常モードに復帰する際、調整部14は、通常モードの電荷蓄積時間の上限及び増幅度の上限において適切な電荷蓄積時間と増幅度を決定し、決定した電荷蓄積時間と増幅度に合わせて他のパラメータ(絞り120及び減光シャッタ121)を調整することが望ましい。例えば、調整部14は、通常モードに復帰したら光学ブロック12を制御して電荷蓄積時間を再調整するように構成される。調整部14は、再調整した電荷蓄積時間と、調整モードにおける最後の電荷蓄積時間とが異なる場合、光学ブロック12又は画像生成部13を制御して電荷蓄積時間以外のパラメータを変更して画素値を調整する。
 以上述べたように、本実施形態における撮像装置10は、撮像素子11と、光制御手段(光学ブロック12)と、画像生成手段(画像生成部13)と、調整手段(調整部14)と、を備える。撮像素子11は、それぞれに電荷が蓄積される複数の画素を有し各画素に蓄積される電荷量を画素値に変換して出力するように構成される。光制御手段(光学ブロック12)は、撮像素子11において光電変換に供される光の量を制御するように構成される。画像生成手段(画像生成部13)は、所定のフレームレートで撮像素子11から画素値を読み出し且つ読み出した画素値から各フレームレート毎に1フレームの画像を生成するように構成される。調整手段(調整部14)は、1フレームの画像における画素値の一部又は全部を数値で定義される評価値で評価し、当該評価値が所定の適正範囲内に収まるように光制御手段(光学ブロック12)又は画像生成手段(画像生成部13)の少なくとも何れか一方を制御して画素値を調整するように構成される。調整手段(調整部14)は、フレームレート毎に生成される画像の評価値が適正範囲から所定レベル以上外れた場合、画像生成手段(画像生成部13)を、フレームレート(通常フレームレート)よりも高い調整用フレームレートで画像を生成する調整モードに移行させ、画像生成手段(画像生成部13)が調整用フレームレートで画像を生成した後、フレームレート(通常フレームレート)で画像を生成する通常モードに復帰させるように構成される。
 すなわち、本実施形態の物体検出装置1は、上述の第1の特徴に加えて、以下の第14の特徴を有する。なお、本実施形態の物体検出装置1は、上述の第2~第13の特徴を選択的に有していてもよい。
 第14の特徴では、物体検出装置1は、カメラ2(図1参照)として撮像装置10を備える。撮像装置10は、撮像素子11と、光制御手段(光学ブロック12)と、画像生成手段(画像生成部13)と、調整手段(調整部14)と、を備える。撮像素子11は、それぞれに電荷が蓄積される複数の画素を有し各画素に蓄積される電荷量を画素値に変換して出力するように構成される。光制御手段(光学ブロック12)は、撮像素子11において光電変換に供される光の量を制御するように構成される。画像生成手段(画像生成部13)は、所定のフレームレートで撮像素子11から画素値を読み出し且つ読み出した画素値から各フレームレート毎に1フレームの画像を生成するように構成される。調整手段(調整部14)は、1フレームの画像における画素値の一部又は全部を数値で定義される評価値で評価し、当該評価値が所定の適正範囲内に収まるように光制御手段(光学ブロック12)又は画像生成手段(画像生成部13)の少なくとも何れか一方を制御して画素値を調整するように構成される。調整手段(調整部14)は、フレームレート毎に生成される画像の評価値が適正範囲から所定レベル以上外れた場合、画像生成手段(画像生成部13)を、フレームレート(通常フレームレート)よりも高い調整用フレームレートで画像を生成する調整モードに移行させ、画像生成手段(画像生成部13)が調整用フレームレートで画像を生成した後、フレームレート(通常フレームレート)で画像を生成する通常モードに復帰させるように構成される。
 また、本実施形態の物体検出装置1は、第14の特徴に加えて、以下の第15~第17の特徴のいずれか1つを有してもよい。
 第15の特徴では、調整手段(調整部14)は、調整モードにおいて生成される画像の評価値が適正範囲内に収まれば、画像生成手段(画像生成部13)を調整モードから通常モードに復帰させるように構成される。
 第16の特徴では、調整手段(調整部14)は、調整モードにおいて生成される画像が所定のフレーム数に達すれば、画像生成手段(画像生成部13)を調整モードから通常モードに復帰させるように構成される。
 第17の特徴では、調整手段(調整部14)は、調整モードに移行した時点からの経過時間が所定時間に達すれば、画像生成手段(画像生成部13)を調整モードから通常モードに復帰させるように構成される。
 また、本実施形態の物体検出装置1は、さらに、以下の第18~第22の特徴を選択的に有してもよい。
 第18の特徴では、調整手段(調整部14)は、通常モードにおいて光制御手段(光学ブロック12)を制御して調整した電荷蓄積時間が、調整モードにおける電荷蓄積時間の上限値を超えている場合、調整モードにおける電荷蓄積時間を上限値に設定し、光制御手段(光学ブロック12)又は画像生成手段(画像生成部13)を制御して電荷蓄積時間以外のパラメータを変更して画素値を調整するように構成される。
 第19の特徴では、調整手段(調整部14)は、通常モードに復帰したら光制御手段(光学ブロック12)を制御して電荷蓄積時間を再調整するように構成される。調整手段(調整部14)は、再調整した電荷蓄積時間と、調整モードにおける最後の電荷蓄積時間とが異なる場合、光制御手段(光学ブロック12)又は画像生成手段(画像生成部13)を制御して電荷蓄積時間以外のパラメータを変更して画素値を調整するように構成される。
 第20の特徴では、調整手段(調整部14)は、調整モードにおいて、画像生成手段(画像生成部13)を制御して画素値を増幅する際の増幅度を増減する場合、増幅度の上限を通常モードにおける増幅度の上限よりも高くするように構成される。
 第21の特徴では、画像生成手段(画像生成部13)は、調整モードにおいて生成する画像を外部に出力しないように構成される。
 第22の特徴では、調整手段(調整部14)は、調整モードにおいて、画像生成手段(画像生成部13)を制御して撮像素子11の一部の画素の画素値のみを読み出させるように構成される。
 以上述べたように、本実施形態の撮像装置10及び物体検出装置1では、通常モードにおけるフレームレートを高くする場合と比較して、電力消費が増える調整モードの期間(調整期間)が極めて短時間で済むため、消費電力や発熱量の増大を抑えつつ露光量調整の応答性向上を図ることができるという効果がある。
 (実施形態3)
 本実施形態の物体検出装置1は、カメラ2として、図27に示す撮像装置21を備える。また、本実施形態の物体検出装置1は、実施形態1の画像処理装置と同様の物体検知装置22を備える。すなわち、本実施形態は、主に撮像装置21に関するものである。
 従来、制御領域の画像を撮像する画像センサと、画像センサで撮像された画像情報から制御領域に存在する人の位置を特定する演算部と、演算部の演算結果に基づいて光源の点灯を制御する制御部とを備えた照明システムが提案されている(例えば文献4[日本国公開特許公報第2011-108417号]参照)。演算部は、画像センサで撮像された画像のフレーム間差分を求めることによって、フレーム間で輝度値が変化した画素を求めており、処理すべき対象、すなわち人のいる位置を求めている。
 一般に使用される画像センサは、その画像を人が見るために使用されるので、何らかの原因で被写体の輝度が変化すると、被写体の輝度を所定の輝度範囲に一致させるように露光量を自動的に調整する露光調整が速やかに行われる。
 上述の照明システムでは、画像センサで撮像された画像のフレーム間差分を求めることで人の位置を特定しているため、露光調整によってフレーム間で露光量が変化すると、フレーム間で各画素の輝度値が変化し、人の検出が正しく行えない可能性があった。
 本実施形態は上記課題に鑑みて為されたものであり、その目的とするところは、撮像領域の明るさが変化した場合に画像の輝度値を調整する処理が画像処理に与える影響を低減することにある。
 撮像装置21は、予め設定された撮像領域の画像を撮像するものである。この撮像装置21は、図27に示すように、撮像部211と、増幅部212と、露光調整部213と、制御部214とを備える。
 撮像部211は、例えばCCDイメージセンサやCMOSイメージセンサのような固体撮像素子、撮像領域からの光を固体撮像素子に集光させるレンズ、固体撮像素子のアナログの出力信号をディジタルの画像信号(画像データ)に変換するA/D変換器などを備える。撮像部211は、後述する照明器具24の照明範囲を所定のフレームレート(Frame Rate)で撮像し、この照明範囲の画像データを増幅部212に随時出力する。なお、撮像部211から出力される画像データは、各画素の明るさを白黒の濃淡(例えば256階調)で表現した白黒濃淡画像の画像データからなる。
 増幅部212は、撮像部211から出力される画像データの輝度値を画素毎に増幅して外部(本実施形態では物体検知装置22)に出力する。
 露光調整部213は、撮像部211の露光時間を変化させることによって露光条件を調整する。なお、撮像部211がF値(絞り)を調整可能な絞り機構を備えている場合、露光調整部213は、絞り機構を制御してF値を変化させることで露光条件を制御してもよく、露光時間とF値の両方を変化させることで露光条件を制御してもよい。
 制御部214は、撮像部211の複数画素の輝度値を平均し、その平均値を輝度評価値として求め、この輝度評価値が所定の目標値に一致するように、露光調整部213の露光条件(本実施形態では露光時間)及び増幅部212の増幅率を調整する。
 制御部214は、輝度評価値を所定の目標値に一致させるために、露光条件と増幅率の両方を変化させているが、露光条件のみを変化させることで輝度評価値を調整してもよいし、増幅率のみを変化させることで輝度評価値を調整してもよい。
 また制御部214は、評価対象領域に含まれる複数画素の輝度値の平均値を輝度評価値として求めているが、評価対象領域を複数に分割して各々で平均値を求め、それらを統計処理して輝度評価値を求めてもよい。また制御部214は、平均処理以外の統計処理を施すことによって、複数画素の輝度値を代表する輝度評価値を求めてもよい。
 また、制御部214は、撮像部211が画像を撮像する周期(フレームレート)を切り替える機能も備えている。本実施形態では制御部214がフレームレートを5fps(frame per second)又は13.3fpsの何れかに切り替え可能であり、通常はフレームレートを5fpsに設定している。
 この撮像装置21は、図27に示すような負荷制御システム(照明制御システム)に用いられる。この負荷制御システムは、上述の撮像装置21と、物体検知装置22と、照明制御装置23と、照明器具24を備える。
 この負荷制御システムでは、撮像装置21が、照明器具24による照明空間の上方(例えば天井)に設置されて、下方の照明空間を見下ろした画像を撮像する。
 物体検知装置22は、撮像装置21で撮像された画像をもとに検知領域(すなわち照明器具24の照明空間)における検知対象(例えば人)の存否を検知し、その検知結果を照明制御装置23に出力する。照明制御装置23は、人が存在するとの検知結果が物体検知装置22から入力された場合は照明器具24を点灯させ、人が存在しないとの検知結果が物体検知装置22から入力された場合は照明器具24を消灯させる。
 物体検知装置22は、入力部221と、画像処理部222と、画像メモリ223と、出力部224とを備える。
 入力部221は、所定のフレームレートで撮像装置21から入力された画像データを画像処理部222に出力する。入力部221は、実施形態1における画像取得部3に対応する。
 画像メモリ223は、DRAM(Dynamic Random Access Memory)のような大容量の揮発性メモリからなり、画像処理部222によってデータの書き込み、読み出しが制御される。画像メモリ223は、例えば、撮像装置21から入力された1乃至数フレーム分の画像データや、画像処理の過程で作成される差分画像などのデータを記憶する。画像メモリ223は、実施形態1における画像メモリ5に対応する。
 画像処理部222は、例えば画像処理に特化したマイクロコンピュータからなり、組み込みのプログラムを実行することによって、画像データに人が写っているか否かを判定する機能が実現される。
 画像処理部222は、所定のフレームレートで入力部221から画像信号が入力されると、画像メモリ223から1フレーム前の画像データを読み込み、フレーム間差分を行うことによって、フレーム間で輝度値が所定の閾値以上変化した画素領域を抽出する。画像処理部222は、例えば、抽出した画素領域の面積を、画像に写る人の大きさをもとに設定された規定の範囲と比較することによって、撮像領域に人がいるか否かを判断し、判断結果を出力部224に出力する。また、画像処理部222は、入力部221から入力された画像データを画像メモリ223に記憶させており、画像メモリ223には1乃至数フレーム分の画像データが記憶されている。
 画像処理部222は、実施形態1における演算処理部4に対応する。画像処理部222は、演算処理部4と同様の処理を行うことで、撮像領域に人がいるか否かを判断する。
 出力部224は、信号線を介して接続された照明制御装置23との間で通信を行う機能を有しており、画像処理部222から人の存否を判断した結果が入力されると、この判断結果を照明制御装置23に送信する。出力部224は、実施形態1における出力部6に対応する。
 照明制御装置23は、物体検知装置22の出力部224から入力された判断結果に基づいて、複数台の照明器具24の点灯、消灯を制御する。
 照明制御装置23は、人が存在するという判断結果が物体検知装置22から入力されない場合、制御対象である照明器具24を消灯させている。照明制御装置23は、人が存在するという判断結果が物体検知装置22から入力されると、制御対象の照明器具24を点灯させる。その後、人が存在するという判断結果が物体検知装置22から入力されなくなると、照明制御装置23は、所定の点灯保持時間が経過した時点で照明器具24を消灯させる。これにより、照明空間に人がいる間は照明器具24が点灯するから、必要な明るさを確保でき、照明空間から人がいなくなると、所定の点灯保持時間が経過した時点で照明器具24が消灯するから、無駄な電力消費を削減できる。
 ところで、何らかの原因で撮像領域の明るさが変化した場合、人が見るための画像であれば、画面の輝度を人の目に適した輝度範囲に速やかに調整する必要がある。それに対して、本実施形態では、撮像装置21の画像は、人が見るための画像ではなく、動体検知のための画像処理に使用されるので、画面の輝度を速やかに調整する必要は無い。むしろ、露光条件を変更するなどして画面輝度を速やかに変化させた場合、その影響で動体検知が正しく行えない可能性があった。
 そこで、本実施形態では、動体検知のための画像処理が行えないほど画面輝度が暗くなったり、明るくなったりした場合は、制御部214が、露光調整部213の露光条件及び増幅部212の増幅率を変化させて輝度評価値を所定の目標値に即座に一致させる。一方、画面輝度が変化した場合でも、画像処理を支障なく行えるような画面輝度であれば、制御部214は、輝度評価値を所定の目標値に近付けるように、露光条件及び増幅率を緩やかに変化させており、動体検知のための画像処理に悪影響を与えないようにしている。
 ここで、制御部214が、画面の明るさ(輝度評価値)に応じて画面の輝度値を調整する動作について、図28のフローチャートを参照して説明する。
 撮像部211は、所定のフレームレート(通常時は5fps)で撮像領域を撮像し、撮像領域を撮像する毎に画像データを増幅部212に出力する。撮像部211が各フレームで撮像した画像データを増幅部212に出力すると、増幅部212は、画像データの各画素の輝度値を所定の増幅率で増幅して、物体検知装置22に出力する。
 制御部214は、増幅部212から出力される画像データをフレーム毎に取り込むと(図28のステップS21)、複数画素の輝度値の平均値を求め、この平均値を輝度評価値L1とする。
 制御部214は、輝度評価値L1を求めると、この輝度評価値L1と所定の目標値T1との差分を求め、この差分が小さくなるように、増幅部212の増幅率及び露光調整部213の露光条件を調整する。本実施形態では各画素の輝度値が256階調(0~255)であり、輝度評価値L1の目標値T1を通常は64としている。
 ところで、本実施形態の撮像装置21は、人が見るための画像を撮像するのではなく、後段の物体検知装置22が動体検知の画像処理を行う画像を撮像するために用いられる。したがって、人の目には明るすぎたり、暗すぎたりする画像であっても、問題なく画像処理が行える輝度範囲であれば、制御部214は、露光条件及び増幅率を調整することによって輝度評価値L1が大きく変化しないように、露光条件及び増幅率の調整量を制限する。以下では、画像処理が問題なく行える輝度範囲の下限値をLM1(例えば32)、上限値をLM4(例えば128)として、制御部214の動作を説明する。
 制御部214は、ステップS21で輝度評価値L1を求めると、上述した輝度範囲の上限値LM4と輝度評価値L1との高低を比較する(ステップS22)。
 輝度評価値L1が上限値LM4を超えていれば(ステップS22のYes)、制御部214は、輝度評価値L1と所定の閾値(第2閾値)LM5(例えば160)との高低をさらに比較する(ステップS23)。
 輝度評価値L1が閾値LM5以下、すなわちLM4<L1≦LM5であれば(ステップS23のNo)、制御部214は、輝度評価値L1が目標値T1となるように露光時間及び増幅率を変更する(ステップS26)。
 一方、輝度評価値L1が閾値LM5を超えていれば(ステップS23のYes)、制御部214は、フレームレートを13.3fpsに高速化し(ステップS24)、輝度評価値L1の目標値T1を通常時よりも低い値T2(例えば56)に切り替える(ステップS25)。
 制御部214は、フレームレートを高くし、目標値を通常時よりも低い値T2に切り替えた後、輝度評価値L1が目標値T2となるように露光時間及び増幅率を変更しており(ステップS26)、輝度評価値L1が目標値T2に短時間(次のフレーム)で調整される。
 なお、輝度評価値L1が上限値LM4を超えている場合、制御部214は、輝度評価値L1の変化率を後述の基準値以下に制限するために露光時間及び増幅率の調整量を制限する処理を行っておらず、輝度評価値L1が目標値に即座に一致するように露光時間及び増幅率を調整する。したがって、制御部214は、輝度評価値L1を目標値に短時間で一致させることができ、所望の画像処理が行えるようになるまでの時間を短縮できる。
 またステップS22において輝度評価値L1が上限値LM4未満の場合(ステップS22のNo)、制御部214は、上述した輝度範囲の下限値LM1と輝度評価値L1との高低を比較する(ステップS27)。
 輝度評価値L1が下限値LM1を下回っていれば(ステップS27のYes)、制御部214は、輝度評価値L1と所定の閾値(第1閾値)LM0(例えば28)との高低をさらに比較する(ステップS28)。
 輝度評価値L1が閾値LM0以上、すなわちLM0≦L1<LM1であれば(ステップS28のNo)、制御部214は、輝度評価値L1が目標値T1となるように露光時間及び増幅率を変更する(ステップS26)。
 一方、輝度評価値L1が閾値LM0未満であれば(ステップS28のYes)、制御部214は、フレームレートを13.3fpsに高速化し(ステップS29)、輝度評価値L1の目標値T1を通常時よりも高い値T3(例えば104)に切り替える(ステップS30)。
 制御部214は、フレームレートを高くし、目標値を通常時よりも高い値T3に切り替えた後、輝度評価値L1が目標値T3となるように露光時間及び増幅率を変更しており(ステップS26)、輝度評価値L1が目標値T3に短時間(次のフレーム)で調整される。
 なお、輝度評価値L1が下限値LM1を下回っている場合、制御部214は、輝度評価値L1の変化率を後述の基準値以下に制限するために露光時間及び増幅率の調整量を制限する処理を行っておらず、輝度評価値L1が目標値に即座に一致するように露光時間及び増幅率を調整する。したがって、制御部214は、輝度評価値L1を目標値に短時間で一致させることができ、所望の画像処理が行えるようになるまでの時間を短縮できる。
 またステップS27において輝度評価値L1が下限値LM1以上であれば(ステップS27のNo)、制御部214は、輝度評価値L1と所定の閾値LM3(例えば66)との高低を比較する(ステップS31)。
 輝度評価値L1が閾値LM3よりも大きい、すなわちLM3<L1≦LM4であれば(ステップS31のYes)、制御部214は、輝度値が128分の1だけ小さくなるように露光時間及び増幅率を変更して、輝度評価値L1を微調整する(ステップS32)。
 またステップS31において輝度評価値L1が閾値LM3以下であれば(ステップS31のNo)、制御部214は、輝度評価値L1と閾値LM2(例えば62)との高低を比較する(ステップS33)。
 輝度評価値L1が閾値LM2未満、すなわちLM1≦L1<LM2であれば(ステップS33のYes)、制御部214は、輝度値が128分の1だけ大きくなるように露光時間及び増幅率を変更して、輝度評価値L1を微調整する(ステップS34)。
 また、ステップS33において輝度評価値L1が閾値LM2以上、すなわち、LM2≦L1≦LM3の場合、制御部214は、輝度評価値L1が目標値T1にほぼ一致していると判断し、露光時間及び増幅率を変化させることなく処理を終了する。
 なお、制御部214は、輝度評価値L1が閾値LM5を上回るとフレームレートを高速化しているが、輝度評価値L1が上限値LM4を上回るとフレームレートを高速化してもよい。
 また、制御部214は、輝度評価値L1が閾値LM5を上回ると目標値を通常時よりも小さい値T2に切り替えているが、輝度評価値L1が上限値LM4を上回ると目標値を通常時よりも小さい値T2に切り替えてもよい。
 また、制御部214は、輝度評価値L1が閾値LM0を下回るとフレームレートを高速化しているが、輝度評価値L1が下限値LM1を下回るとフレームレートを高速化してもよい。
 また、制御部214は、輝度評価値L1が閾値LM0を下回ると目標値を通常時よりも高い値T3に切り替えているが、輝度評価値L1が下限値LM1を下回ると目標値を通常時よりも高い値T3に切り替えてもよい。
 制御部214による画面輝度の調整処理は以上の通りであり、制御部214が、輝度評価値L1をもとに画面輝度を調整する様子を図29~図35を参照してより詳細に説明する。
 図29は、画像処理を問題無く行える輝度範囲に輝度評価値L1が収まっている場合、すなわち輝度評価値L1が下限値LM1以上且つ上限値LM4以下である場合の調整動作を示している。
 輝度評価値L1が下限値LM1以上且つ閾値LM2未満の場合、制御部214は、露光時間及び増幅率を変更し、フレーム毎に輝度値を128分の1ずつ大きくすることによって輝度評価値L1を目標値T1に徐々に近付ける。また輝度評価値L1が閾値LM3より大きく且つ上限値LM4以下の場合、制御部214は、露光時間及び増幅率を変更し、フレーム毎に輝度値を128分の1ずつ小さくすることによって輝度評価値L1を目標値T1に徐々に近付ける。
 図29の例では、時刻t1から時刻t2までの期間、照明器具24がフェード消灯することによって、画面輝度が徐々に暗くなる。この間、制御部214は、フレーム毎に輝度値が128分の1ずつ大きくなるように、露光時間及び増幅率を調整しているが、フェード消灯によって画面輝度が暗くなるペースの方が速いため、露光時間及び増幅率の調整が追いつかず、画面輝度は徐々に暗くなる。
 時刻t2において照明器具24が完全に消灯すると、その後は、制御部214が、フレーム毎に輝度値が128分の1ずつ大きくなるように、露光時間及び増幅率を調整することによって、輝度評価値L1が徐々に大きくなり、時刻t3において目標値T1に一致する。
 このように、画像処理を問題無く行える輝度範囲に輝度評価値L1が収まっている場合、制御部214は、輝度評価値L1の変化率が所定の基準値(例えば1フレーム当たり128分の1)を超えないように、露光時間及び増幅率を変化させている。したがって、露光時間及び増幅率を変化させたことによって輝度評価値L1が変化した場合でも、その変化率が所定の基準値以下に収まるから、輝度値を調整した後の画像データを用いて問題なく画像処理を行うことができる。
 なお本実施形態では輝度値が256階調であるので、輝度値の変化率が1フレーム当たり128分の1を超えないように、制御部214が露光条件及び増幅率を変化させた場合、露光条件及び増幅率の調整によってフレーム間で発生する輝度値の変化は2以下になる。このように、露光条件及び増幅率の調整によって生じる輝度値の変化が緩やかになるから、輝度値を調整する処理が画像データを用いた画像処理に与える影響を低減でき、画像処理を問題無く行うことができる。
 また、図30は、人が見る画像を撮像する場合に画面輝度を補正する動作を示し、この動作例では、露光時間及び増幅率を変化させることによって発生する輝度値の変化率が制限されていない。この動作例では、時刻t10から時刻t15までの期間は、例えば照明器具24をフェード消灯させたことによって画面輝度が徐々に低下している。
 時刻t11及び時刻t13において、人が見るための画像に適した輝度範囲よりも輝度評価値L1が暗くなると、制御部214は、露光条件及び増幅率を調整することで、次のフレームでは輝度評価値L1を目標値T1に一致させている。この場合、時刻t11から時刻t12まで期間と、時刻t13から時刻t14までの期間では画面輝度が急激に変化しており、動体の存在によって発生する輝度変化と区別するのが難しいため、動体検知のための画像処理を行えなくなる。
 それに対して、本実施形態では、画像処理を問題なく行える輝度範囲に輝度評価値L1が収まっている場合、制御部214は、露光時間及び増幅率を変化させることによる輝度値の変化率を128分の1に制限しており、輝度値の変化を緩やかにしている。これにより、露光条件及び増幅率を変化させることによって生じる輝度値の変化を、画像処理に支障のない大きさに低減でき、画像処理を支障なく行うことができる。
 図31は、画像処理を問題無く行える輝度範囲の下限値LM1を輝度評価値L1が下回った場合の動作を示している。時刻t20から時刻t23までの期間では、例えば照明器具24がフェード消灯することによって、撮像領域の明るさが徐々に暗くなっている。
 時刻t20から時刻t21までの期間、制御部214は、フレーム毎に輝度値が128分の1ずつ大きくなるよう露光時間及び増幅率を調整している。しかし、フェード消灯により画面輝度が暗くなるペースの方が速いため、露光時間及び増幅率の調整が追いつかず、画面輝度は徐々に暗くなる。
 なお、制御部214は、輝度値の変化率が所定の基準値以下となるように、露光条件及び増幅率を調整して、輝度評価値L1を目標値T1に近付けているので、調整処理によって発生する輝度値の変化が小さくなり画像処理を支障なく行うことができる。
 一方、時刻t21において輝度評価値L1が下限値LM1を下回ると、制御部214は、次のフレームで輝度評価値L1が目標値T1に一致するように、露光時間及び増幅率を変化させている。ここで、輝度評価値L1が下限値LM1を下回ったフレーム(時刻t21)と次のフレーム(時刻t22)の間では輝度値が大きく変化するため、動体検知のための画像処理は行えない。しかし、時刻t22以降は輝度評価値L1が下限値LM1以上且つ上限値LM4以下となるので、露光時間及び増幅率を変化させたことによる輝度値の変化率が128分の1に制限され、画像処理を支障なく行うことができる。
 その後も、制御部214は、フレーム毎に輝度値が128分の1ずつ大きくなるように、露光時間及び増幅率を調整するが、時刻t22から時刻t23まではフェード消灯によって画面輝度が暗くなるペースの方が速く、画面輝度は徐々に暗くなる。そして、時刻t23において照明器具24が完全に消灯すると、制御部214が、フレーム毎に輝度値が128分の1ずつ大きくなるように、露光時間及び増幅率を調整することで、輝度評価値L1は上昇に転じ、目標値T1に一致する。
 また図32は、画像処理を支障なく行うことができる輝度範囲よりも小さい所定の閾値LM0を輝度評価値L1が下回った場合の動作を示している。時刻t30から時刻t33までの期間では、例えば照明器具24がフェード消灯することによって、撮像領域の明るさが徐々に暗くなっている。
 時刻t30から時刻t31までの期間、制御部214は、フレーム毎に輝度値が128分の1ずつ大きくなるように、露光時間及び増幅率を調整しているが、フェード消灯によって画面輝度が暗くなるペースの方が速く、画面輝度は徐々に暗くなる。
 時刻t31において、輝度評価値L1が、下限値LM1よりも低い閾値LM0を下回ると、制御部214は、フレームレートを5fpsから13.3fpsに高速化し、且つ、目標値T1をより大きな値T3(=104)に切り替える。そして、制御部214は、次のフレームで、輝度評価値L1が目標値T3になるように、露光時間及び増幅率を変化させている。
 ここで、輝度評価値L1が閾値LM0を下回ったフレーム(時刻t31)と次のフレーム(時刻t32)の間では輝度値が大きく変化するため、動体検知のための画像処理は行えない。しかし、時刻t32以降は輝度評価値L1が下限値LM1以上且つ上限値LM4以下となり、露光時間及び増幅率の調整による輝度値の変化率が128分の1以下に制限されるため、画像処理を支障なく行うことができる。なお、画像処理を問題無く行える輝度範囲(下限値LM1以上且つ上限値LM4以下)に輝度評価値L1が収まると、制御部214は、フレームレート及び目標値を元の値に戻している。
 その後、制御部214は、フレーム毎に輝度値が128分の1ずつ大きくなるように、露光時間及び増幅率を調整しているが、時刻t32から時刻t33まではフェード消灯によって画面輝度が暗くなるペースの方が速く、画面輝度は徐々に暗くなる。そして、時刻t33において照明器具24が完全に消灯すると、制御部214が、フレーム毎に輝度値が128分の1ずつ大きくなるように、露光時間及び増幅率を調整することで、輝度評価値L1は上昇に転じ、目標値T1に一致する。
 ここで、図33は目標値T1を変化させない場合の調整動作を示し、時刻t40から時刻t45にかけて照明器具24がフェード消灯し、それに応じて撮像領域の明るさが徐々に低下している。
 時刻t40から時刻t41までの期間、制御部214は、フレーム毎に輝度値が128分の1ずつ大きくなるように、露光時間及び増幅率を調整しているが、フェード消灯によって画面輝度が暗くなるペースの方が速く、画面輝度は徐々に暗くなる。時刻t41において輝度評価値L1が下限値LM1を下回ると、制御部214は、露光時間及び増幅率を変化させることによって、輝度評価値L1が目標値T1となるように輝度値を調整する。
 しかし、図示例ではフェード消灯に伴って輝度評価値L1が低下するペースが大きいため、時刻t43において輝度評価値L1が再び下限値LM1を下回ることになる。そのため、制御部214は、時刻t43において、輝度評価値L1を目標値T1とするために露光時間及び増幅率を変化させており、時刻t41~t42の期間と、時刻t43~t44の期間の両方で、動体検知のための画像処理が行えなくなっていた。
 それに対して、本実施形態では輝度評価値L1が、下限値LM1よりも小さい閾値LM0を下回ると、制御部214が、輝度評価値L1の目標値をより大きな値T2に切り替えている。したがって、輝度評価値L1が目標値T2に調整されてから、フェード消灯に伴って輝度評価値L1が減少していき、下限値LM1を下回るまでに要する時間が、目標値を変化させない場合に比べて長くなる。
 図32の動作例では、時刻t31で露光時間及び増幅率を調整して輝度評価値L1を目標値T2に変化させた後、フェード消灯が終了する時刻t33までの間に、輝度評価値L1が下限値LM1を下回ることがない。よって、輝度値を目標値に一致させるために、制御部214が露光時間及び増幅率を調整する回数が少なくなり、画面輝度を調整するために画像処理が行えなくなる期間を短縮できる。
 また、画像処理を問題無く行える輝度範囲から輝度評価値L1が外れた場合にフレームレートを高くする場合の調整動作を図34に示し、フレームレートを変化させない場合の調整動作を図35に示す。図35に示すようにフレームレートが一定の場合、画像処理を問題無く行える輝度範囲から輝度評価値L1が外れると、輝度評価値L1が上記の輝度範囲に収まるまでに比較的長い時間D12を要し、この間は輝度値が大きく変化するため画像処理が行えなくなる。
 それに対して、本実施形態では、画像処理を問題無く行える輝度範囲から輝度評価値L1が外れると、制御部214が、フレームレートを高速化しており、フレームレートが一定の場合に比べて、輝度評価値L1が上記の輝度範囲に収まるまでの時間D11を短縮できる。よって、輝度評価値L1が画像処理に適さない期間が短くなり、画像処理を早期に再開することができる。
 なお、上述した閾値LM0~LM5の値は、画像処理の内容などに応じて適宜変更が可能である。
 以上説明したように、本実施形態の撮像装置21は、所定のフレームレートで撮像範囲の画像を撮像する撮像部211と、撮像部211の露光条件を調整する露光調整部213と、撮像部211から出力される画像データの輝度値を画素毎に増幅して外部に出力する増幅部212と、画像データの複数画素の輝度値を統計処理して求めた輝度評価値が所定の目標値に一致するように、露光調整部213の露光条件及び増幅部212の増幅率のうち少なくとも何れか一方を調整する制御部214とを備える。増幅部212から出力される画像データを画像処理に使用できる輝度範囲に輝度評価値が収まっている場合は露光条件及び増幅率のうち少なくとも何れか一方を調整することによって生じる輝度評価値の変化率が所定の基準値以下となるように調整量を制限し、且つ、輝度評価値が上記の輝度範囲外である場合は調整量の制限を行わないように制御部214が構成されている。
 すなわち、本実施形態の物体検出装置1は、上述の第1の特徴に加えて、以下の第23の特徴を有する。なお、本実施形態の物体検出装置1は、上述の第2~第13の特徴を選択的に有していてもよい。
 第23の特徴では、物体検出装置1は、カメラ2として撮像装置21を備える。撮像装置21は、撮像部211と、露光調整部213と、増幅部212と、制御部214と、を備える。撮像部211は、所定のフレームレートで撮像範囲の画像を撮像するように構成される。露光調整部213は、撮像部211の露光条件を調整するように構成される。増幅部212は、撮像部211から出力される画像データの輝度値を画素毎に増幅して外部に出力するように構成される。制御部214は、画像データの複数画素の輝度値を統計処理して求めた輝度評価値が所定の目標値に一致するように、露光調整部213の露光条件及び増幅部212の増幅率のうち少なくとも何れか一方を調整するように構成される。制御部214は、増幅部212から出力される画像データを画像処理に使用できる輝度範囲に輝度評価値が収まっている場合は露光条件及び増幅率のうち少なくとも何れか一方を調整することによって生じる輝度評価値の変化率が所定の基準値以下となるように調整量を制限し、且つ、輝度評価値が上記の輝度範囲外である場合は調整量の制限を行わないように構成される。
 これにより、画像データを画像処理することができる輝度範囲に輝度評価値が収まっている場合、露光条件及び増幅率のうち少なくとも何れか一方を調整することによって生じる輝度評価値の変化率が所定の基準値以下となるように、制御部214が調整量を制限する。したがって、画像の明るさを調整するための処理が画像処理に与える影響を低減することができる。
 また、輝度評価値が上記の輝度範囲外である場合は調整量の制限を行わないように制御部214が構成されているので、輝度評価値を目標値に短時間で一致させることができ、所望の画像処理が行えるようになるまでの時間を短縮できる。なお、画像データを画像処理することができる輝度範囲とは、輝度値が暗すぎるために画像処理を行えない輝度範囲や、輝度値が明るすぎて画像処理を行えない輝度範囲を除いた輝度範囲である。
 また、本実施形態の物体検出装置1は、第23の特徴に加えて、以下の第24~第32の特徴のいずれか1つを有してもよい。
 第24の特徴では、制御部214は、輝度評価値L1が上記の輝度範囲(下限値LM1以上、且つ、上限値LM4以下)を下回っている場合は、輝度評価値L1が上記の輝度範囲に収まっている場合に比べて目標値を大きくするように構成される。
 これにより、輝度評価値L1が減少して上記の輝度範囲を下回ると、輝度評価値L1が輝度範囲に収まっている場合に比べて大きい値に設定された目標値まで輝度評価値L1が調整される。よって、その後も輝度評価値L1が減少し続けた場合に、輝度評価値L1が上記の輝度範囲を再び下回るまでの時間が長くなる。
 第25の特徴では、制御部214は、上記の輝度範囲よりも低い所定の閾値LM0を輝度評価値L1が下回っている場合は、輝度評価値L1が閾値LM0以上となる場合に比べて目標値を大きくするように構成される。
 これにより、輝度評価値L1が減少して閾値LM0を下回ると、輝度評価値L1が閾値LM0以上となる場合に比べて大きい値に設定された目標値まで輝度評価値L1が調整される。よって、その後も輝度評価値L1が減少し続けた場合に、輝度評価値L1が上記の輝度範囲を再び下回るまでの時間を長くできる。
 第26の特徴では、制御部214は、輝度評価値L1が上記の輝度範囲を下回っている場合は、輝度評価値L1が上記の輝度範囲に収まっている場合に比べてフレームレートを高くするように構成される。
 これにより、輝度評価値L1が上記の輝度範囲に収まるまでにかかる時間を短くでき、制御部214の調整動作に応じて輝度評価値L1が変化する期間を短くできるから、画像処理が行えなくなる時間を短くできる。
 第27の特徴では、制御部214は、上記の輝度範囲よりも低い所定の閾値LM0を輝度評価値L1が下回っている場合は、輝度評価値L1が閾値LM0以上となる場合に比べてフレームレートを高くするように構成される。
 これにより、輝度評価値L1が上記の輝度範囲に収まるまでにかかる時間を短くでき、制御部214の調整動作に応じて輝度評価値L1が変化する期間を短くできるから、画像処理が行えなくなる時間を短くできる。
 第28の特徴では、制御部214は、輝度評価値L1が上記の輝度範囲を上回っている場合は、輝度評価値L1が上記の輝度範囲に収まっている場合に比べて目標値を小さくするように構成される。
 これにより、輝度評価値L1が増加して上記の輝度範囲を上回ると、輝度評価値L1が輝度範囲に収まっている場合に比べて小さい値に設定された目標値まで輝度評価値L1が調整される。よって、その後も輝度評価値L1が増加し続けた場合に、輝度評価値L1が上記の輝度範囲を再び上回るまでの時間を長くできる。
 第29の特徴では、制御部214は、上記の輝度範囲よりも高い所定の閾値LM5を輝度評価値が上回っている場合は、輝度評価値が閾値LM5以下となる場合に比べて目標値を小さくするように構成される。
 これにより、輝度評価値L1が増加して閾値LM5を上回ると、輝度評価値L1が閾値LM5以下となる場合に比べて小さい値に設定された目標値まで輝度評価値L1が調整される。よって、その後も輝度評価値L1が増加し続けた場合に、輝度評価値L1が上記の輝度範囲を再び上回るまでの時間を長くできる。
 第30の特徴では、制御部214は、輝度評価値L1が上記の輝度範囲を上回っている場合は、輝度評価値L1が上記の輝度範囲に収まっている場合に比べて、フレームレートを高くするように構成される。
 これにより、輝度評価値L1が上記の輝度範囲に収まるまでにかかる時間を短くでき、制御部214の調整動作に応じて輝度評価値L1が変化する期間を短くできるから、画像処理が行えなくなる時間を短くできる。
 第31の特徴では、制御部214は、上記の輝度範囲よりも高い所定の閾値LM5を輝度評価値L1が上回っている場合は、輝度評価値L1が閾値LM5以下となる場合に比べて、フレームレートを高くするように構成される。
 これにより、輝度評価値L1が上記の輝度範囲に収まるまでにかかる時間を短くでき、制御部214の調整動作に応じて輝度評価値L1が変化する期間を短くできるから、画像処理が行えなくなる時間を短くできる。
 第32の特徴ではまた、制御部214は、上記の輝度範囲よりも低い所定の第1閾値LM0を輝度評価値L1が下回っている場合は、輝度評価値L1が第1閾値LM0以上となる場合に比べて、目標値を大きくし且つフレームレートを高くするように構成される。制御部214は、上記の輝度範囲よりも高い所定の第2閾値LM5を輝度評価値L1が上回っている場合は、輝度評価値L1が第2閾値LM5以下となる場合に比べて、目標値を小さくし且つフレームレートを高くするように構成される。
 これにより、輝度評価値L1が減少して第1閾値LM0を下回ると、輝度評価値L1が第1閾値LM0以上となる場合に比べて大きい値に設定された目標値まで輝度評価値L1が調整される。よって、その後も輝度評価値L1が減少し続けた場合に、輝度評価値L1が上記の輝度範囲を再び下回るまでの時間を長くできる。
 また、輝度評価値L1が増加して第2閾値LM5を上回ると、輝度評価値L1が第2閾値LM5以下となる場合に比べて小さい値に設定された目標値まで輝度評価値L1が調整される。よって、その後も輝度評価値L1が増加し続けた場合に、輝度評価値L1が上記の輝度範囲を再び上回るまでの時間を長くできる。
 さらに、輝度評価値L1が第1閾値LM0を下回るか、第2閾値LM5を上回ると、制御部214はフレームレートを高くするから、輝度評価値L1が上記の輝度範囲に収まるまでに要する時間を短くできる。したがって、制御部214が輝度値を調整する動作に応じて輝度評価値L1が変化する期間を短くできるから、画像処理が行えなくなる時間を短くできる。
 (実施形態4)
 本実施形態は、検知領域内における人の存在を検知する人センサ、及び人センサの検知結果に応じて負荷を制御する負荷制御システムに関する。
 従来の人センサ及び負荷制御システムとして、例えば、文献5[日本国公開特許公報第2008-270103号]に記載されている熱線センサ付自動スイッチがある。文献5記載のものは、人体から放射される熱線を焦電素子で検出し、焦電素子で検出される熱線の変化に基づいて人の存在を検知して照明負荷を調光制御している。
 しかしながら、文献5記載の従来例では、人が静止していると焦電素子で検出される熱線が変化しないためにその人を検知することができない。また、検知領域を分割して各検知領域毎の人の存否に応じて負荷を制御しようとした場合、文献5記載の従来例では、分割された各検知領域毎に人センサ(熱線センサ付自動スイッチ)を設置しなければならなかった。
 本実施形態は、上記課題に鑑みて為されたものであり、静止している人も検出可能とし、且つ複数の領域毎に人の存在を検知可能とすることを目的とする。
 以下、図面を参照して本実施形態に係る人センサ(物体検出装置)31及び負荷制御システムの実施形態を詳細に説明する。なお、本実施形態は、負荷を照明負荷とする負荷制御システムに関するが、制御対象の負荷は照明負荷に限定されるものではなく、例えば、空調負荷(室内の温湿度を調整する空調設備)などであってもよい。
 本実施形態の負荷制御システムは、図37に示すように人センサ31と、制御装置32と、複数の照明負荷33とで構成される。
 制御装置32は、人センサ31から伝送線を介して伝送される人検知情報(後述する)に応じて各照明負荷33に対する制御指令を生成し、生成した制御指令を信号線を介して各照明負荷33に伝送する。
 照明負荷33は、白熱灯や蛍光ランプ、あるいはLEDランプなどの光源(図示せず)と、制御指令に応じて光源を点灯・消灯及び調光する点灯装置(図示せず)とを有し、照明空間(例えば、オフィスビルの1フロア)の天井に配設される。
 人センサ31は、図36に示すように撮像部310、画像処理部311、通信部312、設定部313、記憶部314などを備える。
 撮像部310は、CMOSイメージセンサやCCDイメージセンサなどの撮像素子やレンズ、撮像素子のアナログの出力信号をディジタルの画像信号(画像データ)に変換するA/D変換器などを具備する。撮像部310としては、実施形態1のカメラ2や、実施形態2の撮像装置10、実施形態3の撮像装置21を用いることができる。
 記憶部314は、フラッシュメモリなどの書換可能な不揮発性半導体メモリからなり、後述するように画像処理部311における画像処理及び判断処理に必要な種々の情報を記憶している。
 通信部312は、伝送線を介して制御装置32との間でデータ伝送を行う。
 設定部313は、記憶部314に記憶される種々の情報を設定するためのスイッチ、あるいは図示しない設定器から与えられる前記情報を取り込むためのインタフェースからなる。
 なお、人センサ31は、照明負荷33による照明空間全体が撮像可能な位置、例えば、照明空間の天井や壁などに設置される。
 画像処理部311は、マイクロコンピュータあるいはDSPなどで構成され、撮像部310から取り込む画像データに対して種々の画像処理を実行し、且つ画像処理の結果を利用して人の存在などを判断する判断処理を実行する。
 例えば、検知領域(照明空間)に人が存在しない状況で撮像された検知領域の画像データが背景画像データとして記憶部314に記憶される。画像処理部311は、撮像部310から取り込まれる検知領域の画像データと背景画像データの差分を求め、その差分画像から人の輪郭や人の領域に対応した画素領域(以下、人体画素領域と呼ぶ。)の抽出を試み、人体画素領域を抽出すれば人が存在すると判断する。ただし、背景差分の代わりにフレーム間差分から人体画素領域を抽出することも可能である。
 また画像処理部311は、人体画素領域における代表位置を求め、当該代表位置が所定時間(所定のフレーム数)内に変位する距離をしきい値と比較することで人の行動(滞在、静止、移動など)を判断する。つまり、当該距離がしきい値未満のときはその人が同じ場所に滞在又は静止しており、当該距離がしきい値以上のときは移動していると判断する。ただし、代表位置とは、人体画素領域の重心位置や人体の特定の部位(例えば、頭部)の位置である。なお、人が静止している場合、フレーム間差分による抽出方法では人体画素領域が抽出できない可能性もあるが、背景差分による抽出方法では人体画素領域の抽出が可能である。
 さらに画像処理部311は、抽出した人体画素領域の位置(座標)及び数(人数)を判断する。なお、これらの判断結果、すなわち、検知領域内における人の存否及び存在する人数、位置、人の行動(滞在、静止又は移動)が前記情報(人検知情報)として通信部312から伝送線を介して制御装置32に送られる。
 例えば、画像処理部311は、実施形態1と同様に、画像取得部3と、演算処理部4と、画像メモリ5と、出力部6と、を備える。なお、本実施形態では、画像取得部3と、演算処理部4と、画像メモリ5と、出力部6とについては、説明を省略する。
 制御装置32は、人センサ31から受け取る人検知情報に応じて照明負荷33を制御する。例えば、制御装置32は、複数の照明負荷33のうちで照明範囲と人の存在位置とが重なる照明負荷33に制御指令を与えて全点灯させ、照明範囲と人の存在位置とが重ならない照明負荷33には制御指令を与えて消灯又は全点灯(100%)よりも低い調光率で調光点灯させる。また、制御装置32は、人が移動している間は制御指令を与えて照明負荷33を相対的に低い調光率で調光点灯させ、人が滞在している間は滞在場所(人の存在位置)の照明負荷33に制御指令を与えて全点灯させる。
 ここで、撮像部310から取り込まれる画像データの各画素値は検知領域の明るさと対応しており、画像処理部311では、画像データの画素値から検知領域内の明るさ(照度)を判断することができる。そして、画像処理部311で求めた明るさの判断結果(明るさのレベル)が人検知情報とともに通信部312から伝送線を介して制御装置32に伝送される。
 制御装置32は、人センサ31から受け取る明るさのレベルを所望の値と一致させるように制御指令を与えて照明負荷33の調光率を変化させる。これにより、人が存在するときの照明空間を常に適切な明るさに保つことができる。なお、窓から入射する外光(例えば、昼光)の影響により、照明負荷33の調光率を下限値まで下げても明るすぎる場合、制御装置32は照明負荷33を消灯させることもある。
 ところで、画像処理部311においては、検知領域の画像を複数の領域に分割して各領域毎に人の存否及び存在する人数、位置、人の行動、明るさなどを判断することが好ましい。
 図38は照明空間であるオフィスビルの1フロアのレイアウトの一例を示しており、フロア全体が検知領域100となり、その中央に通路113が設けられ、通路113の両側に間仕切りで仕切られた複数(図示例では6つずつ)の分割領域101~112が設けられている。これら複数(図示例では12)の分割領域101~112はそれぞれ異なる照明負荷33の照明範囲と重なっている。そして、人センサ31においては、設定部313によって複数の分割領域101~113の位置情報、例えば、各分割領域101~113の4つの頂点の座標が設定され、設定された位置情報が記憶部314に記憶される。
 画像処理部311は、記憶部314に記憶されている位置情報に基づき、各分割領域101~113毎に人の存否及び存在する人数、位置、人の行動、明るさなどを判断し、各分割領域101~113毎の人検知情報及び明るさレベルを通信部312から制御装置32に伝送させる。
 つまり、本実施形態の人センサ31では、画像処理部311と設定部313が判断手段に相当する。ただし、全ての分割領域101~113に対して人の存在等を検知する必要は無く、例えば、書類棚などが占有している分割領域に対しては人の存在等を検知する対象から除外しても構わない。
 制御装置32では、人センサ31から伝送される各分割領域101~113毎の人検知情報及び明るさレベルに応じて、各分割領域101~112に対応する照明負荷33を制御する。例えば、分割領域101のみに人が存在する場合、制御装置32は、その分割領域101に対応する照明負荷33のみに制御指令を与えて全点灯させる。あるいは、通路に相当する分割領域113のみに人が存在する場合、制御装置32は、その他の分割領域101~112に対応する照明負荷33に制御指令を与えて相対的に低い調光率で調光点灯させる。ただし、通路(分割領域113)に照明負荷33が設置され、分割領域113の人の存否に応じて制御装置32が当該照明負荷33を制御しても構わない。
 以上述べたように、本実施形態の人センサ31は、撮像手段(撮像部310)と、判断手段(画像処理部311及び設定部313)と、(通信部312)とを備える。撮像手段(撮像部310)は、検知領域の画像を撮像するように構成される。判断手段(画像処理部311及び設定部313)は、撮像手段(撮像部310)で撮像される画像から検知領域内の人の存否及び存在する人数、位置、人の行動を判断するように構成される。伝送手段(通信部312)は、判断手段(画像処理部311及び設定部313)の判断結果を負荷制御を行う制御装置32に伝送するように構成される。判断手段(画像処理部311及び設定部313)は、検知領域の画像を複数の領域に分割して各領域毎に人の存否及び存在する人数、位置、人の行動を判断し、且つ領域から人の画素領域を抽出するとともに人の画素領域における代表位置が所定時間内に変位する距離に基づいて人の行動を判断するように構成される。
 なお、人センサ31において、判断手段(画像処理部311及び設定部313)は、検知領域の画像に対する領域の数及び配置、領域に対する人検知の要否が選択可能であってもよい。
 本実施形態の負荷制御システムは、人センサ31と、人センサ31から伝送される判断結果に応じて1乃至複数の負荷を制御する制御装置32と、を有する。
 なお、この負荷制御システムにおいて、負荷は照明空間に設置される照明負荷33であってもよい。判断手段(画像処理部311及び設定部313)は、検知領域の画像の画素値から検知領域の明るさを判断してもよい。伝送手段(通信部312)は、人の存否及び存在する人数、位置、人の行動の判断結果とともに明るさの判断結果を制御装置32に伝送してもよい。制御装置32は、人センサ31から受け取る明るさを所望の明るさと一致させるように照明負荷33を制御してもよい。
 上述のように本実施形態の人センサ31および負荷制御システムによれば、撮像部310で撮像される検知領域の画像から人の存否等を検知しているので、焦電素子を利用する従来例とは異なり、静止している人の存在も検知することができる。しかも、検知領域100から分割された複数の領域101~113毎に人の存在を検知することも可能である。つまり、本実施形態の人センサ31及び負荷制御システムは、静止している人も検出可能とし、且つ複数の領域毎に人の存在を検知可能とすることができるという効果がある。
 本実施形態では、人センサ31は、実施形態1の物体検出装置1と同様の構成を有していてもよい。すなわち、本実施形態の人センサ(物体検出装置)31は、上述の第1の特徴を有する。さらに、本実施形態の人センサ31は、上述の第1の特徴に加えて、上述の第2~第13の特徴を選択的に有していてもよい。
 また、本実施形態における撮像部310は、実施形態2の撮像装置10と同様の構成を有していてもよい。すなわち、本実施形態の人センサ31は、上述の第14~第22の特徴を選択的に有していてもよい。
 あるいは、本実施形態における撮像部310は、実施形態3の撮像装置21と同様の構成を有していてもよい。すなわち、本実施形態の人センサ31は、上述の第23~第32の特徴を選択的に有していてもよい。

Claims (11)

  1.  所定の撮像エリアを撮像するカメラから、前記撮像エリアの画像を所定の時間間隔で順次取得するように構成される画像取得部と、
     前記画像取得部によって連続的に取得された画像間の差分画像を求めるように構成される差分画像作成部と、
     前記差分画像を横方向及び縦方向にそれぞれ複数に分割してできるブロックの各々について、移動している検出対象が存在する移動領域であるか、停止している物体が存在する停止領域であるかを判定するように構成される判定部と、
     を備え、
     前記判定部は、複数の前記ブロックの各々について、前記ブロックを構成する複数の画素の画素値をもとに、前記ブロックが前記移動領域であるか前記停止領域であるかを判定するように構成される
     ことを特徴とする物体検出装置。
  2.  前記判定部は、複数の前記ブロックの各々について、前記ブロックを構成する複数の画素の差分値と所定の閾値との高低を比較し、差分値が前記閾値を超えた画素数をもとに、前記ブロックが前記移動領域であるか前記停止領域であるかを判定するように構成される
     ことを特徴とする請求項1に記載の物体検出装置。
  3.  前記移動領域と判定された領域から検出対象を検出する物体検出部を備え、
     前記物体検出部は、前記移動領域と判定された1乃至複数の前記ブロックのうち連続する前記ブロックをそれぞれ検知対象領域とするように構成され、
     前記物体検出部は、
      今回求めた検知対象領域が前回求めた検知対象領域に含まれる場合、
      又は、今回の検知対象領域と前回の検知対象領域とが重なり且つ前回の検知対象領域の面積に対する今回の検知対象領域の面積の比率が所定の閾値よりも小さい場合、
      又は、今回の検知対象領域と前回の検知対象領域とで重なり合う部分が全く存在しない場合の何れかであれば、
     前記検出対象が静止していると判断して、前回の検知対象領域を前記検出対象が存在している領域とするように構成される
     ことを特徴とする請求項1に記載の物体検出装置。
  4.  前記物体検出部は、前回求めた検知対象領域と今回求めた検知対象領域とが重なっていれば同一の検出対象が存在すると判断するように構成され、
     前記物体検出部は、前回求めた検知対象領域に存在する前記検出対象が静止していると判断されたか否かに応じて、また静止していないと判断された場合は前記検出対象の動きを表すパラメータに応じて、前回及び今回の検知対象領域から前記検出対象の現在位置を求めるための判定条件を変更するように構成される
     ことを特徴とする請求項3に記載の物体検出装置。
  5.  前記物体検出部は、
      前回の第1検知対象領域と今回の検知対象領域が重なり、且つ、今回の検知対象領域が前回の第2検知対象領域に重なっていなければ、
     前記第1検知対象領域に存在していた検出対象が、今回の検知対象領域に移動したと判断するように構成される
     ことを特徴とする請求項3に記載の物体検出装置。
  6.  前記物体検出部は、
      今回の検知対象領域が、前回の第1検知対象領域及び第2検知対象領域にそれぞれ重なり、前記第1検知対象領域に存在していた検出対象が静止していると判定された場合、
     前記第1検知対象領域に存在していた検出対象が、前記第1検知対象領域に留まっていると判断するように構成される
     ことを特徴とする請求項3に記載の物体検出装置。
  7.  前記物体検出部は、
      今回の検知対象領域が、前回の第1検知対象領域及び第2検知対象領域にそれぞれ重なり、前記第1検知対象領域に存在する第1検出対象と、前記第2検知対象領域に存在する第2検出対象とが、両方共に移動していると判断された場合、
      前記第1検出対象の速度が前記第2検出対象の速度よりも速ければ、
     前記第1検出対象が今回の検知対象領域に移動したと判断するように構成され、
     前記物体検出部は、
      今回の検知対象領域が、前回の第1検知対象領域及び第2検知対象領域にそれぞれ重なり、前記第1検知対象領域に存在する第1検出対象と、前記第2検知対象領域に存在する第2検出対象とが、両方共に移動していると判断された場合、
     前記第1検出対象の速度が前記第2検出対象の速度と同等以下であれば、
     前記第1検出対象が第1検知対象領域に留まっていると判断するように構成される
     ことを特徴とする請求項3に記載の物体検出装置。
  8.  前記物体検出部は、
      今回の検知対象領域が、前回の第1検知対象領域及び第2検知対象領域にそれぞれ重なり、前記第1検知対象領域に存在する第1検出対象が移動していると判断され、前記第2検知対象領域に存在する第2検出対象が静止していると判断された場合、
     前記第1検出対象が今回の検知対象領域に移動したと判断するように構成される
     ことを特徴とする請求項3に記載の物体検出装置。
  9.  前記物体検出部は、
      ある時点で求められた第1検知対象領域に存在している検出対象が静止していると判断され、前記第1検知対象領域に、それ以後に求められた第2検知対象領域の少なくとも一部が重なった場合、
     前記第2検知対象領域が重なる直前における前記第1検知対象領域の画像をテンプレート画像として保持するように構成され、
     前記物体検出部は、前記第1検知対象領域と前記第2検知対象領域との重なりが無くなった時点で、この時点の前記第1検知対象領域の画像と前記テンプレート画像とのマッチング処理を行って両者の相関値を求めるように構成され、
     前記物体検出部は、前記相関値が所定の判定値よりも高ければ、前記検出対象が前記第1検知対象領域に留まっていると判断ように構成され、
     前記物体検出部は、前記相関値が前記判定値よりも低ければ、前記検出対象が前記第1検知対象領域の外側に移動したと判断するように構成される
     ことを特徴とする請求項3に記載の物体検出装置。
  10.  前記カメラとして撮像装置を備え、
     前記撮像装置は、
      それぞれに電荷が蓄積される複数の画素を有し前記各画素に蓄積される電荷量を画素値に変換して出力するように構成される撮像素子と、
     前記撮像素子において光電変換に供される光の量を制御するように構成される光制御手段と、
      所定のフレームレートで前記撮像素子から前記画素値を読み出し且つ読み出した前記画素値から前記各フレームレート毎に1フレームの画像を生成するように構成される画像生成手段と、
      前記1フレームの画像における前記画素値の一部又は全部を数値で定義される評価値で評価し、当該評価値が所定の適正範囲内に収まるように前記光制御手段又は前記画像生成手段の少なくとも何れか一方を制御して前記画素値を調整するように構成される調整手段と
     を備え、
     前記調整手段は、前記フレームレート毎に生成される前記画像の前記評価値が前記適正範囲から所定レベル以上外れた場合、前記画像生成手段を、前記フレームレートよりも高い調整用フレームレートで前記画像を生成する調整モードに移行させ、前記画像生成手段が前記調整用フレームレートで前記画像を生成した後、前記フレームレートで前記画像を生成する通常モードに復帰させるように構成される
     ことを特徴とする請求項1に記載の物体検出装置。
  11.  前記カメラとして撮像装置を備え、
     前記撮像装置は、
      所定のフレームレートで撮像範囲の画像を撮像するように構成される撮像部と、
      前記撮像部の露光条件を調整するように構成される露光調整部と、
     前記撮像部から出力される画像データの輝度値を画素毎に増幅して外部に出力するように構成される増幅部と、
     前記画像データの複数画素の輝度値を統計処理して求めた輝度評価値が所定の目標値に一致するように、前記露光調整部の露光条件及び前記増幅部の増幅率のうち少なくとも何れか一方を調整するように構成される制御部と、
     を備え、
     前記制御部は、前記増幅部から出力される画像データを画像処理することができる輝度範囲に前記輝度評価値が収まっている場合は前記露光条件及び前記増幅率のうち少なくとも何れか一方を調整することによって生じる前記輝度評価値の変化率が所定の基準値以下となるように調整量を制限し、且つ、前記輝度評価値が前記輝度範囲外である場合は調整量の制限を行わないように構成される
     ことを特徴とする請求項1に記載の物体検出装置。
PCT/JP2013/003652 2012-06-13 2013-06-11 物体検出装置 WO2013187047A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380031305.2A CN104364824A (zh) 2012-06-13 2013-06-11 物体检测装置
US14/407,929 US20150125032A1 (en) 2012-06-13 2013-06-11 Object detection device
KR1020147034834A KR101640875B1 (ko) 2012-06-13 2013-06-11 물체 검출 장치

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2012134146A JP2013258609A (ja) 2012-06-13 2012-06-13 撮像装置
JP2012-134146 2012-06-13
JP2012-214612 2012-09-27
JP2012214612A JP2014071482A (ja) 2012-09-27 2012-09-27 物体検出装置
JP2013-100524 2013-05-10
JP2013100524A JP2014220762A (ja) 2013-05-10 2013-05-10 撮像装置

Publications (1)

Publication Number Publication Date
WO2013187047A1 true WO2013187047A1 (ja) 2013-12-19

Family

ID=49757892

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003652 WO2013187047A1 (ja) 2012-06-13 2013-06-11 物体検出装置

Country Status (5)

Country Link
US (1) US20150125032A1 (ja)
KR (1) KR101640875B1 (ja)
CN (1) CN104364824A (ja)
TW (1) TWI509569B (ja)
WO (1) WO2013187047A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015136828A1 (ja) * 2014-03-11 2015-09-17 三菱電機株式会社 人物検出装置および人物検出方法
WO2016035282A1 (ja) * 2014-09-03 2016-03-10 パナソニックIpマネジメント株式会社 検知装置および検知システム
JP2016053939A (ja) * 2014-08-21 2016-04-14 パナソニックIpマネジメント株式会社 検知装置、検知システム、およびプログラム
CN107103865A (zh) * 2017-04-10 2017-08-29 青岛海信电器股份有限公司 检测显示屏中显示区域的方法和装置
CN110049206A (zh) * 2015-04-28 2019-07-23 腾讯科技(深圳)有限公司 图像处理方法及装置
CN112200135A (zh) * 2020-10-28 2021-01-08 Tcl通讯(宁波)有限公司 摄像元素的检测方法、装置、存储介质及移动终端
CN113554008A (zh) * 2021-09-18 2021-10-26 深圳市安软慧视科技有限公司 静态物体区域内检测方法、装置、电子设备及存储介质

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5762802B2 (ja) 2011-04-08 2015-08-12 ユニ・チャーム株式会社 マスク
US9576214B1 (en) * 2012-01-23 2017-02-21 Hrl Laboratories, Llc Robust object recognition from moving platforms by combining form and motion detection with bio-inspired classification
JP6191160B2 (ja) * 2012-07-12 2017-09-06 ノーリツプレシジョン株式会社 画像処理プログラムおよび画像処理装置
WO2014155961A1 (ja) * 2013-03-26 2014-10-02 パナソニック株式会社 画像生成装置、撮影装置、画像生成方法及びプログラム
WO2014155962A1 (ja) * 2013-03-26 2014-10-02 パナソニック株式会社 画像生成装置、撮影装置、画像生成方法及びプログラム
US9999114B2 (en) * 2014-08-18 2018-06-12 Panasonic Intellectual Property Management Co., Ltd. Control system and sensor unit
JP6447915B2 (ja) * 2015-03-13 2019-01-09 パナソニックIpマネジメント株式会社 負荷制御装置
JP2016180625A (ja) * 2015-03-23 2016-10-13 株式会社東芝 放射線検出装置、入出力較正方法、及び入出力較正プログラム
JP6515999B2 (ja) * 2015-03-30 2019-05-22 株式会社ニコン 撮像素子および撮像装置
CN104780362A (zh) * 2015-04-24 2015-07-15 宏祐图像科技(上海)有限公司 基于局部特征描述的视频静止logo检测方法
US10373991B2 (en) 2015-08-19 2019-08-06 Semiconductor Energy Laboratory Co., Ltd. Imaging device, operating method thereof, and electronic device
US11249172B2 (en) * 2015-12-21 2022-02-15 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
EP3396414A4 (en) 2015-12-21 2019-08-21 Koito Manufacturing Co., Ltd. IMAGING APPARATUS FOR USE BY A VEHICLE, CONTROL DEVICE, VEHICLE WITH THE CONTROL DEVICE OR IMAGING DEVICE FOR USE BY A VEHICLE AND IMAGE RECORDING FOR USE BY A VEHICLE
WO2017110414A1 (ja) 2015-12-21 2017-06-29 株式会社小糸製作所 車両用画像取得装置およびそれを備えた車両
US11194023B2 (en) 2015-12-21 2021-12-07 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
CN105607534A (zh) * 2015-12-25 2016-05-25 厦门思力科电子科技有限公司 一种基于cis的智能开关
CN105809136A (zh) 2016-03-14 2016-07-27 中磊电子(苏州)有限公司 影像数据处理方法及影像数据处理系统
US10674172B2 (en) * 2016-04-19 2020-06-02 Mitsubishi Electric Corporation Image processing apparatus, image processing method, and computer-readable recording medium
CN107846533A (zh) * 2016-09-19 2018-03-27 加尔发半导体股份有限公司 智能传感器设备
TWI580929B (zh) * 2016-10-07 2017-05-01 H P B Optoelectronic Co Ltd Height detection system and its method
US11049260B2 (en) 2016-10-19 2021-06-29 Nec Corporation Image processing device, stationary object tracking system, image processing method, and recording medium
JP2018085575A (ja) * 2016-11-21 2018-05-31 カシオ計算機株式会社 画像処理装置、解析システム、画像処理方法及びプログラム
KR101735365B1 (ko) 2017-01-19 2017-05-16 (주)나인정보시스템 학습 기반의 영상 내 관심 물체 검지 및 환경 변화에 강인한 물체 추적 방법
JP6789877B2 (ja) * 2017-04-28 2020-11-25 キヤノン株式会社 情報処理装置、画像処理システム、制御システム及び情報処理方法
EP3636135A4 (en) * 2017-06-05 2020-06-10 Sony Corporation MEDICAL SYSTEM AND CONTROL UNIT
JP7067023B2 (ja) * 2017-11-10 2022-05-16 富士通株式会社 情報処理装置、背景更新方法および背景更新プログラム
CN107820010B (zh) * 2017-11-17 2020-11-06 英业达科技有限公司 摄影计数装置
CN110044292A (zh) * 2018-01-16 2019-07-23 郑州宇通客车股份有限公司 一种基于线结构光的三维测量方法和系统
CN108131608A (zh) * 2018-01-17 2018-06-08 福建成达兴智能科技股份有限公司 一种基于图像处理及调光膜的智能调光灯
CN110717369A (zh) * 2018-07-11 2020-01-21 张烂熳 一种对图像进行分层推理识别物体的方法
JP7233873B2 (ja) * 2018-09-19 2023-03-07 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US10971161B1 (en) 2018-12-12 2021-04-06 Amazon Technologies, Inc. Techniques for loss mitigation of audio streams
US11336954B1 (en) * 2018-12-12 2022-05-17 Amazon Technologies, Inc. Method to determine the FPS on a client without instrumenting rendering layer
US11252097B2 (en) 2018-12-13 2022-02-15 Amazon Technologies, Inc. Continuous calibration of network metrics
US11356326B2 (en) 2018-12-13 2022-06-07 Amazon Technologies, Inc. Continuously calibrated network system
US11368400B2 (en) 2018-12-13 2022-06-21 Amazon Technologies, Inc. Continuously calibrated network system
CN113287295B (zh) * 2018-12-26 2023-07-25 富士胶片株式会社 摄像元件、摄像装置、摄像元件的工作方法及存储介质
JP7151479B2 (ja) * 2018-12-28 2022-10-12 株式会社デンソーテン 付着物検出装置、および付着物検出方法
US11461907B2 (en) * 2019-02-15 2022-10-04 EchoPixel, Inc. Glasses-free determination of absolute motion
EP3932317A4 (en) * 2019-02-26 2022-10-05 National University Corporation Shizuoka University X-RAY IMAGING DEVICE
CN113574866A (zh) 2019-02-28 2021-10-29 斯塔特斯公司 校准捕捉广播视频的移动相机的系统及方法
CN109894296B (zh) * 2019-03-07 2021-02-26 百度在线网络技术(北京)有限公司 喷水状态的调整方法、装置、计算机设备及存储介质
US11016792B1 (en) 2019-03-07 2021-05-25 Amazon Technologies, Inc. Remote seamless windows
US11245772B1 (en) 2019-03-29 2022-02-08 Amazon Technologies, Inc. Dynamic representation of remote computing environment
US11461168B1 (en) 2019-03-29 2022-10-04 Amazon Technologies, Inc. Data loss protection with continuity
US11049264B2 (en) * 2019-10-03 2021-06-29 Pixart Imaging Inc. Marker detecting device and optical tracking device
JP7400480B2 (ja) * 2020-01-14 2023-12-19 株式会社リコー 画像読取装置および画像読取方法
JP7272296B2 (ja) * 2020-02-07 2023-05-12 トヨタ自動車株式会社 判定方法、判定装置及び判定プログラム
JP2021176215A (ja) * 2020-05-01 2021-11-04 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
CN111565300B (zh) * 2020-05-22 2020-12-22 深圳市百川安防科技有限公司 基于对象的视频文件处理方法、设备及系统
CN111901517B (zh) * 2020-06-13 2022-02-25 无锡利水管业有限公司 基于时区检测的帧率调节系统以及相应终端
US11412133B1 (en) * 2020-06-26 2022-08-09 Amazon Technologies, Inc. Autonomously motile device with computer vision
CN112017345B (zh) * 2020-08-21 2022-05-17 中建二局第一建筑工程有限公司 一种智能门禁安防方法、装置、系统及存储介质
CN112543261A (zh) * 2020-12-08 2021-03-23 浙江大华技术股份有限公司 一种图像质量提升方法、装置以及计算机可读存储介质
KR102391853B1 (ko) * 2021-11-19 2022-05-09 주식회사 케이비전 영상 정보 처리 시스템 및 방법
US20230196795A1 (en) * 2021-12-20 2023-06-22 Veoneer Us, Inc. Pattern detection with shadow boundary using slope of brightness
CN114387248B (zh) * 2022-01-12 2022-11-25 苏州天准科技股份有限公司 一种硅料熔化度监测方法、存储介质、终端和拉晶设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0353390A (ja) * 1989-07-21 1991-03-07 Nippon Telegr & Teleph Corp <Ntt> 運動体の輪郭識別装置
JPH10271394A (ja) * 1997-03-24 1998-10-09 Sony Corp 電荷転送装置およびこれを用いた固体撮像装置
JP2004157879A (ja) * 2002-11-07 2004-06-03 Matsushita Electric Works Ltd 物体検出方法
JP2005056406A (ja) * 2003-07-24 2005-03-03 Victor Co Of Japan Ltd 画像の動き検出装置及びコンピュータプログラム
JP2007135868A (ja) * 2005-11-18 2007-06-07 Canon Inc 眼科撮影装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06201715A (ja) 1992-12-29 1994-07-22 Nabco Ltd 移動物体検出装置
US6452634B1 (en) * 1996-12-26 2002-09-17 Sony Corporation Charge transfer device and method of driving the same, and solid state imaging device and method of driving the same
US9052386B2 (en) * 2002-02-06 2015-06-09 Nice Systems, Ltd Method and apparatus for video frame sequence-based object tracking
JP2005086499A (ja) * 2003-09-09 2005-03-31 Minolta Co Ltd 撮像装置
JP4961800B2 (ja) * 2006-03-31 2012-06-27 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2008257626A (ja) 2007-04-09 2008-10-23 Victor Co Of Japan Ltd 動き検出装置
JP5122861B2 (ja) 2007-04-24 2013-01-16 パナソニック株式会社 熱線センサ付自動スイッチ
JP4996491B2 (ja) 2008-01-29 2012-08-08 パナソニック株式会社 撮像装置
JP5281839B2 (ja) * 2008-07-23 2013-09-04 パナソニック株式会社 画像合成符号化方法、画像合成符号化装置、撮像システム
JP5480600B2 (ja) 2009-11-13 2014-04-23 パナソニック株式会社 照明制御システム
JP5577793B2 (ja) * 2010-03-30 2014-08-27 ソニー株式会社 画像処理装置および方法、並びにプログラム
TWI408623B (zh) * 2010-08-03 2013-09-11 Wistron Corp 監視系統及其監視影像錄製方法,及其機器可讀取媒體

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0353390A (ja) * 1989-07-21 1991-03-07 Nippon Telegr & Teleph Corp <Ntt> 運動体の輪郭識別装置
JPH10271394A (ja) * 1997-03-24 1998-10-09 Sony Corp 電荷転送装置およびこれを用いた固体撮像装置
JP2004157879A (ja) * 2002-11-07 2004-06-03 Matsushita Electric Works Ltd 物体検出方法
JP2005056406A (ja) * 2003-07-24 2005-03-03 Victor Co Of Japan Ltd 画像の動き検出装置及びコンピュータプログラム
JP2007135868A (ja) * 2005-11-18 2007-06-07 Canon Inc 眼科撮影装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015136828A1 (ja) * 2014-03-11 2015-09-17 三菱電機株式会社 人物検出装置および人物検出方法
JPWO2015136828A1 (ja) * 2014-03-11 2017-04-06 三菱電機株式会社 人物検出装置および人物検出方法
US10026019B2 (en) 2014-03-11 2018-07-17 Mitsubishi Electric Corporation Person detecting device and person detecting method
JP2016053939A (ja) * 2014-08-21 2016-04-14 パナソニックIpマネジメント株式会社 検知装置、検知システム、およびプログラム
WO2016035282A1 (ja) * 2014-09-03 2016-03-10 パナソニックIpマネジメント株式会社 検知装置および検知システム
CN110049206A (zh) * 2015-04-28 2019-07-23 腾讯科技(深圳)有限公司 图像处理方法及装置
CN110049206B (zh) * 2015-04-28 2021-08-10 腾讯科技(深圳)有限公司 图像处理方法、装置及计算机可读存储介质
CN107103865A (zh) * 2017-04-10 2017-08-29 青岛海信电器股份有限公司 检测显示屏中显示区域的方法和装置
CN112200135A (zh) * 2020-10-28 2021-01-08 Tcl通讯(宁波)有限公司 摄像元素的检测方法、装置、存储介质及移动终端
CN113554008A (zh) * 2021-09-18 2021-10-26 深圳市安软慧视科技有限公司 静态物体区域内检测方法、装置、电子设备及存储介质
CN113554008B (zh) * 2021-09-18 2021-12-31 深圳市安软慧视科技有限公司 静态物体区域内检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
KR101640875B1 (ko) 2016-07-19
KR20150013756A (ko) 2015-02-05
CN104364824A (zh) 2015-02-18
US20150125032A1 (en) 2015-05-07
TWI509569B (zh) 2015-11-21
TW201415417A (zh) 2014-04-16

Similar Documents

Publication Publication Date Title
WO2013187047A1 (ja) 物体検出装置
JP4572583B2 (ja) 撮像装置
US8830338B2 (en) Imaging device
JP5624809B2 (ja) 画像信号処理装置
TWI539227B (zh) 監測方法及攝影機
JP4600684B2 (ja) 撮影装置及び撮影方法
JP2009177472A (ja) 画像処理方法、画像処理装置及び撮像装置
US9001266B2 (en) Imaging device and light emission amount control method of the same
US10237488B2 (en) Image capturing apparatus and image capturing method
JP2009017474A (ja) 画像処理装置および画像処理方法
US20200154087A1 (en) Image processing apparatus, imaging system, recording medium, and control method
JP2014017114A (ja) 照明システム
CN102413280A (zh) 摄像设备及其控制方法
US8477212B2 (en) Camera device, exposure control method, and program
JP2013096947A (ja) 人センサ及び負荷制御システム
JP2012120132A (ja) 撮像装置およびプログラム
JP2017063245A (ja) 撮像装置
EP2817959B1 (en) Vision system comprising an image sensor and means for analysis and reducing loss of illumination towards periphery of the field of view using multiple frames
CN113452970B (zh) 用于评定夜晚模式图像获得期间的环境光的方法
WO2013114803A1 (ja) 画像処理装置及びその画像処理方法、並びにコンピュータ・プログラム、および画像処理システム
JP6593753B2 (ja) 照度取得装置、照明制御システムおよびプログラム
JP2010004543A (ja) 撮像装置
JP6256137B2 (ja) センサ装置及びセンサ装置を用いる制御システム
JP4523629B2 (ja) 撮像装置
JP4586548B2 (ja) 物体検出装置および物体検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13803806

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20147034834

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14407929

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13803806

Country of ref document: EP

Kind code of ref document: A1