WO2016051634A1 - 検出結果出力方法、検出結果出力装置及び検出結果表示システム - Google Patents

検出結果出力方法、検出結果出力装置及び検出結果表示システム Download PDF

Info

Publication number
WO2016051634A1
WO2016051634A1 PCT/JP2015/003594 JP2015003594W WO2016051634A1 WO 2016051634 A1 WO2016051634 A1 WO 2016051634A1 JP 2015003594 W JP2015003594 W JP 2015003594W WO 2016051634 A1 WO2016051634 A1 WO 2016051634A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection result
detection
distance information
result output
specific substance
Prior art date
Application number
PCT/JP2015/003594
Other languages
English (en)
French (fr)
Inventor
一寛 柳
祐二 寺島
啓二 平田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2016051634A1 publication Critical patent/WO2016051634A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated

Definitions

  • This disclosure detects specific substances (such as water) that have spilled or dropped on the floor surface of a room or passage in various facilities such as office buildings, hospitals, nursing homes, hotels, and factories, and outputs the results.
  • the present invention relates to a detection result output method, a detection result output device, and a detection result display system.
  • a technology for obtaining a two-dimensional moisture distribution of a measurement object using near infrared rays and a technology for detecting a road surface state using a laser beam have been devised.
  • a moisture measuring method and measuring device described in Patent Document 1 there is a moisture measuring method and measuring device described in Patent Document 1
  • a road surface monitoring system described in Patent Document 2 there is a road surface monitoring system described in Patent Document 2.
  • the moisture measurement method and measurement apparatus described in Patent Document 1 image a measurement object with measurement light in the absorption wavelength band of water in the near infrared region reflected or transmitted by the measurement object. Then, for each of the plurality of pixels constituting the two-dimensional image, the measurement image data corresponding to the brightness of the image is stored, and the non-absorption wavelength band of water in the near infrared region reflected or transmitted by the measurement object The measurement object is imaged with the comparative light. Further, the comparison image data corresponding to the brightness of the image is stored for each of the plurality of pixels constituting the two-dimensional image, and then the moisture of the measurement object is stored for each pixel from the stored measurement image data and the comparison image data. Ask.
  • the road surface monitoring system described in Patent Document 2 includes a laser light transmitter that emits laser light, a laser light receiver that receives reflected light from the road surface of the laser light emitted from the laser light transmitter,
  • the laser beam receiving apparatus has a data processing unit that performs light reception signal processing and image data analysis.
  • the laser beam transmitter irradiates multiple surfaces with multiple and different wavelength laser beams to irradiate the road surface, and the laser beam receiver converts the reflected laser beam for surface irradiation by the laser beam transmitter to continuous spectroscopy and multi-polarization. Receives light when used in combination.
  • This disclosure is intended to provide a detection result output method, a detection result output device, and a detection result display system that can continuously detect a specific substance to be detected even after detection.
  • the detection result output method of the present disclosure is a detection result output method in a detection result output device that outputs a detection result of a specific substance, and includes a step of detecting a specific substance in a predetermined area at a predetermined time interval, Detecting a foreign substance between the specified specific substance and the detection result output device, and outputting a detection result of the specific substance before the foreign substance is detected when the foreign substance is detected.
  • the detection result output device of the present disclosure is a detection result output device that outputs a detection result of a specific substance, and includes a specific substance detection unit, a foreign matter detection unit, and an output unit.
  • the specific substance detection unit detects a specific substance in a predetermined area at a predetermined time interval.
  • the foreign object detection unit detects a foreign object between the detected specific substance and the detection result output device. When a foreign object is detected, the output unit outputs a detection result of a specific substance before the foreign object is detected.
  • the detection result display system of the present disclosure includes a detection result output device that outputs a detection result of a specific substance, and a display processing unit for displaying the output detection result.
  • the detection result output device includes a specific substance detection unit, a foreign matter detection unit, and an output unit.
  • the specific substance detection unit detects a specific substance in a predetermined area at a predetermined time interval.
  • the foreign object detection unit detects a foreign object between the detected specific substance and the detection result output device. When a foreign object is detected, the output unit outputs a detection result of a specific substance before the foreign object is detected.
  • FIG. 1 is a schematic explanatory diagram of a detection camera according to the present embodiment.
  • FIG. 2 is a block diagram showing in detail the internal configuration of the detection camera according to the present embodiment.
  • FIG. 3 is a block diagram illustrating in detail the internal configuration of the image determination unit of the invisible light sensor unit of the detection camera according to the present embodiment.
  • FIG. 4 is a diagram showing a state of preliminary scanning in the detection camera according to the present embodiment.
  • FIG. 5 is a diagram showing the basic distance information of the video image and the pixels viewed from the detection camera when the preliminary scan is performed in the detection camera according to the present embodiment.
  • FIG. 6 is a diagram illustrating an example in which the detection area of the detection camera according to the present embodiment is set on the floor surface.
  • FIG. 7 is a diagram illustrating an example in which the detection area of the detection camera according to the present embodiment is set on a floor surface with a height difference.
  • FIG. 8 is a diagram illustrating a situation when a person enters the detection area of the detection camera according to the present embodiment.
  • FIG. 9 is a diagram showing a video image when a portion where a person is present is removed from the detection camera according to the present embodiment.
  • FIG. 10 is a diagram showing a state when a puddle can be detected by the interpolation function in the detection camera according to the present embodiment.
  • FIG. 11 is a diagram illustrating a temporal flow of the puddle detection process of the detection camera according to the present embodiment.
  • FIG. 12A is a diagram showing a video image of an example of a situation where a part of the puddle WT1 is hidden by the person HM.
  • FIG. 12B is a diagram illustrating a video image of an example of the result of the puddle detection process of the detection camera 1 when there is no interpolation function.
  • FIG. 13 is a flowchart showing a puddle detection process of the detection camera according to the present embodiment.
  • FIG. 14 is a diagram illustrating a process of updating basic distance information in the detection camera according to the present embodiment.
  • FIG. 15 is a diagram for explaining how the one form of the present disclosure was obtained.
  • FIG. 16 is a diagram for explaining the process of obtaining one embodiment of the present disclosure.
  • FIG. 17 is a diagram for explaining how the one form of the present disclosure was obtained.
  • FIG. 18 is a diagram for explaining how the one form of the present disclosure was obtained.
  • FIG. 19 is a diagram for explaining how the one form of the present disclosure was obtained.
  • FIG. 20 is a diagram for explaining how the one form of the present disclosure was obtained.
  • FIG. 21 is a diagram for explaining how the one form of the present disclosure was obtained.
  • FIG. 15 to FIG. 21 are diagrams for explaining the process of obtaining one form of the present disclosure.
  • FIG. 15 by using near infrared light having a wavelength that is absorbed by water, it is possible to detect the water pool WT1 on the floor surface FL and the water pool WT2 in the first stage of the staircase UP.
  • FIG. 17 even a person HM and a plastic bottle PT containing water are detected (that is, erroneously detected).
  • the presence of the person HM makes it impossible to detect the moisture behind the person HM (that is, the puddle WT2 at the first stage of the stairs UP shown in FIG. 15). .
  • the video image viewed from the detection camera 100 in the case of FIG. 15 is as shown in FIG.
  • the video image viewed from the detection camera 100 in the case of FIG. 17 is as shown in FIG.
  • the water pool WT1 on the floor FL that is not disturbed by the person HM is detected, but the water in the first step of the staircase UP that is behind the person HM.
  • the reservoir WT2 is not detected.
  • FIG. 19 shows a case where there is no distance screening, and since all water-containing substances existing in the detection area (area photographed by the detection camera 100) DA by the detection camera 100 are detected, along with the puddle WT, Three PET bottles PT1 to PT3 are detected. All three PET bottles PT1 to PT3 are falsely detected.
  • the size of the detection area DA is, for example, 10 m in the horizontal direction and 3 m in the vertical direction.
  • the 20 shows a case where there is a distance screening in which the detection area DA of the detection camera 100 is only the distance X or less, and the PET bottles PT1 and PT2 existing below the distance X are detected, but the distance exceeding the distance X The PET bottle PT3 and the puddle WT present in are not detected. In this distance screening, erroneous detection is not lost, and since the maximum angle of view of the detection camera 100 cannot be utilized to the maximum, the puddle WT cannot be detected.
  • FIG. 21 shows a case where there is distance screening in which the detection area DA of the detection camera 100 is only the distance Y and not more than Z, and the PET bottle PT2 existing within the range of the distance Y and not more than Z is detected.
  • the PET bottle PT1 existing at a distance less than the distance Y, the PET bottle PT3 existing at a distance exceeding the distance Z, and the water pool WT are not detected.
  • This distance screening can prevent a certain amount of false detections, but it is never lost. Further, it is necessary to set and confirm the detection area DA when a monitoring device (not shown) including the detection camera 100 is installed.
  • FIG. 1 is a schematic explanatory diagram of a detection camera according to an embodiment of the present disclosure.
  • the detection camera 1 has a configuration including a visible light camera unit VSC and a non-visible light sensor unit NVSS.
  • the visible light camera unit VSC uses a reflected light RV0 with respect to visible light having a predetermined wavelength (for example, 0.4 to 0.7 ⁇ m), for example, in the same manner as an existing surveillance camera.
  • a person HM or an object (not shown) existing in an area to be imaged is imaged.
  • output image data captured by the visible light camera unit VSC is referred to as “visible light camera image data”.
  • the non-visible light sensor unit NVSS has a first projection light LS1 that is non-visible light (for example, infrared rays) having a predetermined wavelength (see below) with respect to a predetermined detection area that is the same as the visible light camera unit VSC. 2 projection light LS2 (hereinafter, projection light LS1, LS2) is projected.
  • the non-visible light sensor unit NVSS uses the reflected lights RV1 and RV2 in which the projection lights LS1 and LS2 are reflected by an object to be detected (a specific substance, for example, a puddle WT), and whether or not a specific substance is detected in the detection area Determine.
  • the specific substance for determining whether or not the non-visible light sensor unit NVSS is detected is, for example, a substance that is difficult to distinguish at first glance in the visible light camera image data of the visible light camera unit VSC.
  • “puddle WT” is taken as an example. explain.
  • the detection camera 1 outputs, to the visible light camera image data captured by the visible light camera unit VSC, output image data (hereinafter referred to as “substance”) corresponding to the determination result of the presence or absence of the detection of a specific substance of the non-visible light sensor unit Display data obtained by synthesizing information on the position image data) or the substance position image data.
  • the output destination of the display data from the detection camera 1 is an external connection device connected to the detection camera 1 via a network (not shown), for example, and is the camera server CS or the communication terminal MT (see FIG. 2).
  • This network may be a wired network (for example, an intranet or the Internet), or may be a wireless network (for example, a wireless LAN (Local Area Network)).
  • FIG. 2 is a block diagram showing in detail the internal configuration of the detection camera 1 according to the present embodiment.
  • the detection camera 1 shown in the figure includes a non-visible light sensor unit NVSS and a visible light camera unit VSC.
  • the non-visible light sensor unit NVSS includes a control unit 11, a projection unit PJ, and an image determination unit JG.
  • the projection unit PJ includes a first projection light source 13, a second projection light source 15, and a projection light source scanning optical unit 17.
  • the image determination unit JG includes an imaging optical unit 21, a light receiving unit 23, a signal processing unit 25, a detection processing unit 27, and a display processing unit 29.
  • the visible light camera unit VSC includes an imaging optical unit 31, a light receiving unit 33, an imaging signal processing unit 35, and a display control unit 37.
  • control part 11 the non-visible light sensor part NVSS, and the visible light camera part VSC will be described in this order.
  • the control unit 11 is configured using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor), and controls operation of each unit of the visible light camera unit VSC and the invisible light sensor unit NVSS. Signal processing for overall control, data input / output processing with other units, data calculation processing, and data storage processing are performed. Moreover, the control part 11 contains the timing control part 11a mentioned later (refer FIG. 3).
  • a CPU Central Processing Unit
  • MPU Micro Processing Unit
  • DSP Digital Signal Processor
  • control unit 11 As an example of the calculation unit acquires information on the detection target distance transmitted by the input operation of the user of the camera server CS or the communication terminal MT, the specific substance that is detected by the invisible light sensor unit NVSS The detection target distance range from the detection camera 1 is calculated, and the acquired detection target distance or the calculated detection target distance range information is set in the signal processing unit 25 or the detection processing unit 27 described later. Moreover, the control part 11 sets the detection threshold value M of the specific substance used as the detection target of the invisible light sensor part NVSS to the detection process part 27 mentioned later. Details of the operation of the control unit 11 will be described later with reference to FIG.
  • the timing control unit 11a controls the projection timing of the first projection light source 13 and the second projection light source 15 in the projection unit PJ. Specifically, the timing controller 11 a sends a light source scanning timing signal TR to the first projection light source 13 and the second projection light source 15 when projecting projection light onto the first projection light source 13 and the second projection light source 15. Output. In addition, the timing controller 11a alternately outputs the light source emission signal RF to the first projection light source 13 or the second projection light source 15 at the start of a predetermined projection cycle.
  • the timing controller 11a outputs the light source emission signal RF to the first projection light source 13 at the start of the odd-numbered projection cycle, and outputs the light source emission signal RF to the second projection light source at the start of the even-numbered projection cycle. 15 is output.
  • the light source emission signal RF is also input to the distance detection / substance detection processing unit 27a of the detection processing unit 27 as a signal (reference signal) indicating the start timing at the time of distance measurement from the detection camera 1 to the specific substance. (See below).
  • the first projection light source 13 is output from the timing control unit 11a every odd-numbered projection cycle (predetermined value).
  • invisible light for example, infrared light
  • a predetermined wavelength for example, 1.1 ⁇ m
  • the projection light LS1 projected from the first projection light source 13 is used for distance measurement from the detection camera 1 to the detected object (specific substance).
  • the projection light LS1 may be used for detection of a specific substance, similarly to the projection light LS2 projected from the second projection light source 15 described later, according to the property of the specific substance to be detected. That is, the detection camera 1 may measure the distance from the detection camera 1 to the specific substance using the projection light LS1 having one type of wavelength, and may further determine whether or not the specific substance is detected. . Thus, the detection camera 1 can realize distance measurement from the detection camera 1 to the specific substance and detection of the specific substance by using the first projection light source 13 having one type of wavelength. Therefore, an increase in manufacturing cost of the detection camera 1 can be suppressed.
  • the presence or absence of detection of a specific substance may be determined by comparing with a predetermined threshold.
  • the predetermined threshold value may be a predetermined value or an arbitrarily set value, and further, a value based on the intensity of reflected light acquired in the absence of the specific substance (for example, the specific substance is A value obtained by adding a predetermined margin to the intensity value of the reflected light acquired in the absence of the reflected light may be used. That is, the presence / absence of detection of a specific substance may be determined by comparing the substance position image data acquired in the absence of the specific substance with the acquired substance position image data.
  • a threshold suitable for the environment in which the detection camera 1 is installed is set as a threshold for detecting the presence or absence of the specific substance. be able to.
  • the second projection light source 15 receives the light source emission signal RF from the timing control unit 11a every even number projection period (predetermined value). Accordingly, invisible light (for example, infrared light) having a predetermined wavelength (for example, 1.45 ⁇ m) is projected (emitted) to a predetermined detection area via the projection light source scanning optical unit 17.
  • the projection light LS2 projected from the second projection light source 15 is used for determining whether or not a specific substance is detected in the detection area of the detection camera 1.
  • the wavelength 1.45 ⁇ m of the projection light LS2 is a wavelength that is suitable when the specific substance to be detected is water (such as water vapor) such as a water pool WT.
  • the detection camera 1 uses the projection light LS1 having the first wavelength and the reflected light RV1 to measure the distance from the detection camera 1 to the specific substance and to detect the specific substance.
  • the reflected light RV1 of the projection light LS1 having the first wavelength is used.
  • the detection camera 1 uses the projection light LS2 having the second wavelength and the reflection light RV2 and the reference data described above, that is, the reflection light RV1 of the projection light LS1 having the first wavelength, to obtain a predetermined value. Whether or not a specific substance is detected in the detection area is determined. Therefore, the detection camera 1 uses the projection light of two different wavelengths and the reflected light thereof in the predetermined detection area by measuring the distance from the detection camera 1 to the specific substance and detecting the specific substance. A specific substance can be detected with high accuracy.
  • the projection light source scanning optical unit 17 outputs the projection light LS1 projected from the first projection light source 13 or the projection light LS2 projected from the second projection light source 15 to a predetermined detection area in the invisible light sensor unit NVSS. Scan dimensionally. Thereby, the image determination unit JG can measure the distance from the detection camera 1 to the specific substance based on the reflected light RV1 reflected by the specific substance, and the projection light LS2 is specific. Based on the reflected light RV2 reflected by the substance and the above-described reflected light RV1, that is, the reflected light RV1 of the projection light LS1 having the first wavelength, whether or not a specific substance is detected in a predetermined detection area can be determined. .
  • FIG. 3 is a block diagram showing in detail the internal configuration of the image determination unit JG of the invisible light sensor unit NVSS of the detection camera 1 according to the present embodiment.
  • the imaging optical unit 21 is configured using, for example, a lens, collects light (for example, reflected light RV1 or reflected light RV2) incident from the outside of the detection camera 1, and collects reflected light RV1 or reflected light RV2.
  • An image is formed on a predetermined imaging surface of the light receiving unit 23.
  • the light receiving unit 23 is an image sensor having a peak of spectral sensitivity with respect to both wavelengths of the projection light LS1 and the projection light LS2.
  • the light receiving unit 23 converts an optical image of the reflected light RV1 or the reflected light RV2 formed on the imaging surface into an electric signal.
  • the output of the light receiving unit 23 is input to the signal processing unit 25 as an electric signal (current signal).
  • the imaging optical part 21 and the light-receiving part 23 have a function as an imaging part in the invisible light sensor part NVSS.
  • the signal processing unit 25 includes an I / V conversion circuit 25a, an amplification circuit 25b, and a comparator / peak hold processing unit 25c.
  • the I / V conversion circuit 25a converts a current signal that is an output signal (analog signal) of the light receiving unit 23 into a voltage signal.
  • the amplifier circuit 25b amplifies the level of the voltage signal that is the output signal (analog signal) of the I / V conversion circuit 25a to a level that can be processed by the comparator / peak hold processing unit 25c.
  • the comparator / peak hold processing unit 25c binarizes the output signal of the amplification circuit 25b according to the comparison result between the output signal (analog signal) of the amplification circuit 25b and a predetermined threshold value, and the distance detection / substance detection processing unit 27a. Output to.
  • the comparator / peak hold processing unit 25c includes an ADC (Analog Digital Converter), detects and holds the peak of the AD (Analog Digital) conversion result of the output signal (analog signal) of the amplifier circuit 25b, and further holds the peak. Is output to the distance detection / substance detection processing unit 27a.
  • the detection processing unit 27 as an example of the detection unit includes a distance detection / substance detection processing unit 27a, a memory 27b, and a detection result filter processing unit 27c.
  • the distance detection / substance detection processing unit 27a is based on the output (binarized signal) from the comparator / peak hold processing unit 25c in the reflected light RV1 of the projection light LS1 having the first wavelength (eg, 1.1 ⁇ m).
  • the distance from the detection camera 1 to a specific substance is measured.
  • the distance detection / substance detection processing unit 27a measures the distance from the detection camera 1 to the specific substance based on the time difference from when the projection light LS1 is projected to when the reflected light RV1 is received.
  • the distance detection / substance detection processing unit 27a determines that the input of the light source emission signal RF from the timing control unit 11a is the projection of the projection light LS1, and outputs the output from the comparator / peak hold processing unit 25c. It is determined that the input time is the time when the reflected light RV1 is received.
  • an output of the comparator / peak hold processing unit 25c for the reflected light RV1 of the projection light LS1 of at least one kind of wavelength is required.
  • the distance detection / substance detection processing unit 27a outputs distance information to the detection result filter processing unit 27c.
  • the distance detection / substance detection processing unit 27a outputs the output (peak information) of the comparator / peak hold processing unit 25c in the reflected light RV1 of the projection light LS1 having the first wavelength and the projection light LS2 having the second wavelength. Based on the output (peak information) of the comparator / peak hold processing unit 25c in the reflected light RV2, whether or not a specific substance is detected in the detection area is determined. Specifically, the distance detection / substance detection processing unit 27a temporarily stores, for example, the output (peak information) of the comparator / peak hold processing unit 25c in the reflected light RV1 of the projection light LS1 having the first wavelength in the memory 27b.
  • the distance detection / substance detection processing unit 27a refers to the memory 27b after the output (peak information) of the comparator / peak hold processing unit 25c in the reflected light RV2 of the projection light LS2 having the second wavelength is obtained. Then, the output (peak information) of the comparator / peak hold processing unit 25c in the reflected light RV1 of the projection light LS1 of the first wavelength in the same line of the detection area and the reflected light RV2 of the projection light LS2 of the second wavelength The output (peak information) of the comparator / peak hold processing unit 25c is compared.
  • the distance detection / substance detection processing unit 27a detects the specific substance in the detection area based on the comparison result for each line of the detection area, that is, the difference in the intensity (amplitude difference) between the reflected light RV1 and the reflected light RV2. The presence or absence of detection can be determined.
  • the distance detection / substance detection processing unit 27a has an amplitude difference between the amplitude VA of the reflected light RV1 of the projection light LS1 having the first wavelength and the amplitude VB of the reflected light RV2 of the projection light LS2 having the second wavelength.
  • the presence / absence of detection of a specific substance in the detection area may be determined according to the comparison between the ratio R of (VA ⁇ VB) and the amplitude VA and a predetermined threshold value M.
  • the distance detection / substance detection processing unit 27a determines whether or not a specific substance is detected in the detection area according to the comparison result between the ratio R between the amplitude difference (VA ⁇ VB) and the amplitude VA and the threshold value M. By determining, the influence of noise (for example, disturbance light) can be eliminated, and whether or not a specific substance is detected can be determined with high accuracy.
  • noise for example, disturbance light
  • the distance detection / substance detection processing unit 27a acquires distance information in a state where there is no foreign substance such as a person HM or an object (for example, a plastic bottle with water) in the detection area, based on a command from the control unit 11. And stored in the memory 27b as basic distance information. Acquisition of basic distance information is performed for all pixels in one frame. That is, basic distance information is acquired for each pixel.
  • control unit 11 gives a command for acquiring basic distance information to the distance detection / substance detection processing unit 27a by an input operation of the user of the camera server CS or the communication terminal MT.
  • the distance detection / substance detection processing unit 27a After acquiring the basic distance information, the distance detection / substance detection processing unit 27a detects the presence or absence of a water pool WT, which is a specific substance in the detection area, according to a command from the control unit 11. It should be noted that the predetermined time interval for detecting the presence or absence of the water pool WT may be a fixed interval or may not be a fixed interval. In addition, the process for detecting the presence or absence of the puddle WT is not triggered by the command from the control unit 11 but may be triggered by the command from the outside. It may be triggered by detection of an object (for example, a person). When the distance detection / substance detection processing unit 27a detects the presence or absence of a puddle WT, which is a specific substance, in the detection area, the detection result is stored in the memory 27b.
  • the distance detection / substance detection processing unit 27a acquires the current distance information in the detection area according to a command from the control unit 11 after acquiring the basic distance information.
  • the current distance information is also obtained for all the pixels in one frame in the same manner as the acquisition of the basic distance information.
  • the acquisition of the current distance information is preferably performed for all pixels in one frame, but can be performed for a plurality of pixels.
  • the distance detection / substance detection processing unit 27a obtains the current distance information and compares it with the basic distance information stored in the memory 27b. This comparison is performed for each pixel. When it is determined that the current distance information is equal to the basic distance information, the distance detection / substance detection processing unit 27a updates and outputs the detection result stored in the memory 27b with the current detection result, and the current distance information is the basic information. If it is determined that it is not equal to the distance information, the detection result stored in the memory 27b is output as the current detection result.
  • the case where the current distance information and the basic distance information are not equal is a case where there is a foreign object such as a person HM or an object (for example, a plastic bottle containing water). Since this foreign substance is located closer to the visible light camera unit VSC than the water reservoir WT, which is a specific substance, the current distance information and the basic distance information are not equal.
  • the basic distance information may be acquired by using a pre-stored information other than the detection camera 1 itself, or may acquire basic distance information sent from the outside. Good.
  • the distance detection / substance detection processing unit 27a corresponds to a specific substance detection unit, a foreign matter detection unit, and an output unit.
  • the memory 27b is configured using, for example, a RAM (Random Access Memory), and temporarily stores the output (peak information) of the comparator / peak hold processing unit 25c in the reflected light RV1 of the projection light LS1 having the first wavelength. To do.
  • the detection result filter processing unit 27c is configured to detect the detection camera in the detection area based on the output of the distance detection / substance detection processing unit 27a and information on a predetermined detection target distance or detection target distance range specified by the control unit 11. Information on a specific substance whose distance from 1 is within the detection target distance or the detection target distance range is filtered and extracted.
  • the display processing unit 29 uses the output of the detection result filter processing unit 27c as an example of information regarding a specific substance whose distance from the detection camera 1 in the detection area is within the detection target distance or the detection target distance range. Substance position image data indicating the position of a specific substance in a detection area for each distance from the camera 1 is generated. The display processing unit 29 outputs material position image data including information on the distance from the detection camera 1 to the specific material to the display control unit 37 of the visible light camera unit VSC.
  • the imaging optical unit 31 is configured using, for example, a lens, and collects incident light from the outside (for example, reflected light RV ⁇ b> 0 that is visible light) having an angle of view within the detection area of the detection camera 1.
  • the reflected light RV0 is imaged on a predetermined imaging surface of the light receiving unit 33.
  • the light receiving unit 33 is an image sensor having a peak of spectral sensitivity with respect to the wavelength of visible light (for example, 0.4 ⁇ m to 0.7 ⁇ m).
  • the light receiving unit 33 converts an optical image formed on the imaging surface into an electric signal.
  • the output of the light receiving unit 33 is input to the imaging signal processing unit 35 as an electrical signal.
  • the imaging optical unit 31 and the light receiving unit 33 have a function as an imaging unit in the visible light camera unit VSC.
  • the imaging signal processing unit 35 generates visible light image data defined by RGB (Red Green Blue) or YUV (luminance / color difference) that can be recognized by a person using the electrical signal that is the output of the light receiving unit 33. . Thereby, visible light image data captured by the visible light camera unit VSC is formed. The imaging signal processing unit 35 outputs visible light image data to the display control unit 37.
  • RGB Red Green Blue
  • YUV luminance / color difference
  • the display control unit 37 as an example of the combining unit uses the visible light image data output from the imaging signal processing unit 35 and the material position image data output from the display processing unit 29 to make a specific substance visible light.
  • display data obtained by synthesizing the visible light image data and the substance position image data is generated as an example of information on a specific substance.
  • the display control unit 37 uses visible light image data and a substance position image as an example of information about the specific substance. Display data that is combined with the data is generated.
  • the display control unit 37 transmits display data to, for example, the camera server CS or the communication terminal MT connected via a network to prompt display.
  • control unit 11 may change the detection target distance or the detection target distance range as an example of the set distance information set in the detection processing unit 27.
  • the change of the detection target distance range may be automatically performed by the control unit 11 or may be performed at an arbitrary timing by the user using the communication terminal MT or the like.
  • an appropriate detection target distance or detection target distance range can be set according to the environment in which the detection camera 1 is installed.
  • the set distance information is, for example, a detection target distance set in advance in the detection result filter processing unit 27c of the detection processing unit 27.
  • the camera server CS as an example of the input unit transmits the display data output from the display control unit 37 to the communication terminal MT or one or more external connection devices (not shown), and the communication terminal MT or one or more external devices Prompts display of display data on the display screen of the connected device.
  • the communication terminal MT as an example of the input unit is a portable communication terminal used by an individual user, for example.
  • the communication terminal MT receives display data transmitted from the display control unit 37 via a network (not shown), and communicates with the communication terminal MT. Display data is displayed on an MT display screen (not shown).
  • the detection camera 1 performs a scan for distance measurement in the absence of foreign matter in the detection area DA, and acquires and stores basic distance information for all pixels in one frame.
  • FIG. 4 is a diagram showing a state of a preliminary scan for obtaining basic distance information. As shown in the figure, a preliminary scan is performed with no foreign matter in the detection area DA. This preliminary scan is performed when there is no person HM such as early morning or late night.
  • FIG. 5 is a diagram showing the basic distance information of the video image and pixels viewed from the detection camera 1 when the preliminary scan is performed.
  • the basic distance information in the pixel “X: 1, Y: 1” is “Range L1m”
  • the basic distance information in the pixel “X: 2, Y: 1” is “Range L2m”.
  • the basic distance information in the pixel “X: 2, Y: 1” is “Range L2m”.
  • the detection camera 1 After detecting the basic distance information, the detection camera 1 performs a scan for detecting a puddle WT and a distance measurement.
  • the detection result is stored in the memory 27b and output to the display processing unit 29 in the detection camera 1.
  • the puddle WT may be an actual puddle, or may be a person HM or a plastic bottle PT containing water. Therefore, the detection camera 1 determines whether or not it is an actual puddle by comparing the current current distance information with the basic distance information. This comparison is also performed for all pixels.
  • the detection camera 1 excludes the detection data of the pixel if there is a pixel of the current distance information that is out of the basic distance information in the comparison of all the pixels of the basic distance information and the current distance information. In this case, since the puddle WT has a slight depth or thickness, the puddle WT is also excluded as it is because of the depth or thickness. Therefore, a margin based on the pixel distance in consideration of the depth or thickness of the puddle WT is given to the basic distance information, and this is used as the detection area DA. By setting only the floor surface FL as a detection target in the detection area DA, it is possible to reliably detect only the water pool WT. FIG.
  • FIG. 6 is a diagram showing an example in which a detection area DA obtained by giving a margin based on a pixel distance in consideration of the depth or thickness of the puddle WT to the basic distance information is set on the floor surface FL.
  • a detection area DA obtained by giving a margin based on a pixel distance in consideration of the depth or thickness of the puddle WT to the basic distance information is set on the floor surface FL.
  • the water pool WT in the detection area DA set on the floor surface FL is detected, but none of the PET bottles PT1, PT2 outside the detection area DA is detected.
  • the detection area DA can be used even when the floor surface FL has a height difference.
  • FIG. 7 is a diagram illustrating an example in which the detection area is set on a floor surface with a height difference.
  • FIG. 8 is a diagram showing a state when a person HM enters the detection area DA.
  • the person HM since the distance from the detection camera 1 to the person HM is shorter than the basic distance, the person HM is excluded as a foreign object.
  • the portion 50 where the person HM was present is omitted and displayed.
  • FIG. 9 is a diagram illustrating a video image viewed from the detection camera 1 when the portion 50 where the person HM was present is removed. As shown in the figure, the portion 50 where the person HM was present is omitted and displayed.
  • the detection camera 1 according to the present embodiment has an interpolation function for interpolating a portion from which foreign matter is missing.
  • This interpolation function replaces the latest image data (for example, image data one frame before) that matches the basic distance information.
  • image data for example, image data one frame before
  • FIG. 10 is a diagram showing a state when the water pool WT2 can be detected by the interpolation function. Note that the latest image data for several frames is stored in the memory 27b as interpolation data.
  • FIG. 11 is a diagram showing a temporal flow of the puddle detection process of the detection camera 1 according to the present embodiment.
  • AE, AG, AK, and AQ in FIG. 11 show a temporal flow of an example of an actual situation
  • BE, BG, BK, and BQ indicate the detection camera 1.
  • This shows the temporal flow of the water pool detection process.
  • CE, CG, CK, and CQ indicate the result of the puddle detection process of the detection camera 1.
  • AE, AG, AK, and AQ in FIG. 11 a person HM enters the detection area DA and proceeds to a place where there is a puddle WT1.
  • the detection camera 1 determines that the person HM is a foreign object, and corresponds to the person HM as shown in BE of FIG. Exclude the part to be. As a result, the actual output image becomes an image in which no person HM exists, as indicated by CE in FIG.
  • the detection camera 1 replaces it with the latest image data (for example, image data one frame before) that matches the basic distance information, as shown by BG in FIG.
  • the image at the time of actual output becomes an image in which the entire puddle WT1 can be seen as shown by CG in FIG.
  • the detection camera 1 is replaced with the latest image data (for example, image data one frame before) that matches the basic distance information, as shown by BQ in FIG.
  • the image at the time of actual output becomes an image in which the entire puddle WT2 can be seen as shown by CQ in FIG.
  • FIG. 13 is a flowchart showing a water pool detection process of the detection camera 1 according to the present embodiment.
  • the flowchart shown in the figure focuses on interpolation processing.
  • the detection camera 1 performs distance measurement with no foreign matter in the detection area DA, acquires distance information (basic distance) for each pixel of one frame, and stores it in the memory 27b. Further, the detection camera 1 detects a water pool in the detection area DA, and stores the detection result in the interpolation buffer (memory 27b) (step S1).
  • the detection camera 1 acquires and stores the basic distance, and further stores the substance detection information, then starts substance detection monitoring, and starts capturing an image in units of frames (step S2).
  • step S3 When the detection camera 1 captures the image of the first frame, the detection camera 1 acquires the distance of the first pixel, and determines whether or not the acquisition distance is substantially equal to the basic distance (step S3).
  • the substance detection result stored in the interpolation buffer is updated (step S4), and the acquisition distance is the basic distance.
  • step S5 replacement is performed with the interpolation buffer information (that is, replacement with image data of several frames before) (step S5).
  • steps 7-1 and 7-2 the processing from step S3 to step S5 is repeated for all the pixels after the second pixel, and after all the pixels are processed, the substance detection result is output ( Step S6), the process ends.
  • the detection camera 1 when a foreign matter having the same quality as water such as the person HM is detected, the detection result of the water pool WT before the foreign matter is detected is output. Even after detection of the pool WT, the water pool WT can be continuously detected.
  • the basic distance information is not updated. However, when the current distance information is not equal to the basic distance information, the basic distance information May be updated periodically. In this way, the latest basic distance information can be obtained periodically.
  • FIG. 14 is a diagram showing a process of updating basic distance information.
  • the detection area DA based on the basic distance information obtained by distance measurement in the presence of the obstacle FB does not change unless distance measurement is performed again even if the obstacle FB is removed.
  • the water pool WT cannot be accurately detected. Therefore, when the current distance information is not equal to the basic distance information, when a certain period of time has elapsed, the distance is measured again to acquire and update the basic distance information, so that only the puddle WT can be reliably detected without erroneous detection. Can be detected.
  • the basic distance information is updated for each pixel.
  • the basic distance information is updated irregularly (manually) when the current distance information is not equal to the basic distance information after a certain time has elapsed. Also good. By doing so, the latest basic distance information can be obtained irregularly.
  • the basic distance information is updated if no movement is detected for a certain time. May be. In this way, the latest basic distance information can be obtained when no movement is detected for a certain period of time.
  • the detection camera 1 when the current distance information is not equal to the basic distance information, when the same distance information has been acquired for a certain time or longer, the basic distance information is updated. You may do it. In this way, the latest basic distance information can be obtained when the same distance information is acquired for a certain time or longer.
  • the present disclosure has an effect that even if a foreign substance is present in a detection region in which a specific substance is to be detected, only the specific substance to be detected can be reliably detected. It can be applied to surveillance camera systems used in various facilities such as hospitals, nursing homes, hotels and factories.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

 検出結果出力方法では、最初に人物等の水と同質の異物が存在しない状態での基本距離情報を取得して保持し、水溜りを検出した場合にはその検出結果を保持する。また現時点での現在距離情報を取得して基本距離情報と比較し、現在距離情報と基本距離情報とが等しい場合、保持している検出結果を現在の検出結果で更新する。現在距離情報と基本距離情報が等しくない場合、保持している検出結果を現在の検出結果として出力する。

Description

検出結果出力方法、検出結果出力装置及び検出結果表示システム
 本開示は、オフィスビル、病院、介護施設、ホテル、工場等の各種施設における室内や通路の床面上にこぼれた、あるいは落ちた特定の物質(水等)を検出し、その結果を出力する検出結果出力方法、検出結果出力装置及び検出結果表示システムに関する。
 近赤外線を利用して測定対象物の2次元的な水分分布を求める技術や、レーザ光を利用して道路の路面状態を検知する技術が案出されている。前者の一例として、特許文献1に記載された水分測定方法及び測定装置があり、後者の一例として、特許文献2に記載された路面モニタリングシステムがある。
 特許文献1に記載された水分測定方法及び測定装置は、測定対象物において反射又は透過された近赤外領域にある水の吸収波長帯の測定光によって測定対象物を撮像する。そして、その2次元画像を構成する複数の画素毎に、画像の明暗に応じた測定画像データを記憶すると共に、測定対象物において反射又は透過された近赤外領域にある水の非吸収波長帯の比較光により測定対象物を撮像する。さらに、その2次元画像を構成する複数の画素毎に、画像の明暗に応じた比較画像データを記憶し、その後、記憶した測定画像データと比較画像データとから画素毎に測定対象物の水分を求める。
 特許文献2に記載された路面モニタリングシステムは、レーザ光を出射するレーザ光発信装置と、該レーザ光発信装置から出射されたレーザ光の路面からの反射光を受光するレーザ光受信装置と、該レーザ光受信装置が受光を信号の処理及び画像データの解析を行うデータ処理部を有する。レーザ光発信装置は、多数かつ異波長のレーザ光を多重照射して路面に対し面照射を行い、レーザ光受信装置は、レーザ光発信装置による面照射に対する反射レーザ光を連続分光かつ多偏光との併用により受光する。
特開平4-328449号公報 特開2007-316049号公報
 ところで、特定の物質として例えば水の場合、水に吸収される波長の近赤外線を用いることで、それを検出して、その結果を出力することが可能であるが、障害物や人物等の異物の陰に隠れた場合には検出することができなくなる。すなわち、検出対象の特定の物質を継続して検出し続けることができないという課題がある。
 本開示は、検出対象の特定の物質を検出した場合、検出後も継続して検出し続けることができる検出結果出力方法、検出結果出力装置及び検出結果表示システムを提供することを目的とする。
 本開示の検出結果出力方法は、特定の物質の検出結果を出力する検出結果出力装置における検出結果出力方法であって、所定のエリアにおける特定の物質を所定の時間間隔で検出するステップと、検出された特定の物質と検出結果出力装置との間における異物を検出するステップと、異物が検出される場合、異物が検出される前の特定の物質の検出結果を出力するステップと、を有する。
 本開示の検出結果出力装置は、特定の物質の検出結果を出力する検出結果出力装置であって、特定物質検出部と、異物検出部と、出力部とを有する。特定物質検出部は、所定のエリアにおける特定の物質を所定の時間間隔で検出する。異物検出部は、検出された特定の物質と検出結果出力装置との間における異物を検出する。異物が検出される場合、出力部は、異物が検出される前の特定の物質の検出結果を出力する。
 本開示の検出結果表示システムは、特定の物質の検出結果を出力する検出結果出力装置と、出力される検出結果を表示するための表示処理部と、を含む。検出結果出力装置は、特定物質検出部と、異物検出部と、出力部とを有する。特定物質検出部は、所定のエリアにおける特定の物質を所定の時間間隔で検出する。異物検出部は、検出された特定の物質と検出結果出力装置との間における異物を検出する。異物が検出される場合、出力部は、異物が検出される前の特定の物質の検出結果を出力する。
 本開示によれば、特定の物質を検出した場合に、検出後も継続して検出し続けることができる。
図1は、本実施の形態に係る検出カメラの概要説明図である。 図2は、本実施の形態に係る検出カメラの内部構成を詳細に示すブロック図である。 図3は、本実施の形態に係る検出カメラの非可視光センサ部の画像判定部の内部構成を詳細に示すブロック図である。 図4は、本実施の形態に係る検出カメラにおける予備スキャンの様子を示す図である。 図5は、本実施の形態に係る検出カメラにおいて予備スキャンが行われたときの検出カメラから見た映像イメージと画素の基本距離情報を示す図である。 図6は、本実施の形態に係る検出カメラの検出エリアを床面に設定した一例を示す図である。 図7は、本実施の形態に係る検出カメラの検出エリアを高低差のある床面に設定した一例を示す図である。 図8は、本実施の形態に係る検出カメラの検出エリアに人物が入ってきたときの様子を示す図である。 図9は、本実施の形態に係る検出カメラにおいて人物の存在していた部分が抜かれた場合の映像イメージを示す図である。 図10は、本実施の形態に係る検出カメラにおいて補間機能により水溜りが検出できるようになったときの様子を示す図である。 図11は、本実施の形態に係る検出カメラの水溜り検出処理の時間的流れを示す図である。 図12Aは、水溜りWT1の一部が人物HMで隠された状況の例の映像イメージを示す図である。 図12Bは、補間機能が無い場合の検出カメラ1の水溜り検出処理結果の例の映像イメージを示す図である。 図13は、本実施の形態に係る検出カメラの水溜り検出処理を示すフローチャートである。 図14は、本実施の形態に係る検出カメラにおける基本距離情報の更新過程を示す図である。 図15は、本開示の一形態を得るに至った経緯を説明するための図である。 図16は、本開示の一形態を得るに至った経緯を説明するための図である。 図17は、本開示の一形態を得るに至った経緯を説明するための図である。 図18は、本開示の一形態を得るに至った経緯を説明するための図である。 図19は、本開示の一形態を得るに至った経緯を説明するための図である。 図20は、本開示の一形態を得るに至った経緯を説明するための図である。 図21は、本開示の一形態を得るに至った経緯を説明するための図である。
 以下、本開示を実施するための好適な実施の形態について、図面を参照して詳細に説明する。
 まず、本開示の一形態を得るに至った経緯について説明する。図15~図21は、本開示の一形態を得るに至った経緯を説明するための図である。図15に示すように、水に吸収される波長の近赤外線を用いることで、床面FL上にある水溜りWT1や階段UPの1段目にある水溜りWT2を検出することができる。しかしながら、図17に示すように、人物HMや水の入ったペットボトルPTまでも検出してしまう(即ち、誤検出してしまう)。また、図17に示すように、人物HMが存在することで、それの陰に位置する水分(すなわち、図15に示す階段UPの1段目にある水溜りWT2)を検出することができなくなる。
 図15の場合の検出カメラ100から見た映像イメージは、図16に示すようになる。図15の場合は異物が存在していないので、床面FL上にある水溜りWT1と階段UPの1段目にある水溜りWT2は共に検出される。一方、図17の場合の検出カメラ100から見た映像イメージは、図18に示すようになる。図17の場合は異物である人物HMが存在するので、人物HMに邪魔されない床面FL上にある水溜りWT1は検出されるが、人物HMの陰になる階段UPの1段目にある水溜りWT2は検出されない。
 上述した異物による誤検出を低減させる方法として、距離によるスクリーニングがある。図19は、距離スクリーニング無しの場合を示し、検出カメラ100による検出エリア(検出カメラ100で撮影される領域)DA内に存在する全ての水を含む物質を検出することから、水溜りWTとともに、3個のペットボトルPT1~PT3が検出される。3個のペットボトルPT1~PT3は全て誤検出である。なお、検出エリアDAの大きさは、例えば横方向が10m、縦方向が3mである。図20は、検出カメラ100の検出エリアDAを距離X以下のみとした距離スクリーニング有りの場合を示しており、距離X以下に存在するペットボトルPT1,PT2は検出されるが、距離Xを超える距離に存在するペットボトルPT3と水溜りWTは検出されない。この距離スクリーニングでは、誤検出は無くならず、また検出カメラ100の最大画角を最大活用することができないことから、水溜りWTを検出できない。
 図21は、検出カメラ100の検出エリアDAを距離Y以上、Z以下のみとした距離スクリーニング有りの場合を示しており、距離Y以上、Z以下の範囲内に存在するペットボトルPT2は検出されるが、距離Y未満の距離に存在するペットボトルPT1及び距離Zを超える距離に存在するペットボトルPT3と水溜りWTは検出されない。この距離スクリーニングでは、ある程度の誤検出は防げるが、全く無くなることはない。また、検出カメラ100を含む監視装置(不図示)の設置時に検出エリアDAの設定及び確認が必要である。
 以上のように、距離によるスクリーニングを行うことである程度の誤検出を防ぐことはできるが、完全ではない。
 以下、特定の物質を検出しようとする検出領域内に異物が存在した場合であっても、検出対象となる特定の物質のみ確実に検出することができる検出結果出力方法について説明する。
 図1は、本開示の一実施の形態に係る検出カメラの概要説明図である。同図において、検出カメラ1は、可視光カメラ部VSCと、非可視光センサ部NVSSとを含む構成である。可視光カメラ部VSCは、例えば既存の監視カメラと同様に、所定の波長(例えば0.4~0.7μm)を有する可視光に対する反射光RV0を用いて、所定の検出エリア(検出カメラ1で撮影される領域(実際は、可視光カメラ部VSCで撮影される領域))に存在する人物HMや物体(不図示)を撮像する。以下、可視光カメラ部VSCにより撮像された出力画像データを、「可視光カメラ画像データ」という。
 非可視光センサ部NVSSは、可視光カメラ部VSCと同一の所定の検出エリアに対して、所定の波長(後述参照)を有する非可視光(例えば赤外線)である第1の投射光LS1、第2の投射光LS2(以下、投射光LS1、LS2)を投射する。非可視光センサ部NVSSは、投射光LS1,LS2が被検出物(特定の物質、例えば水溜りWT)により反射された反射光RV1,RV2を用いて、検出エリアにおける特定の物質の検出の有無を判定する。非可視光センサ部NVSSが検出の有無を判定する特定の物質は、例えば可視光カメラ部VSCの可視光カメラ画像データでは一見判別が困難な物質であり、以下では「水溜りWT」を一例に説明する。
 また、検出カメラ1は、可視光カメラ部VSCが撮像した可視光カメラ画像データに、非可視光センサ部NVSSの特定の物質の検出の有無の判定結果に相当する出力画像データ(以下、「物質位置画像データ」という)又は物質位置画像データに関する情報を合成した表示データを生成して出力する。検出カメラ1からの表示データの出力先は、例えばネットワーク(不図示)を介して検出カメラ1に接続された外部接続機器であり、カメラサーバCS又は通信端末MTである(図2参照)。このネットワークは、有線ネットワーク(例えば、イントラネット、インターネット)でも良いし、無線ネットワーク(例えば無線LAN(Local Area Network)でも良い。
 図2は、本実施の形態に係る検出カメラ1の内部構成を詳細に示すブロック図である。同図に示す検出カメラ1は、非可視光センサ部NVSSと、可視光カメラ部VSCとを含む構成である。非可視光センサ部NVSSは、制御部11と、投射部PJと、画像判定部JGとを含む構成である。投射部PJは、第1投射光源13と、第2投射光源15と、投射光源走査用光学部17とを有する。画像判定部JGは、撮像光学部21と、受光部23と、信号加工部25と、検出処理部27と、表示処理部29とを有する。可視光カメラ部VSCは、撮像光学部31と、受光部33と、撮像信号処理部35と、表示制御部37とを有する。
 検出カメラ1の各部の説明では、制御部11、非可視光センサ部NVSS、可視光カメラ部VSCの順に説明する。
 制御部11は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成され、可視光カメラ部VSCや非可視光センサ部NVSSの各部の動作制御を全体的に統括するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。また、制御部11は、後述するタイミング制御部11aを含む(図3参照)。
 算出部の一例としての制御部11は、カメラサーバCS又は通信端末MTのユーザの入力操作により送信された検出対象距離の情報を取得すると、非可視光センサ部NVSSが検出対象とする特定の物質の検出カメラ1からの検出対象距離範囲を算出し、取得された検出対象距離又は算出された検出対象距離範囲の情報を後述する信号加工部25又は検出処理部27に設定する。また、制御部11は、非可視光センサ部NVSSの検出対象となる特定の物質の検出閾値Mを後述する検出処理部27に設定する。制御部11の動作の詳細については、図4以降の図を参照して後述する。
 タイミング制御部11a(図3参照)は、投射部PJにおける第1投射光源13及び第2投射光源15の投射タイミングを制御する。具体的には、タイミング制御部11aは、第1投射光源13及び第2投射光源15に投射光を投射させる場合に、光源走査用タイミング信号TRを第1投射光源13及び第2投射光源15に出力する。また、タイミング制御部11aは、所定の投射周期の開始時に、光源発光信号RFを第1投射光源13又は第2投射光源15に交互に出力する。具体的には、タイミング制御部11aは、奇数番目の投射周期の開始時に光源発光信号RFを第1投射光源13に出力し、偶数番目の投射周期の開始時に光源発光信号RFを第2投射光源15に出力する。なお、光源発光信号RFは、検出カメラ1から特定の物質までの距離の測距時の開始タイミングを示す信号(リファレンス信号)として、検出処理部27の距離検出/物質検出処理部27aにも入力される(後述参照)。
 次に、非可視光センサ部NVSSの各部について説明する。
 図2において、第1投射光源13は、制御部11のタイミング制御部11aから光源走査用タイミング信号TRが出力された後、奇数番目の投射周期(所定値)毎に、タイミング制御部11aからの光源発光信号RFに応じて、所定の波長(例えば、1.1μm)を有する非可視光(例えば、赤外光)を、投射光源走査用光学部17を介して、所定の検出エリアに投射(出射)する。本実施の形態では、第1投射光源13から投射された投射光LS1は、検出カメラ1から被検出物(特定の物質)までの測距に用いられる。
 但し、投射光LS1は、検出対象の特定の物質の性質に応じて、後述する第2投射光源15から投射された投射光LS2と同様に、特定の物質の検出用に用いられても良い。即ち、検出カメラ1は、1種類の波長を有する投射光LS1を用いて、検出カメラ1から特定の物質までの距離を測距し、更に、特定の物質の検出の有無を判定しても良い。これにより、検出カメラ1は、検出カメラ1から特定の物質までの距離の測距と特定の物質の検出とを、1種類の波長を有する第1投射光源13を用いることで実現できる。従って、検出カメラ1の製造コストアップの抑制が可能となる。
 なお、特定の物質の検出の有無は、所定の閾値と比較することで判断してもよい。この所定の閾値は、予め決められた値でもよく、任意に設定された値でもよく、更に、特定の物質が無い状態で取得した反射光の強度を基にした値(例えば、特定の物質が無い状態で取得した反射光の強度の値に所定のマージンを加えた値)でもよい。即ち、特定の物質の検出の有無は、特定の物質が無い状態で取得した物質位置画像データと、その後取得した物質位置画像データとを比較することで、判断されてもよい。このように、特定の物質が無い状態における反射光の強度を取得しておくことで、特定の物質の有無を検出するための閾値として、検出カメラ1の設置された環境に適する閾値を設定することができる。
 第2投射光源15は、制御部11のタイミング制御部11aから光源走査用タイミング信号TRが出力された後、偶数番目の投射周期(所定値)毎に、タイミング制御部11aからの光源発光信号RFに応じて、所定の波長(例えば1.45μm)を有する非可視光(例えば赤外光)を、投射光源走査用光学部17を介して、所定の検出エリアに投射(出射)する。本実施の形態では、第2投射光源15から投射された投射光LS2は、検出カメラ1の検出エリアにおける特定の物質の検出の有無の判定に用いられる。投射光LS2の波長1.45μmは、検出対象の特定の物質が水溜りWTのような水分(水蒸気も同様)である場合に好適な波長である。
 これにより、検出カメラ1は、第1の波長を有する投射光LS1及びその反射光RV1を用いて、検出カメラ1から特定の物質までの距離を測距するとともに、特定の物質を検出するための参照データとして、第1の波長を有する投射光LS1の反射光RV1を用いる。更に、検出カメラ1は、第2の波長を有する投射光LS2及びその反射光RV2と、上述した参照データ、即ち、第1の波長を有する投射光LS1の反射光RV1とを用いて、所定の検出エリアにおける特定の物質の検出の有無を判定する。従って、検出カメラ1は、検出カメラ1から特定の物質までの距離の測距と特定の物質の検出とに異なる2種類の波長の投射光及びその反射光を用いることで、所定の検出エリアにおける特定の物質を高精度に検出できる。
 投射光源走査用光学部17は、非可視光センサ部NVSSにおける所定の検出エリアに対し、第1投射光源13から投射された投射光LS1又は第2投射光源15から投射された投射光LS2を2次元的に走査する。これにより、画像判定部JGは、投射光LS1が特定の物質により反射された反射光RV1を基に、検出カメラ1から特定の物質までの距離を測距でき、更に、投射光LS2が特定の物質により反射された反射光RV2と上述した反射光RV1、即ち、第1の波長を有する投射光LS1の反射光RV1とを基に、所定の検出エリアにおける特定の物質の検出の有無を判定できる。
 次に、画像判定部JGの内部構成について、図2及び図3を参照して詳細に説明する。
 図3は、本実施の形態に係る検出カメラ1の非可視光センサ部NVSSの画像判定部JGの内部構成を詳細に示すブロック図である。同図において、撮像光学部21は、例えばレンズを用いて構成され、検出カメラ1の外部から入射する光(例えば反射光RV1又は反射光RV2)を集光し、反射光RV1又は反射光RV2を受光部23の所定の撮像面に結像させる。受光部23は、投射光LS1及び投射光LS2の両方の波長に対する分光感度のピークを有するイメージセンサである。受光部23は、撮像面に結像した反射光RV1又は反射光RV2の光学像を電気信号に変換する。受光部23の出力は、電気信号(電流信号)として信号加工部25に入力される。なお、撮像光学部21及び受光部23は、非可視光センサ部NVSSにおける撮像部としての機能を有する。
 信号加工部25は、I/V変換回路25aと、増幅回路25bと、コンパレータ/ピークホールド処理部25cとを有する。I/V変換回路25aは、受光部23の出力信号(アナログ信号)である電流信号を電圧信号に変換する。増幅回路25bは、I/V変換回路25aの出力信号(アナログ信号)である電圧信号のレベルを、コンパレータ/ピークホールド処理部25cにおいて処理可能なレベルまで増幅する。コンパレータ/ピークホールド処理部25cは、増幅回路25bの出力信号(アナログ信号)と所定の閾値との比較結果に応じて、増幅回路25bの出力信号を2値化して距離検出/物質検出処理部27aに出力する。また、コンパレータ/ピークホールド処理部25cは、ADC(Analog Digital Converter)を含み、増幅回路25bの出力信号(アナログ信号)のAD(Analog Digital)変換結果のピークを検出して保持し、更に、ピークの情報を距離検出/物質検出処理部27aに出力する。
 検出部の一例としての検出処理部27は、距離検出/物質検出処理部27aと、メモリ27bと、検出結果フィルタ処理部27cとを有する。距離検出/物質検出処理部27aは、第1の波長(例えば1.1μm)を有する投射光LS1の反射光RV1におけるコンパレータ/ピークホールド処理部25cからの出力(2値化信号)を基に、検出カメラ1から特定の物質までの距離を測距する。具体的には、距離検出/物質検出処理部27aは、投射光LS1の投射時から反射光RV1の受光時までの時間差を基に、検出カメラ1から特定の物質までの距離を測距する。
 図3に戻り、距離検出/物質検出処理部27aは、タイミング制御部11aからの光源発光信号RFの入力時を投射光LS1の投射時と判定し、コンパレータ/ピークホールド処理部25cからの出力の入力時を反射光RV1の受光時と判定する。距離検出/物質検出処理部27aは、例えば距離を、「距離=光速度×(時間差/2)」として算出することで、検出カメラ1から特定の物質までの距離を簡易に得られる。距離検出/物質検出処理部27aにおける距離の測距には、少なくとも1種類の波長の投射光LS1の反射光RV1におけるコンパレータ/ピークホールド処理部25cの出力が必要となる。距離検出/物質検出処理部27aは、距離の情報を検出結果フィルタ処理部27cに出力する。
 また、距離検出/物質検出処理部27aは、第1の波長の投射光LS1の反射光RV1におけるコンパレータ/ピークホールド処理部25cの出力(ピークの情報)と、第2の波長の投射光LS2の反射光RV2におけるコンパレータ/ピークホールド処理部25cの出力(ピークの情報)とを基に、検出エリアにおける特定の物質の検出の有無を判定する。具体的には、距離検出/物質検出処理部27aは、例えば第1の波長の投射光LS1の反射光RV1におけるコンパレータ/ピークホールド処理部25cの出力(ピークの情報)をメモリ27bに一時的に保存し、次に、第2の波長の投射光LS2の反射光RV2におけるコンパレータ/ピークホールド処理部25cの出力(ピークの情報)が得られるまで待機する。距離検出/物質検出処理部27aは、第2の波長の投射光LS2の反射光RV2におけるコンパレータ/ピークホールド処理部25cの出力(ピークの情報)が得られた後、メモリ27bを参照する。そして、検出エリアの同一ラインにおける第1の波長の投射光LS1の反射光RV1におけるコンパレータ/ピークホールド処理部25cの出力(ピークの情報)と、第2の波長の投射光LS2の反射光RV2におけるコンパレータ/ピークホールド処理部25cの出力(ピークの情報)とを比較する。
 例えば水溜りWTが存在する場所では、第2の波長(例えば1.45μm)の投射光LS2が吸収されるので、反射光RV1又は反射光RV2の強度(振幅)が減衰する。従って、距離検出/物質検出処理部27aは、検出エリアのライン毎の比較結果、即ち反射光RV1及び反射光RV2の各強度の差分(振幅の差分)を基に、検出エリアにおける特定の物質の検出の有無を判定することができる。
 なお、距離検出/物質検出処理部27aは、第1の波長を有する投射光LS1の反射光RV1の振幅VAと、第2の波長を有する投射光LS2の反射光RV2の振幅VBとの振幅差分(VA-VB)と振幅VAとの比Rと所定の閾値Mとの大小の比較に応じて、検出エリアにおける特定の物質の検出の有無を判定しても良い。このように、距離検出/物質検出処理部27aは、振幅差分(VA-VB)と振幅VAとの比Rと閾値Mとの比較結果に応じて、検出エリアにおける特定の物質の検出の有無を判定することで、ノイズ(例えば外乱光)の影響を排除でき、特定の物質の検出の有無を高精度に判定することができる。
 また、距離検出/物質検出処理部27aは、制御部11からの指令により、検出エリア内において人物HMや物体(例えば、水の入ったペットボトル)等の異物が無い状態での距離情報を取得し、基本距離情報としてメモリ27bに保存する。基本距離情報の取得は、1フレームの全画素について行われる。即ち、画素毎に基本距離情報が取得される。
 なお、基本距離情報の取得は、1フレームの全画素で行うことが好ましいが、複数画素でも可能である。制御部11は、カメラサーバCS又は通信端末MTのユーザの入力操作により基本距離情報を取得するための指令を距離検出/物質検出処理部27aに与える。
 距離検出/物質検出処理部27aは、基本距離情報を取得した後、制御部11からの指令により、検出エリア内における特定の物質である水溜りWTの有無を所定の時間間隔で検出する。なお、水溜りWTの有無を検出する所定の時間間隔は、一定間隔でもよいし、一定間隔でなくてもよい。また、水溜りWTの有無を検出するための処理のきっかけは、制御部11から指令が来たこをきっかけとするのではなく、外部からの指令が来たことをきっかけとしてもよいし、他のもの(例えば、人物)の検出をきっかけとしてもよい。距離検出/物質検出処理部27aは、検出エリア内に特定の物質である水溜りWTの有無を検出すると、その検出結果をメモリ27bに保存する。
 距離検出/物質検出処理部27aは、基本距離情報の取得後、制御部11からの指令により検出エリア内において現在距離情報を取得する。現在距離情報も前述した基本距離情報の取得と同様に1フレームの全画素について行われる。なお、現在距離情報の取得は、1フレームの全画素で行うことが好ましいが、複数画素でも可能である。
 距離検出/物質検出処理部27aは、現在距離情報を取得した後、メモリ27bに保存している基本距離情報と比較する。この比較は、画素毎に行われる。距離検出/物質検出処理部27aは、現在距離情報が基本距離情報と等しいと判定した場合、メモリ27bに保存されている検出結果を現在の検出結果で更新して出力し、現在距離情報が基本距離情報と等しくないと判定した場合、メモリ27bに保存されている検出結果を現在の検出結果として出力する。
 ここで、現在距離情報と基本距離情報が等しくない場合とは、人物HMや物体(例えば、水の入ったペットボトル)等の異物が存在する場合である。この異物は、特定の物質である水溜りWTよりも可視光カメラ部VSCに近い位置にあるため、現在距離情報と基本距離情報が等しくなくなる。
 なお、基本距離情報の取得は、検出カメラ1自身で取得する以外に、予め保持されたものを使用するようにしてもよいし、外部から送られてくる基本距離情報を取得するようにしてもよい。
 また、現在距離情報と基本距離情報が等しくなくて、メモリ27bに保存されている検出結果を現在の検出結果として出力する場合、距離が等しくない全ての画素についてのみ、保存されている検出結果の対応する画素で置き換えることも可能である。
 また、距離検出/物質検出処理部27aは、特定物質検出部、異物検出部及び出力部に対応する。
 メモリ27bは、例えばRAM(Random Access Memory)を用いて構成され、第1の波長を有する投射光LS1の反射光RV1におけるコンパレータ/ピークホールド処理部25cの出力(ピークの情報)を一時的に保存する。検出結果フィルタ処理部27cは、距離検出/物質検出処理部27aの出力と、制御部11から指定された所定の検出対象距離又は検出対象距離範囲の情報とを基に、検出エリア内の検出カメラ1からの距離が検出対象距離又は検出対象距離範囲内である特定の物質に関する情報をフィルタリングして抽出する。検出結果フィルタ処理部27cは、検出エリア内における抽出結果に関する情報を表示処理部29に出力する。例えば、検出結果フィルタ処理部27cは、検出エリアの床(距離=L0)における特定の物質の検出結果に関する情報を表示処理部29に出力する。
 表示処理部29は、検出結果フィルタ処理部27cの出力を用いて、検出エリア内の検出カメラ1からの距離が検出対象距離又は検出対象距離範囲内である特定の物質に関する情報の一例として、検出カメラ1からの距離毎の検出エリアにおける特定の物質の位置を示す物質位置画像データを生成する。表示処理部29は、検出カメラ1から特定の物質までの距離の情報を含む物質位置画像データを可視光カメラ部VSCの表示制御部37に出力する。
 次に、可視光カメラ部VSCの各部について説明する。
 図2において、撮像光学部31は、例えばレンズを用いて構成され、検出カメラ1の検出エリア内を画角とする外部からの入射光(例えば可視光である反射光RV0)を集光し、反射光RV0を受光部33の所定の撮像面に結像させる。受光部33は、可視光の波長(例えば0.4μm~0.7μm)に対する分光感度のピークを有するイメージセンサである。受光部33は、撮像面に結像した光学像を電気信号に変換する。受光部33の出力は、電気信号として撮像信号処理部35に入力される。なお、撮像光学部31及び受光部33は、可視光カメラ部VSCにおける撮像部としての機能を有する。
 撮像信号処理部35は、受光部33の出力である電気信号を用いて、人が認識可能なRGB(Red Green Blue)又はYUV(輝度・色差)等により規定される可視光画像データを生成する。これにより、可視光カメラ部VSCにより撮像された可視光画像データが形成される。撮像信号処理部35は、可視光画像データを表示制御部37に出力する。
 合成部の一例としての表示制御部37は、撮像信号処理部35から出力された可視光画像データと、表示処理部29から出力された物質位置画像データとを用いて、特定の物質が可視光画像データの所定の位置で検出された場合に、特定の物質に関する情報の一例として、可視光画像データと物質位置画像データとを合成した表示データを生成する。
 また、表示制御部37は、検出カメラ1から特定の物質までの距離が検出対象距離又は検出対象距離範囲内である場合に、特定の物質に関する情報の一例として、可視光画像データと物質位置画像データとを合成した表示データを生成する。表示制御部37は、表示データを、例えばネットワークを介して接続されたカメラサーバCS又は通信端末MTに送信して表示を促す。
 また、制御部11は、検出処理部27において設定された設定距離情報の一例としての検出対象距離、又は検出対象距離範囲を変更しても良い。この検出対象距離範囲の変更は、制御部11が自動的に行ってもよいし、ユーザが通信端末MTなどを利用して、任意のタイミングで行ってもよい。これにより、検出カメラ1が設置された環境に応じて、適切な検出対象距離又は検出対象距離範囲を設定することができる。なお、設定距離情報とは、例えば検出処理部27の検出結果フィルタ処理部27cにおいて予め設定された検出対象距離である。
 また、基本距離情報と取得距離情報のズレを許容するマージンの設定、基本距離を更新する時間の設定、を変更できる。
 入力部の一例としてのカメラサーバCSは、表示制御部37から出力された表示データを通信端末MT又は1つ以上の外部接続機器(不図示)に送信し、通信端末MT又は1つ以上の外部接続機器の表示画面における表示データの表示を促す。入力部の一例としての通信端末MTは、例えばユーザ個人が用いる携帯用の通信用端末であり、ネットワーク(不図示)を介して、表示制御部37から送信された表示データを受信し、通信端末MTの表示画面(不図示)に表示データを表示させる。
 次に、本実施の形態に係る検出カメラ1の水溜り検出処理の概要を説明する。
 まず、検出カメラ1は、検出エリアDA内に異物が無い状態で測距するためのスキャンを行い、1フレームの全画素について基本距離情報を取得し保存する。図4は、基本距離情報取得のための予備スキャンの様子を示す図である。同図に示すように、検出エリアDA内に異物が無い状態で予備スキャンを行う。この予備スキャンは、例えば早朝・深夜など人物HMのいないときに行われる。図5は、予備スキャンが行われたときの検出カメラ1から見た映像イメージと画素の基本距離情報を示す図である。同図において、「X:1,Y:1」の画素における基本距離情報が「Range L1m」、「X:2,Y:1」の画素における基本距離情報が「Range L2m」となっている。このように予備スキャンでは、検出エリアDA内に異物が無い状態で、1フレームの全画素について基本距離情報を取得する。取得した基本距離情報は検出カメラ1内のメモリ27bに保存される。
 検出カメラ1は、基本距離情報を取得した後、水溜りWTを検出するためと測距するためのスキャンを行う。1フレーム分のスキャンを終えると、水溜りWTを検出できた場合、その検出結果をメモリ27bに保存するとともに検出カメラ1内の表示処理部29へ出力する。この場合、水溜りWTは実際の水溜りであることもあれば、人物HMや水の入ったペットボトルPTであることもある。そこで、検出カメラ1は、現時点での現在距離情報を基本距離情報と比較することで、実際の水溜りであるかどうか判定する。この比較においても全画素について行われる。
 検出カメラ1は、基本距離情報と現在距離情報の全画素の比較において、基本距離情報から外れる現在距離情報の画素があれば、その画素の検出データを除外する。この場合、水溜りWTには僅かではあるが深さまたは厚みがあるので、その深さまたは厚みがある分、そのままでは水溜りWTも除外されてしまう。そこで、基本距離情報に水溜りWTの深さまたは厚みを考慮した画素距離によるマージンを与えて、それを検出エリアDAとする。この検出エリアDAで床面FLのみを検出対象とすることで、水溜りWTのみを確実に検出することが可能となる。図6は、基本距離情報に水溜りWTの深さまたは厚みを考慮した画素距離によるマージンを与えて得られた検出エリアDAを床面FLに設定した一例を示す図である。同図に示すように、床面FLに設定された検出エリアDA内の水溜りWTは検出されるが、検出エリアDA外のペットボトルPT1,PT2はいずれも検出されない。なお、検出エリアDAは、床面FLに高低差がある場合にも対応可能である。図7は、検出エリアを高低差のある床面に設定した一例を示す図である。
 このようにして、異物が無いときの基本距離情報と現在距離情報との比較を全画素について行うことで、人物HMやペットボトルPT等を誤検出することなく、水溜りWTのみを確実に検出することが可能となる。なお、距離情報以外で、異物を検出する又は異物を排除する方法として、「音を使用する方法」、「画像を比較する方法」、「温度を利用する方法」、「動きを検知する方法」、「顔を認識する方法」が挙げられるが、実施可能な方法は、「画像を比較する方法」と「動きを検知する方法」が常識である。これらの距離情報以外を用いた方法において異物を検出した場合、上述したように過去の検出結果が出力される。
 図8は、検出エリアDAに人物HMが入ってきたときの様子を示す図である。同図において、検出カメラ1から人物HMまでの距離は基本距離よりも短くなるので、人物HMは異物として除外される。人物HMが除外されることで、その人物HMが存在していた部分50が抜けて表示される。図9は、人物HMが存在していた部分50が抜かれた場合の検出カメラ1から見た映像イメージを示す図である。同図に示すように、人物HMが存在していた部分50が抜けて表示される。本実施の形態に係る検出カメラ1では、異物が抜けた部分を補間する補間機能を有している。この補間機能は、基本距離情報と合致していた最新の画像データ(例えば、1フレーム前の画像データ)に置き換えるものである。この場合、過去の画像データに水溜りWT2があれば、水溜りWT2に対応する画像データを使用することも勿論可能である。過去の画像データを用いることで、人物HMが存在するようになったことで検出されなくなった水溜りWT2を再度検出できるようになる。図10は、補間機能により水溜りWT2が検出できるようになったときの様子を示す図である。なお、数フレーム分の最新の画像データは、補間用のデータとしてメモリ27bに保存される。
 図11は、本実施の形態に係る検出カメラ1の水溜り検出処理の時間的流れを示す図である。図11のA―E、A-G、A-K及びA-Qは実際の状況の一例の時間的流れを示し、B―E、B-G、B-K及びB-Qは検出カメラ1の水溜り検出処理の時間的流れを示している。また、C―E、C-G、C-K及びC-Qは検出カメラ1の水溜り検出処理結果を示している。図11のA―E、A-G、A-K及びA-Qに示すように、検出エリアDA内に人物HMが入ってきて、水溜りWT1がある所まで進行し、その後、階段UPのある方向へ進行し、階段UPの1段目にある水溜りWT2まで来ている。図11のA―Eに示すように、人物HMが検出エリアDA内に入ることで、検出カメラ1が人物HMを異物と判定し、図11のB―Eに示すように、人物HMに対応する部分を除外する。これにより、実際の出力時のイメージは、図11のC―Eに示すように、人物HMが存在しないイメージとなる。
 図11のA-Gに示すように、人物HMが水溜りWT1の前に来ると、水溜りWT1の人物HMで隠された部分の画素における現在距離情報が基本距離情報と異なることになるので、検出カメラ1は、図11のB-Gに示すように、基本距離情報と合致していた最新の画像データ(例えば、1フレーム前の画像データ)に置き換える。これにより、実際の出力時のイメージは、図11のC-Gに示すように、水溜りWT1の全体が見えるイメージとなる。
 図11のA-Kに示すように、人物HMが階段UPに向かう途中では、水溜りWT1,WT2のいずれも現在距離情報と基本距離情報が等しくなるので、検出カメラ1は、図11のB-Kに示すように、現時点で取得したフレームの画像データを表示する。これにより、実際の出力時のイメージは、図11のC-Kに示すように、水溜りWT1,WT2の両方が見える最新のイメージとなる。
 図11のA-Qに示すように、人物HMが階段UPの水溜りWT2の前に来ると、人物HMで隠された水溜りWT2の全画素における現在距離情報が基本距離情報と異なることになるので、検出カメラ1は、図11のB-Qに示すように、基本距離情報と合致していた最新の画像データ(例えば、1フレーム前の画像データ)に置き換える。これにより、実際の出力時のイメージは、図11のC-Qに示すように、水溜りWT2の全体が見えるイメージとなる。
 図11に示す処理では補間機能を実行することから、人物HMが水溜りWT1の前に来ても水溜りWT1の人物HMで隠された部分が基本距離情報と合致していた最新の画像データに置き換わるので、水溜りWT1の全体が見えるイメージとなる。しかしながら、補間機能を持たなければ、図12Aに示す水溜りWT1の一部が人物HMで隠された状況の例(図11のA-Gと同じ)を水溜り検出処理した結果は、図11のC-Gとは異なる結果となる。すなわち、図12Bに示す補間機能が無い場合の検出カメラ1の水溜り検出処理結果の例のように、水溜りWT1のうち人物HMで隠された部分が欠けた映像イメージとなる。
 図13は、本実施の形態に係る検出カメラ1の水溜り検出処理を示すフローチャートである。同図に示すフローチャートは、補間処理に注目したものである。まず、検出カメラ1は、検出エリアDA内に異物が無い状態で測距を行い、1フレームの画素毎について距離情報(基本距離)を取得しメモリ27bに保存する。また、検出カメラ1は、検出エリアDA内の水溜りの検出を行い、その検出結果を補間バッファ(メモリ27b)に保存する(ステップS1)。検出カメラ1は、基本距離を取得して保存し、さらに物質検出情報を保存した後、物質検出監視を開始し、フレーム単位で画像の取り込みを開始する(ステップS2)。検出カメラ1は、最初のフレームの画像の取り込みを行うと、1画素目の距離を取得し、この取得距離が基本距離と略等しいかどうか判定する(ステップS3)。取得距離が基本距離と略等しいと判定した場合(ステップS3で「Yes(Y)」と判定した場合)、補間バッファに保存した物質検出結果を更新し(ステップS4)、取得距離が基本距離と等しくはないと判定した場合(ステップS3で「No(N)」と判定した場合)、補間バッファ情報にて置換(即ち、何フレームか前の画像データに置換)する(ステップS5)。ステップ7-1、7-2に示すように2画素目以降の全ての画素に対してステップS3~ステップS5の処理を繰り返し行い、全画素について処理を行った後、物質検出結果を出力し(ステップS6)、本処理を終える。
 このように本実施の形態に係る検出カメラ1によれば、人物HM等の水と同質の異物を検出した場合に、該異物を検出する前の水溜りWTの検出結果を出力するので、水溜りWTの検出後も継続して該水溜りWTを検出し続けることができる。
 なお、本実施の形態に係る検出カメラ1では、基本距離情報を更新するようにはしていないが、現在距離情報が基本距離情報と等しくない場合が一定時間以上経過した際は、基本距離情報を定期的に更新するようにしても良い。このようにすることで、定期的に最新の基本距離情報を得ることができる。
 図14は、基本距離情報の更新過程を示す図である。同図に示すように、障害物FBが存在する状態で測距して得られた基本距離情報に基づく検出エリアDAは、当該障害物FBが取り除かれても再度測距をしない限り変化しない。このままでは、水溜りWTを正確に検出することができなくなる。そこで、現在距離情報が基本距離情報と等しくない場合が一定時間以上経過した際に、再度測距して基本距離情報を取得して更新することで、誤検出することなく水溜りWTのみを確実に検出することができる。このとき、基本距離情報の更新は、画素毎に実施される。
 また、本実施の形態に係る検出カメラ1において、現在距離情報が基本距離情報と等しくない場合が一定時間以上経過した際は、基本距離情報を不定期的に(手動で)更新するようにしても良い。このようにすることで、不定期的に最新の基本距離情報を得ることができる。
 また、本実施の形態に係る検出カメラ1において、現在距離情報が基本距離情報と等しくない場合が一定時間以上経過した際は、一定時間以上動きを検知しない場合、基本距離情報を更新するようにしても良い。このようにすることで、一定時間以上動きを検知しない場合に最新の基本距離情報を得ることができる。
 また、本実施の形態に係る検出カメラ1において、現在距離情報が基本距離情報と等しくない場合が一定時間以上経過した際は、一定時間以上同じ距離情報を取得する場合、基本距離情報を更新するようにしても良い。このようにすることで、一定時間以上同じ距離情報を取得する場合に最新の基本距離情報を得ることができる。
 本開示は、特定の物質を検出しようとする検出領域内に異物が存在した場合であっても、検出対象となる特定の物質のみ確実に検出することができるといった効果を有し、オフィスビル、病院、介護施設、ホテル、工場等の各種施設で用いられる監視カメラシステムへの適用が可能である。
1,100 検出カメラ
11 制御部
11a タイミング制御部
13 第1投射光源
15 第2投射光源
17 投射光源走査用光学部
21,31 撮像光学部
23,33 受光部
25 信号加工部
25a I/V変換回路
25b 増幅回路
25c コンパレータ/ピークホールド処理部
27 検出処理部
27a 距離検出/物質検出処理部
27b メモリ
27c 検出結果フィルタ処理部
29 表示処理部
35 撮像信号処理部
37 表示制御部
50 人物HMが存在していた部分
CS カメラサーバ
HM 人物
JG 画像判定部
LS1 第1の投射光(投射光)
LS2 第2の投射光(投射光)
MT 通信端末
NVSS 非可視光センサ部
PJ 投射部
TR 光源走査用タイミング信号
RF 光源発光信号
RV0,RV1,RV2 反射光
VSC 可視光カメラ部
WT,WT1,WT2 水溜り
DA 検出エリア
FL 床面
UP 階段
PT,PT1,PT2,PT3 ペットボトル

Claims (10)

  1.  特定の物質の検出結果を出力する検出結果出力装置における検出結果出力方法であって、
     所定のエリアにおける前記特定の物質を所定の時間間隔で検出するステップと、
     検出された前記特定の物質と前記検出結果出力装置との間における異物を検出するステップと、
     前記異物が検出される場合、前記異物が検出される前の前記特定の物質の検出結果を出力するステップと、
     を有する検出結果出力方法。
  2.  請求項1に記載の検出結果出力方法であって、
     前記検出結果出力装置からの距離情報を取得し、前記距離情報に基づいて前記異物を検出する、
     検出結果出力方法。
  3.  請求項2に記載の検出結果出力方法であって、
     異物が無い状態での前記検出結果出力装置からの基本距離情報を入力するステップと、
     前記検出結果を予め保持するステップと、
     現時点での前記検出結果出力装置からの現在距離情報を取得するステップと、
     前記現在距離情報が前記基本距離情報と等しくない場合、保持されている前記検出結果を現在の検出結果として出力するステップと、
     を有する検出結果出力方法。
  4.  請求項3に記載の検出結果出力方法であって、
     前記現在距離情報が前記基本距離情報と等しくない場合、保持されている前記検出結果を現在の検出結果として出力するステップは、複数画素について実行する検出結果出力方法。
  5.  請求項3に記載の検出結果出力方法であって、
     前記現在距離情報が前記基本距離情報と等しくない場合が一定時間以上経過した際は、前記基本距離情報を定期的に更新する検出結果出力方法。
  6.  請求項3に記載の検出結果出力方法であって、
     前記現在距離情報が前記基本距離情報と等しくない場合が一定時間以上経過した際は、前記基本距離情報を不定期的に更新する検出結果出力方法。
  7.  請求項3に記載の検出結果出力方法であって、
     前記現在距離情報が前記基本距離情報と等しくない場合が一定時間以上経過した際は、一定時間以上動きを検知しない場合、前記基本距離情報を更新する検出結果出力方法。
  8.  請求項3に記載の検出結果出力方法であって、
     前記現在距離情報が前記基本距離情報と等しくない場合が一定時間以上経過した際は、一定時間以上同じ距離情報を取得する場合、前記基本距離情報を更新する検出結果出力方法。
  9.  特定の物質の検出結果を出力する検出結果出力装置であって、
     所定のエリアにおける前記特定の物質を所定の時間間隔で検出する特定物質検出部と、
     検出された前記特定の物質と前記検出結果出力装置との間における異物を検出する異物検出部と、
     前記異物が検出される場合、前記異物が検出される前の前記特定の物質の検出結果を出力する出力部と、
     を備える検出結果出力装置。
  10.  特定の物質の検出結果を出力する検出結果出力装置と、出力される前記検出結果を表示するための表示処理部と、を含む検出結果表示システムであって、
     前記検出結果出力装置は、
     所定のエリアにおける前記特定の物質を所定の時間間隔で検出する特定物質検出部と、
     検出された前記特定の物質と前記検出結果出力装置との間における異物を検出する異物検出部と、
     前記異物が検出される場合、前記異物が検出される前の前記特定の物質の検出結果を出力する出力部と、
     を備える検出結果表示システム。
PCT/JP2015/003594 2014-09-30 2015-07-16 検出結果出力方法、検出結果出力装置及び検出結果表示システム WO2016051634A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014201882A JP2016070826A (ja) 2014-09-30 2014-09-30 検出結果出力方法、検出結果出力装置及び検出結果表示システム
JP2014-201882 2014-09-30

Publications (1)

Publication Number Publication Date
WO2016051634A1 true WO2016051634A1 (ja) 2016-04-07

Family

ID=55629714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/003594 WO2016051634A1 (ja) 2014-09-30 2015-07-16 検出結果出力方法、検出結果出力装置及び検出結果表示システム

Country Status (2)

Country Link
JP (1) JP2016070826A (ja)
WO (1) WO2016051634A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6383376B2 (ja) 2016-03-31 2018-08-29 株式会社Subaru 周辺リスク表示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55147377A (en) * 1979-05-07 1980-11-17 Sumitomo Electric Ind Ltd Road surface state detector
JPH04328449A (ja) * 1991-04-26 1992-11-17 Kao Corp 水分測定方法および測定装置
JP2000284063A (ja) * 1999-03-29 2000-10-13 Nec Corp 路面状況推定装置
JP2003050198A (ja) * 2001-08-03 2003-02-21 Omron Corp 路面判別装置及び路面判別センサ
JP2011247633A (ja) * 2010-05-24 2011-12-08 Nippon Telegr & Teleph Corp <Ntt> 動体検知装置及び動体検知方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55147377A (en) * 1979-05-07 1980-11-17 Sumitomo Electric Ind Ltd Road surface state detector
JPH04328449A (ja) * 1991-04-26 1992-11-17 Kao Corp 水分測定方法および測定装置
JP2000284063A (ja) * 1999-03-29 2000-10-13 Nec Corp 路面状況推定装置
JP2003050198A (ja) * 2001-08-03 2003-02-21 Omron Corp 路面判別装置及び路面判別センサ
JP2011247633A (ja) * 2010-05-24 2011-12-08 Nippon Telegr & Teleph Corp <Ntt> 動体検知装置及び動体検知方法

Also Published As

Publication number Publication date
JP2016070826A (ja) 2016-05-09

Similar Documents

Publication Publication Date Title
JP6635382B2 (ja) 画像出力装置、画像出力方法及び画像出力システム
TWI580273B (zh) 監視系統
JP6468509B2 (ja) 物質検出センサ、物質検出方法及び物質検出システム
US20160247375A1 (en) Fire Detection Apparatus Utilizing A Camera
JP4460782B2 (ja) 侵入監視装置
JPH10227609A (ja) 屋外用距離計測装置
JP4316629B2 (ja) 画像処理システム、画像取得方法及びプログラム
CN102004078B (zh) 基于目标的烟雾检测的系统和方法
US20160307424A1 (en) Smoke Detection System and Method Using a Camera
JP5065744B2 (ja) 個体検出器
JPWO2018042481A1 (ja) 撮影装置及び撮影方法
US20160142691A1 (en) Image processing apparatus, image projection system, image processing method, and computer program product
JP4692437B2 (ja) 監視カメラ装置
JP6189284B2 (ja) 画像センシング装置
WO2016051634A1 (ja) 検出結果出力方法、検出結果出力装置及び検出結果表示システム
US20120154583A1 (en) Method and system for monitoring the accessibility of an emergency exit
US9997038B2 (en) Smoke detection apparatus, method for detecting smoke and computer program
JP2006323652A (ja) 防犯センサ
JP2014085124A (ja) レーザ監視方法及びレーザ監視装置
KR20150014717A (ko) 카메라 모듈 결함 판정용 이미지 스테인 검출 방법
KR101799334B1 (ko) 적외선 광원을 활용한 벽 소실 및 칩임 감지 센서부 및 이를 이용한 침입 감지 방법
JP5215707B2 (ja) 煙検出装置
US10067234B2 (en) Projected beam detector with imaging device
US11428576B2 (en) Systems and methods of detecting flame or gas
JP2019079173A (ja) 3次元侵入検知システムおよび3次元侵入検知方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15847317

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15847317

Country of ref document: EP

Kind code of ref document: A1