WO2022176069A1 - 人検出装置、人検出システム及び人検出方法 - Google Patents

人検出装置、人検出システム及び人検出方法 Download PDF

Info

Publication number
WO2022176069A1
WO2022176069A1 PCT/JP2021/005958 JP2021005958W WO2022176069A1 WO 2022176069 A1 WO2022176069 A1 WO 2022176069A1 JP 2021005958 W JP2021005958 W JP 2021005958W WO 2022176069 A1 WO2022176069 A1 WO 2022176069A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
dimensional model
shape
detection means
person detection
Prior art date
Application number
PCT/JP2021/005958
Other languages
English (en)
French (fr)
Inventor
勝広 油谷
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/005958 priority Critical patent/WO2022176069A1/ja
Priority to JP2023500189A priority patent/JPWO2022176069A1/ja
Publication of WO2022176069A1 publication Critical patent/WO2022176069A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms

Definitions

  • the present disclosure relates to a human detection device and the like.
  • Patent Document 1 discloses a technique for monitoring other objects (including people and objects) approaching a specific object in a monitoring target area using LiDAR (Light Detection and Ranging). . That is, in the technique described in Patent Document 1, distance images corresponding to such areas are generated in time series using LiDAR. Movement of individual objects in the area is detected using the generated multiple range images. Based on the result of such detection, other approaching objects are detected as described above (see the abstract of Patent Document 1, paragraphs [0008] to [0010], paragraph [0043], etc.).
  • LiDAR Light Detection and Ranging
  • Patent Document 2 The technology described in Patent Document 2 is also known as a related technology.
  • Patent Document 1 detects movement of an object. In other words, the technique described in Patent Document 1 detects a moving object without distinguishing whether it is a person or an object.
  • discharge area the area where water from the dam is discharged
  • dangerous area the dangerous area
  • the present disclosure has been made to solve the above problems, and aims to provide a human detection device etc. that can accurately detect a person existing in a no-entry area.
  • One form of the human detection device is based on the reflected light corresponding to the laser beam irradiated to the no-entry area in the area where the water of the dam is discharged and the area around it. It comprises three-dimensional model generation means for generating a model, and human detection means for detecting a person in the no-entry area using the three-dimensional model.
  • One form of the human detection system is based on the reflected light corresponding to the laser beam irradiated to the no-entry area in the area where the water of the dam is discharged and the area around it. It comprises three-dimensional model generation means for generating a model, and human detection means for detecting a person in the no-entry area using the three-dimensional model.
  • the three-dimensional model generation means is based on the reflected light corresponding to the laser light irradiated to the no-entry area in the area where the water of the dam is discharged and the surrounding area. a three-dimensional model of the no-entry area is generated, and the human detection means detects a person in the no-entry area using the three-dimensional model.
  • FIG. 1 is a block diagram showing essential parts of the human detection system according to the first embodiment.
  • FIG. 2 is a block diagram showing essential parts of the optical sensing device in the human detection system according to the first embodiment.
  • FIG. 3 is a block diagram showing essential parts of the human detection device according to the first embodiment.
  • FIG. 4 is a block diagram showing the hardware configuration of main parts of the human detection device according to the first embodiment.
  • FIG. 5 is a block diagram showing another hardware configuration of main parts of the human detection device according to the first embodiment.
  • FIG. 6 is a block diagram showing another hardware configuration of main parts of the human detection device according to the first embodiment.
  • FIG. 7 is a flow chart showing the operation of the human detection device according to the first embodiment.
  • FIG. 8 is an explanatory diagram showing a specific example of a no-entry area and the like.
  • FIG. 9 is a block diagram showing essential parts of another human detection system according to the first embodiment.
  • FIG. 10 is a block diagram showing essential parts of another human detection device according to the first embodiment.
  • FIG. 11 is a block diagram showing essential parts of a human detection system according to the second embodiment.
  • FIG. 12 is a block diagram showing essential parts of the human detection device according to the second embodiment.
  • FIG. 13 is a flow chart showing the operation of the human detection device according to the second embodiment.
  • FIG. 1 is a block diagram showing essential parts of the human detection system according to the first embodiment.
  • FIG. 2 is a block diagram showing essential parts of the optical sensing device in the human detection system according to the first embodiment.
  • FIG. 3 is a block diagram showing essential parts of the human detection device according to the first embodiment. A human detection system according to the first embodiment will be described with reference to FIGS. 1 to 3.
  • FIG. 1 is a block diagram showing essential parts of the human detection system according to the first embodiment.
  • FIG. 2 is a block diagram showing essential parts of the optical sensing device in the human detection system according to the first embodiment.
  • FIG. 3 is a block diagram showing essential parts of the human detection device according to the first embodiment.
  • a human detection system according to the first embodiment will be described with reference to FIGS. 1 to 3.
  • the human detection system 100 includes an optical sensing device 1, a human detection device 2 and an output device 3.
  • the optical sensing device 1 includes a light emitting section 11 and a light receiving section 12 .
  • the human detection device 2 includes a three-dimensional model generation section 21 , a human detection section 22 and an output control section 23 .
  • the optical sensing device 1 is installed inside or around the no-entry area.
  • the no-entry area may include the discharge area and may also include the no-entry area.
  • the discharge area is the area where the water of the dam is discharged.
  • the dangerous area is an area around the discharge area that is dangerous when people are present. A specific example of the no-entry area will be described later with reference to FIG.
  • the light emitting section 11 uses, for example, a laser light source.
  • the light emitting unit 11 emits pulsed laser light.
  • the direction in which the laser light is emitted by the light emitting portion 11 is variable.
  • the light emitting section 11 sequentially emits laser light in a plurality of directions.
  • the laser beam is irradiated so as to scan the no-entry area.
  • the irradiated laser light is reflected as scattered light by objects (including people) within the no-entry area.
  • the reflected light may be referred to as "reflected light”.
  • the light receiving section 12 receives the reflected light.
  • the light receiving section 12 uses, for example, a light receiving element.
  • the 3D model generation unit 21 generates a 3D model of the no-entry area based on the laser light emitted by the light emission unit 11 and the reflected light received by the light reception unit 12 . More specifically, the 3D model generator 21 generates a 3D point cloud model corresponding to the shapes of individual objects in the no-entry area.
  • the principle of ToF (Time of Flight) LiDAR is used to generate such a three-dimensional model.
  • the three-dimensional model generation unit 21 acquires information indicating the timing at which the laser light was emitted in each direction and information indicating the timing at which the corresponding reflected light was received. These pieces of information are acquired from the optical sensing device 1, for example. The three-dimensional model generator 21 uses these pieces of information to calculate the one-way propagation distance corresponding to the round-trip propagation time for the laser light emitted in each direction and the corresponding reflected light.
  • the three-dimensional model generation unit 21 calculates coordinate values indicating the position of the point where the laser beam emitted in each direction is reflected. Such coordinate values are coordinate values in a virtual three-dimensional coordinate space. By arranging points corresponding to individual coordinate values in the three-dimensional coordinate space, a three-dimensional point cloud model corresponding to the shapes of individual objects within the no-entry area is generated. A three-dimensional model is thus generated.
  • the human detection unit 22 uses the three-dimensional model generated by the three-dimensional model generation unit 21 to detect a person existing within the no-entry area. More specifically, the human detection unit 22 uses the generated three-dimensional model to determine whether or not each object existing in the no-entry area is a person. Detect people in
  • the three-dimensional model generated by the three-dimensional model generation unit 21 includes three-dimensional point cloud models corresponding to the shapes of individual objects existing within the no-entry area.
  • information (hereinafter referred to as "reference shape information”) indicating the general shape of a person (hereinafter referred to as “reference shape”) is stored in advance in the human detection unit 22.
  • the human detection unit 22 acquires reference shape information.
  • the reference shape information may include information indicating a plurality of reference shapes corresponding to different postures.
  • the reference shape information may include information indicating a plurality of reference shapes corresponding to different line-of-sight directions.
  • the reference shape information may include information indicating a plurality of reference shapes corresponding to different physiques.
  • the human detection unit 22 uses the generated three-dimensional model and the stored or acquired reference shape information to compare the shape of each individual object present in the no-entry area with each reference shape. .
  • the human detection unit 22 determines whether each object is a person by so-called “pattern matching”. Specifically, for example, the human detection unit 22 computes the difference between the shape of each object and each reference shape. For at least one reference shape, when the calculated difference is within a predetermined range, the person detection unit 22 determines that the object is a person. Otherwise, the person detection unit 22 determines that the object is not a person. In this way, a person existing within the no-entry area is detected.
  • the output control unit 23 executes control to output information based on the result of detection by the human detection unit 22 (hereinafter referred to as "detection result information").
  • the detection result information includes, for example, information indicating the presence or absence of a person in the no-entry area and information indicating the position of the person in the no-entry area.
  • the detection result information may include information regarding the person detected by the person detection unit 22 .
  • the output device 3 is used to output the detection result information.
  • the output device 3 includes, for example, at least one of a display device, an audio output device, and a communication device.
  • the display device uses, for example, a display.
  • the audio output device uses, for example, a speaker.
  • a communication device for example, uses a dedicated transmitter and receiver.
  • the output control unit 23 executes control to display an image corresponding to the detection result information.
  • a display device of the output device 3 is used for displaying such an image.
  • such an image may include the 3D model generated by the 3D model generation unit 21 .
  • the output control unit 23 executes control to output a sound corresponding to the detection result information.
  • An audio output device among the output devices 3 is used for outputting such audio.
  • the output control unit 23 executes control to transmit a signal corresponding to the detection result information.
  • a communication device of the output device 3 is used for transmission of such a signal.
  • the dam maintenance management system 200 is a system for dam maintenance management. As shown in FIG. 1 , the dam maintenance management system 200 is provided outside the human detection system 100 . Hereinafter, the dam maintenance management system 200 may be referred to as an "external dam maintenance system".
  • the output detection result information is used by the dam maintenance management system 200 for dam maintenance management. Specifically, for example, the output detection result information is used by the dam maintenance management system 200 to issue an alarm to people present in the no-entry area.
  • the dam maintenance management system 200 when the detection result information indicates that a person exists in the no-entry area, the dam maintenance management system 200 notifies the person of an alarm using speakers installed around the no-entry area. .
  • the dam maintenance management system 200 instructs other persons (for example, the operator of the dam maintenance management system 200) to notify such an alarm. As a result, it is possible to urge people in the no-entry area to evacuate.
  • the information output by the output device 3 to the dam maintenance management system 200 is not limited to detection result information (that is, information about the detected person).
  • the information to be output may include, in addition to the detection result information, information related to no-entry areas, information used for control of notification of the above-mentioned warning, and the like.
  • the main part of the human detection system 100 is configured.
  • the light emitting section 11 may be referred to as “light emitting means”.
  • the light receiving section 12 may be referred to as “light receiving means”.
  • the three-dimensional model generation unit 21 may be referred to as “three-dimensional model generation means”.
  • the human detection unit 22 may be referred to as “human detection means”.
  • the output control unit 23 may be referred to as "output control means”.
  • FIG. 4 the hardware configuration of the main part of the human detection device 2 will be described with reference to FIGS. 4 to 6.
  • the human detection device 2 uses a computer 31.
  • the computer 31 may be provided integrally with the optical sensing device 1 .
  • the computer 31 may be located elsewhere (eg, within a cloud network).
  • some elements of the computer 31 may be provided integrally with the optical sensing device 1, and the remaining elements of the computer 31 may be provided elsewhere.
  • computer 31 includes processor 41 and memory 42 .
  • the memory 42 stores a program for causing the computer 31 to function as the three-dimensional model generation unit 21, the human detection unit 22, and the output control unit 23.
  • FIG. The processor 41 reads and executes programs stored in the memory 42 . Thereby, the function F1 of the three-dimensional model generation unit 21, the function F2 of the human detection unit 22, and the function F3 of the output control unit 23 are realized.
  • computer 31 includes processing circuitry 43 .
  • the processing circuit 43 executes processing for causing the computer 31 to function as the three-dimensional model generation section 21 , the human detection section 22 and the output control section 23 . Thereby, functions F1 to F3 are realized.
  • computer 31 includes processor 41 , memory 42 and processing circuitry 43 .
  • processor 41 processor 41
  • memory 42 memory 42
  • processing circuit 43 processing circuit 43 .
  • some of the functions F1 to F3 are implemented by the processor 41 and the memory 42, and the rest of the functions F1 to F3 are implemented by the processing circuit 43.
  • FIG. 6 shows that some of the functions F1 to F3 are implemented by the processor 41 and the memory 42, and the rest of the functions F1 to F3 are implemented by the processing circuit 43.
  • the processor 41 is composed of one or more processors.
  • the individual processors use, for example, CPUs (Central Processing Units), GPUs (Graphics Processing Units), microprocessors, microcontrollers, or DSPs (Digital Signal Processors).
  • CPUs Central Processing Units
  • GPUs Graphics Processing Units
  • microprocessors microcontrollers
  • DSPs Digital Signal Processors
  • the memory 42 is composed of one or more memories. Individual memories include, for example, RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), hard disk drive, solid state drive, solid state memory Flexible discs, compact discs, DVDs (Digital Versatile Discs), Blu-ray discs, MO (Magneto Optical) discs, or mini discs are used.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), hard disk drive, solid state drive, solid state memory Flexible discs, compact discs, DVDs (Digital Versatile Discs), Blu-ray discs, MO (Magneto Optical) discs, or mini discs are used.
  • the processing circuit 43 is composed of one or more processing circuits. Individual processing circuits use, for example, ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array), SoC (System a Chip), or system LSI (Large Scale) is.
  • ASIC Application Specific Integrated Circuit
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • SoC System a Chip
  • system LSI Large Scale Scale
  • the processor 41 may include a dedicated processor corresponding to each of the functions F1-F3.
  • Memory 42 may include dedicated memory corresponding to each of functions F1-F3.
  • the processing circuitry 43 may include dedicated processing circuitry corresponding to each of the functions F1-F3.
  • the three-dimensional model generation unit 21 generates a three-dimensional model of the no-entry area (step ST1). ToF LiDAR technology is used to generate such a three-dimensional model, as described above.
  • the person detection unit 22 detects a person existing in the no-entry area (step ST2). For such detection, the three-dimensional model generated in step ST1 is used as described above.
  • the output control unit 23 executes control to output information (that is, detection result information) based on the detection result in step ST2 (step ST3).
  • D indicates a dam.
  • Dam D may be a hydroelectric dam.
  • R indicates a river located downstream with respect to the dam D.
  • DD indicates an example of the discharge direction to the river R by the dam D.
  • the optical sensing device 1 is installed at a location near the outlet of dam D (the so-called "spillway" or drain).
  • A1 indicates the range downstream of dam D.
  • the shape of the range A1 is fan-shaped.
  • the central position of the sector corresponds to the installation position of the optical sensing device 1 .
  • a central angle of such a sector is set to a predetermined value (for example, approximately 180 degrees).
  • the radius of such sector is set to a predetermined value (eg, 300 meters). That is, the range A1 corresponds to the range in which the optical sensing device 1 can irradiate the laser beam.
  • A2 indicates a rectangular range inscribed in the sector of range A1. As shown in FIG. 8, the range A2 includes part of the river R and part of the coastal area of the river R (more specifically, both bank areas).
  • the range A2 is set as the no-entry area. That is, in this case, the portion of the river R included in the range A2 is the discharge area. Also, the part included in the range A2 in the coastal area (more specifically, both bank areas) of the river R is the dangerous area.
  • P1 indicates a person who is inside the no-entry area.
  • the detection result information may be used by the dam maintenance management system 200 to notify the person P1 of an alarm.
  • each of S_1, S_2 and S_3 indicates a speaker used for notification of such an alarm.
  • each of P2_1 and P2_2 indicates another person who notifies such an alarm under the direction of the dam maintenance management system 200.
  • the no-entry area is not limited to the example shown in FIG.
  • range A2 inscribed in range A1 may include the estuary of river R.
  • the range A2 can include the coastal area around the estuary. In this case, such a coastal area may be included in the dangerous area.
  • each individual object existing within the no-entry area is a person by pattern matching based on its shape. can be done. Therefore, when each object is a person, regardless of whether the person is stationary or moving, the person can be detected based on the shape of the person at the timing when the laser beam is irradiated. . That is, a person present in the no-entry area can be detected regardless of whether the person is stationary or moving. In other words, such persons can be accurately detected.
  • the light emitting unit 11 and the light receiving unit 12 may be provided in the human detection device 2 instead of being provided in the optical sensing device 1 . That is, the human detection device 2 may include the light emitting section 11 and the light receiving section 12 . In this case, the optical sensing device 1 is unnecessary.
  • the human detection system 100 may include a three-dimensional model generation unit 21 and a human detection unit 22.
  • the three-dimensional model generation unit 21 and the human detection unit 22 may constitute a main part of the human detection system 100 .
  • the optical sensing device 1 may be provided outside the human detection system 100 .
  • the output control unit 23 may be provided outside the human detection system 100 .
  • the output device 3 may be provided outside the human detection system 100 .
  • each of the three-dimensional model generation unit 21 and the human detection unit 22 may be configured by an independent device.
  • the human detection device 2 may include a three-dimensional model generation unit 21 and a human detection unit 22.
  • the three-dimensional model generation unit 21 and the human detection unit 22 may constitute the main part of the human detection device 2 .
  • the output control section 23 may be provided outside the human detection device 2 .
  • the three-dimensional model generation unit 21 generates a three-dimensional model of the no-entry area based on the reflected light corresponding to the laser light irradiated to the no-entry area.
  • the human detection unit 22 uses a three-dimensional model to detect people in the no-entry area.
  • a person present in the no-entry area can be detected regardless of whether such person is stationary or moving. That is, such persons can be accurately detected.
  • FIG. 11 is a block diagram showing essential parts of a human detection system according to the second embodiment.
  • FIG. 12 is a block diagram showing essential parts of the human detection device according to the second embodiment.
  • a human detection system according to the second embodiment will be described with reference to FIGS. 11 and 12.
  • FIG. 11 and 12 blocks similar to those shown in FIGS. 1 to 3 are denoted by the same reference numerals, and description thereof is omitted.
  • the human detection system 100a includes a light sensing device 1, a human detection device 2a and an output device 3.
  • the human detection device 2a includes a three-dimensional model generation section 21, a human detection section 22a, an output control section 23, and a motion detection section .
  • the motion detection unit 24 detects the motion of individual objects existing within the no-entry area based on the laser light emitted by the light emitting unit 11 and the reflected light received by the light receiving unit 12 .
  • the principle of Doppler LiDAR is used for such motion detection.
  • the 3D model generated by the 3D model generation unit 21 includes 3D point cloud models corresponding to the shapes of individual objects existing within the no-entry area.
  • the motion detection unit 24 acquires information indicating frequency components contained in the corresponding laser light and information indicating frequency components contained in the corresponding reflected light for each point in the three-dimensional point cloud model. These pieces of information are acquired from the optical sensing device 1, for example.
  • the motion detector 24 uses this information to calculate the Doppler shift amount in the corresponding reflected light for each object.
  • the Doppler shift amount is based on the frequency of the laser light emitted from the light emitting section 11 . In other words, the Doppler shift amount is based on the difference between the frequency component included in the corresponding laser light and the frequency component included in the corresponding reflected light for each object.
  • the motion detection unit 24 detects the motion of individual objects existing within the no-entry area based on the calculated Doppler shift amount. More specifically, the motion detector 24 detects the direction and speed of such motion. Thereby, the presence or absence of such movement is also detected.
  • Various known techniques can be used for object motion detection based on the principle of Doppler LiDAR. A detailed description of these techniques is omitted.
  • the human detection unit 22a determines whether each object existing in the no-entry area is a person by the same detection method as the detection method by the human detection unit 22 when the object is stationary. judge. That is, the human detection unit 22a compares the shape of the object with the reference shape, and determines whether the object is a person by pattern matching. On the other hand, when such an object is moving, the person detection unit 22a determines whether or not the object is a person as follows.
  • the human detection unit 22a receives information (hereinafter referred to as "reference range information”) indicating a range (hereinafter referred to as “reference range”) that a person can normally take regarding the direction and speed of movement of a person in the no-entry area. ) is stored. Alternatively, the human detection unit 22a acquires reference range information.
  • the reference range information may include information indicating a plurality of reference ranges corresponding to mutually different positions in the no-entry area.
  • the human detection unit 22a uses the stored or acquired reference range information, based on the result of detection by the motion detection unit 24, for a moving object among the objects existing in the no-entry area, It is determined whether or not the movement of the object is within the reference range. If the motion of the object is within the reference range, the human detector 22a determines that the object is a human. On the other hand, if the movement of the object is out of the reference range, the person detection unit 22a determines that the object is not a person. In this way, a person existing within the no-entry area is detected.
  • the human detection unit 22a compares the shape of a moving object among the objects existing in the no-entry area with the reference shape, and determines whether the movement of the object is within the reference range. determine whether or not If the difference between the shape of the object and the reference shape is within a predetermined range and the movement of the object is within the reference range, the human detection unit 22a determines that the object is a person. Otherwise, the person detection unit 22a determines that the object is not a person. In this way, a person existing within the no-entry area is detected.
  • the main part of the human detection system 100a is configured.
  • human detection unit 22a may be referred to as “human detection means”
  • motion detection unit 24 may be referred to as “motion detection means”.
  • the hardware configuration of the main part of the human detection device 2a is the same as that described with reference to FIGS. 4 to 6 in the first embodiment. Therefore, detailed description is omitted.
  • the function F1 of the three-dimensional model generation unit 21, the function F2a of the human detection unit 22a, the function F3 of the output control unit 23, and the function F4 of the motion detection unit 24 are realized by the processor 41 and the memory 42. Also good. Alternatively, the functions F1, F2a, F3, and F4 may be realized by the processing circuit 43. FIG.
  • the processor 41 may include dedicated processors corresponding to each of the functions F1, F2a, F3, and F4.
  • Memory 42 may include dedicated memory corresponding to each of functions F1, F2a, F3, and F4.
  • the processing circuitry 43 may include dedicated processing circuitry corresponding to each of the functions F1, F2a, F3, and F4.
  • the three-dimensional model generation unit 21 generates a three-dimensional model of the no-entry area (step ST1). ToF LiDAR technology is used to generate such a three-dimensional model, as described in the first embodiment.
  • the motion detector 24 detects the motion of each object existing within the entry-prohibited area (step ST4). Such motion detection uses Doppler LiDAR technology, as described above.
  • the human detection unit 22a detects a person existing in the no-entry area (step ST2a).
  • the three-dimensional model generated in step ST1 is used as described in the first embodiment.
  • such detection uses the result of motion detection in step ST4, as described above.
  • the output control unit 23 executes control to output information (that is, detection result information) based on the detection result in step ST2a (step ST3).
  • the human detection system 100a is used to determine whether each object present within the no-entry area is a person, regardless of whether such object is stationary or moving. can do. That is, a person present in the no-entry area can be detected regardless of whether the person is stationary or moving. In other words, such persons can be accurately detected.
  • the human detection system 100a can employ various modifications similar to those described in the first embodiment.
  • the light emitting unit 11 and the light receiving unit 12 may be provided in the human detection device 2a instead of being provided in the optical sensing device 1. That is, the human detection device 2a may include the light emitting section 11 and the light receiving section 12 .
  • the human detection system 100a may include a three-dimensional model generation unit 21, a human detection unit 22a, and a motion detection unit 24.
  • the three-dimensional model generation unit 21, the human detection unit 22a, and the motion detection unit 24 may constitute a main part of the human detection system 100a.
  • the human detection device 2a may include a three-dimensional model generation unit 21, a human detection unit 22a, and a motion detection unit 24.
  • the three-dimensional model generation section 21, the human detection section 22a, and the motion detection section 24 may constitute a main part of the human detection device 2a.
  • [Appendix] [Appendix 1] a three-dimensional model generating means for generating a three-dimensional model of the prohibited area based on the reflected light corresponding to the laser light irradiated to the prohibited area in the area where the water of the dam is discharged and the surrounding area; Human detection means for detecting a person in the no-entry area using the three-dimensional model; A person detection device comprising: [Appendix 2] The person detection means detects the person by determining whether or not the object is the person based on the shape of the object in the no-entry area using the three-dimensional model. The human detection device according to appendix 1. [Appendix 3] 2.
  • the person detection device determines whether or not the object is the person by comparing the shape of the object with a reference shape.
  • motion detection means for detecting motion of the object based on a difference between a frequency component contained in the laser beam and a frequency component contained in the reflected light;
  • the person detection device according to appendix 2 or appendix 3, wherein the person detection means determines whether or not the object is the person based on the shape of the object and the movement of the object.
  • the person detection means determines whether or not the object is the person based on the shape of the object when the object is stationary, and determines based on the movement of the object when the object is moving. 5.
  • the person detection device wherein it is determined whether or not the object is the person.
  • the person detection means determines whether or not the object is the person based on the shape of the object when the object is stationary, and determines whether the object is the person when the object is moving. 5.
  • the person detection device according to appendix 4, wherein whether or not the object is the person is determined based on movement of the object.
  • An output control means for outputting the information about the person to an external dam maintenance system; The human detection device according to any one of appendices 1 to 6, wherein the information is used for notification of an alarm to the person.
  • a person detection system comprising: [Appendix 9] The person detection means detects the person by determining whether or not the object is the person based on the shape of the object in the no-entry area using the three-dimensional model. 9. The human detection system of clause 8.
  • [Appendix 10] The person detection system according to appendix 9, wherein the person detection means determines whether or not the object is the person by comparing the shape of the object with a reference shape.
  • Appendix 12 The person detection means determines whether or not the object is the person based on the shape of the object when the object is stationary, and determines based on the movement of the object when the object is moving. 12.
  • the human detection system according to appendix 11, wherein it is determined whether the object is the person.
  • the person detection means determines whether or not the object is the person based on the shape of the object when the object is stationary, and determines whether the object is the person when the object is moving. 12.
  • the human detection system according to any one of appendices 8 to 13, wherein the information is used for notification of an alarm to the person.
  • a three-dimensional model generating means generates a three-dimensional model of the prohibited area based on the reflected light corresponding to the laser beam irradiated to the prohibited area in the area where the water of the dam is discharged and the surrounding area.
  • a person detection method wherein a person detection means detects a person in the no-entry area using the three-dimensional model.
  • the person detection means detects the person by determining whether or not the object is the person based on the shape of the object in the no-entry area using the three-dimensional model. 16.
  • Appendix 17 17.
  • the person detection method according to appendix 16 wherein the person detection means determines whether or not the object is the person by comparing a shape of the object with a reference shape.
  • motion detection means for detecting motion of the object based on a difference between a frequency component contained in the laser beam and a frequency component contained in the reflected light; 18.
  • the person detection means determines whether or not the object is the person based on the shape of the object when the object is stationary, and determines based on the movement of the object when the object is moving. 19.
  • the person detection means determines whether or not the object is the person based on the shape of the object when the object is stationary, and determines whether the object is the person when the object is moving. 19.
  • the output control means outputs information about the person to an external dam maintenance system; 21.
  • the program causes the computer to function as motion detection means for detecting the motion of the object based on the difference between the frequency component contained in the laser beam and the frequency component contained in the reflected light, 25.
  • the person detection means determines whether or not the object is the person based on the shape of the object when the object is stationary, and determines based on the movement of the object when the object is moving. 26.
  • the recording medium according to appendix 25 wherein it is determined whether or not the object is the person.
  • the person detection means determines whether or not the object is the person based on the shape of the object when the object is stationary, and determines whether the object is the person when the object is moving. 26.
  • the program causes the computer to function as output control means for outputting information about the person to an external dam maintenance system, 28.

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

侵入禁止エリア内に存在する人を正確に検出することができる人検出装置等を提供する。人検出装置(2)は、ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、侵入禁止エリアの三次元モデルを生成する三次元モデル生成手段(21)と、三次元モデルを用いて、侵入禁止エリアにおける人を検出する人検出手段(22)と、を備える。

Description

人検出装置、人検出システム及び人検出方法
 本開示は、人検出装置等に関する。
 特許文献1には、LiDAR(Light Detection and Ranging)を用いて、監視の対象となるエリアにおける特定の物体に接近する他の物体(人及び物を含む。)を監視する技術が開示されている。すなわち、特許文献1に記載の技術においては、LiDARを用いて、かかるエリアに対応する距離画像が時系列的に生成される。当該生成された複数枚の距離画像を用いて、かかるエリアにおける個々の物体の移動が検出される。かかる検出の結果に基づき、上記のように接近する他の物体が検出される(特許文献1の要約、段落[0008]~段落[0010]、段落[0043]等参照。)。
 なお、関連技術として、特許文献2に記載の技術も知られている。
特開2019-201268号公報 特開2019-168985号公報
 上記のとおり、特許文献1に記載の技術は、物体の移動を検出するものである。換言すれば、特許文献1に記載の技術は、人であるか物であるかを区別せずに動いている物体を検出するものである。
 例えば、ダムの水が放流されるときの人に対する安全確認を想定する。このような場合、ダムの水が放流されるエリア(以下「放流エリア」ということがある。)について、放流エリア内に存在する全ての人を検出することが望ましい。また、放流エリアの周辺のエリアのうちの放流時に人が存在すると危険なエリア(以下「危険エリア」ということがある。)について、危険エリア内に存在する全ての人を検出することが望ましい。以下、放流エリア及び危険エリアを総称して「侵入禁止エリア」ということがある。
 すなわち、侵入禁止エリア内に存在する人について、かかる人が静止しているか動いているかにかかわらず、かかる人を正確に検出することが好適である。しかしながら、特許文献1に記載の技術を用いることにより、人であるか物であるかを区別せずに動いている物体が検出される。このため、侵入禁止エリア内に存在する人を正確に検出することが困難であるという問題があった。
 本開示は、上記のような課題を解決するためになされたものであり、侵入禁止エリア内に存在する人を正確に検出することができる人検出装置等を提供することを目的とする。
 本開示に係る人検出装置の一形態は、ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、侵入禁止エリアの三次元モデルを生成する三次元モデル生成手段と、三次元モデルを用いて、侵入禁止エリアにおける人を検出する人検出手段と、を備えるものである。
 本開示に係る人検出システムの一形態は、ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、侵入禁止エリアの三次元モデルを生成する三次元モデル生成手段と、三次元モデルを用いて、侵入禁止エリアにおける人を検出する人検出手段と、を備えるものである。
 本開示に係る人検出方法の一形態は、三次元モデル生成手段が、ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、侵入禁止エリアの三次元モデルを生成し、人検出手段が、三次元モデルを用いて、侵入禁止エリアにおける人を検出するものである。
 本開示によれば、侵入禁止エリア内に存在する人を正確に検出することができる。
図1は、第1実施形態に係る人検出システムの要部を示すブロック図である。 図2は、第1実施形態に係る人検出システムにおける光センシング装置の要部を示すブロック図である。 図3は、第1実施形態に係る人検出装置の要部を示すブロック図である。 図4は、第1実施形態に係る人検出装置の要部のハードウェア構成を示すブロック図である。 図5は、第1実施形態に係る人検出装置の要部の他のハードウェア構成を示すブロック図である。 図6は、第1実施形態に係る人検出装置の要部の他のハードウェア構成を示すブロック図である。 図7は、第1実施形態に係る人検出装置の動作を示すフローチャートである。 図8は、侵入禁止エリア等の具体例を示す説明図である。 図9は、第1実施形態に係る他の人検出システムの要部を示すブロック図である。 図10は、第1実施形態に係る他の人検出装置の要部を示すブロック図である。 図11は、第2実施形態に係る人検出システムの要部を示すブロック図である。 図12は、第2実施形態に係る人検出装置の要部を示すブロック図である。 図13は、第2実施形態に係る人検出装置の動作を示すフローチャートである。
 以下、本開示の実施形態について、添付の図面を参照して詳細に説明する。
[第1実施形態]
 図1は、第1実施形態に係る人検出システムの要部を示すブロック図である。図2は、第1実施形態に係る人検出システムにおける光センシング装置の要部を示すブロック図である。図3は、第1実施形態に係る人検出装置の要部を示すブロック図である。図1~図3を参照して、第1実施形態に係る人検出システムについて説明する。
 図1に示す如く、人検出システム100は、光センシング装置1、人検出装置2及び出力装置3を含む。図2に示す如く、光センシング装置1は、光出射部11及び受光部12を備える。図3に示す如く、人検出装置2は、三次元モデル生成部21、人検出部22及び出力制御部23を備える。
 光センシング装置1は、侵入禁止エリアの内部又は侵入禁止エリアの周辺に設置される。ここで、上記のとおり、侵入禁止エリアは、放流エリアを含み得るものであり、かつ、禁止エリアを含み得るものである。放流エリアは、ダムの水が放流されるエリアである。危険エリアは、放流エリアの周辺のエリアのうちの人が存在すると危険なエリアである。侵入禁止エリアの具体例については、図8を参照して後述する。
 光出射部11は、例えば、レーザ光源を用いたものである。光出射部11は、パルス状のレーザ光を出射する。ここで、光センシング装置1においては、光出射部11によるレーザ光の出射方向が可変である。これにより、光出射部11は、複数個の方向にレーザ光を順次出射する。この結果、侵入禁止エリアを走査するようにレーザ光が照射される。
 当該照射されたレーザ光は、侵入禁止エリア内の物体(人を含む。)により散乱光として反射される。以下、当該反射された光を「反射光」ということがある。受光部12は、反射光を受信する。受光部12は、例えば、受光素子を用いたものである。
 三次元モデル生成部21は、光出射部11により出射されるレーザ光及び受光部12により受信された反射光に基づき、侵入禁止エリアの三次元モデルを生成する。より具体的には、三次元モデル生成部21は、侵入禁止エリア内の個々の物体の形状に対応する三次元点群モデルを生成する。かかる三次元モデルの生成には、ToF(Time of Flight) LiDARの原理が用いられる。
 すなわち、三次元モデル生成部21は、各方向にレーザ光が出射されたタイミングを示す情報、及び対応する反射光が受信されたタイミングを示す情報を取得する。これらの情報は、例えば、光センシング装置1から取得される。三次元モデル生成部21は、これらの情報を用いて、各方向に出射されたレーザ光及び対応する反射光について、往復伝搬時間に対応する片道伝搬距離を算出する。
 三次元モデル生成部21は、当該算出された片道伝搬距離に基づき、各方向に出射されたレーザ光が反射された地点の位置を示す座標値を算出する。かかる座標値は、仮想的な三次元座標空間における座標値である。かかる三次元座標空間において個々の座標値に対応する点が配置されることにより、侵入禁止エリア内の個々の物体の形状に対応する三次元点群モデルが生成される。このようにして、三次元モデルが生成される。
 このほか、ToF LiDARの原理に基づく三次元モデルの生成には、公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。
 人検出部22は、三次元モデル生成部21により生成された三次元モデルを用いて、侵入禁止エリア内に存在する人を検出する。より具体的には、人検出部22は、当該生成された三次元モデルを用いて、侵入禁止エリア内に存在する個々の物体が人であるか否かを判定することにより、侵入禁止エリア内に存在する人を検出する。
 すなわち、上記のとおり、三次元モデル生成部21により生成された三次元モデルは、侵入禁止エリア内に存在する個々の物体の形状に対応する三次元点群モデルを含む。ここで、人検出部22には、一般的な人の形状(以下「基準形状」という。)を示す情報(以下「基準形状情報」という。)が予め記憶されている。または、人検出部22は、基準形状情報を取得する。基準形状情報は、互いに異なる姿勢に対応する複数個の基準形状を示す情報を含み得る。また、基準形状情報は、互いに異なる視線方向に対応する複数個の基準形状を示す情報を含み得る。また、基準形状情報は、互いに異なる体格に対応する複数個の基準形状を示す情報を含み得る。
 人検出部22は、上記生成された三次元モデル及び上記記憶された又は上記取得された基準形状情報を用いて、侵入禁止エリア内に存在する個々の物体の形状を個々の基準形状と比較する。人検出部22は、いわゆる「パターンマッチング」により、かかる個々の物体が人であるか否かを判定する。具体的には、例えば、人検出部22は、個々の物体の形状について、個々の基準形状に対する差分を演算する。少なくとも1個の基準形状について、当該演算された差分が所定範囲内である場合、人検出部22は、かかる物体が人であると判定する。そうでない場合、人検出部22は、かかる物体が人でないと判定する。このようにして、侵入禁止エリア内に存在する人が検出される。
 出力制御部23は、人検出部22による検出の結果に基づく情報(以下「検出結果情報」という。)を出力する制御を実行する。検出結果情報は、例えば、侵入禁止エリアにおける人の有無を示す情報、及び侵入禁止エリアにおける人の位置を示す情報を含む。換言すれば、検出結果情報は、人検出部22により検出された人に関する情報を含み得る。
 検出結果情報の出力には、出力装置3が用いられる。出力装置3は、例えば、表示装置、音声出力装置及び通信装置のうち少なくとも一つを含む。表示装置は、例えば、ディスプレイを用いたものである。音声出力装置は、例えば、スピーカを用いたものである。通信装置は、例えば、専用の送信機及び受信機を用いたものである。
 具体的には、例えば、出力制御部23は、検出結果情報に対応する画像を表示する制御を実行する。かかる画像の表示には、出力装置3のうちの表示装置が用いられる。ここで、かかる画像は、三次元モデル生成部21により生成された三次元モデルを含むものであっても良い。または、例えば、出力制御部23は、検出結果情報に対応する音声を出力する制御を実行する。かかる音声の出力には、出力装置3のうちの音声出力装置が用いられる。または、例えば、出力制御部23は、検出結果情報に対応する信号を送信する制御を実行する。かかる信号の送信には、出力装置3のうちの通信装置が用いられる。
 ここで、かかる信号は、ダム保全管理システム200に送信されるものであっても良い(図1参照)。換言すれば、検出結果情報は、ダム保全管理システム200に出力されるものであってもよい。ダム保全管理システム200は、ダムの保全管理をするシステムである。図1に示す如く、ダム保全管理システム200は、人検出システム100の外部に設けられている。以下、ダム保全管理システム200を「外部ダム保全システム」ということがある。当該出力された検出結果情報は、ダム保全管理システム200により、ダムの保全管理に用いられる。具体的には、例えば、当該出力された検出結果情報は、ダム保全管理システム200により、侵入禁止エリア内に存在する人に対する警報の通知に用いられる。
 すなわち、侵入禁止エリア内に人が存在することを検出結果情報が示している場合、ダム保全管理システム200は、侵入禁止エリアの周辺に設置されたスピーカを用いて、かかる人に対する警報を通知する。または、この場合、ダム保全管理システム200は、かかる警報の通知を他の人(例えばダム保全管理システム200のオペレータ)に指示する。これにより、侵入禁止エリア内に存在する人に対して、退避を促すことができる。
 なお、出力装置3によりダム保全管理システム200に出力される情報は、検出結果情報(すなわち上記検出された人に関する情報)に限定されるものではない。例えば、当該出力される情報は、検出結果情報に加えて、侵入禁止エリアに関する情報、及び上記警報を通知する制御に用いられる情報などを含むものであっても良い。
 このようにして、人検出システム100の要部が構成されている。
 以下、光出射部11を「光出射手段」ということがある。また、受光部12を「受光手段」ということがある。また、三次元モデル生成部21を「三次元モデル生成手段」ということがある。また、人検出部22を「人検出手段」ということがある。また、出力制御部23を「出力制御手段」ということがある。
 次に、図4~図6を参照して、人検出装置2の要部のハードウェア構成について説明する。
 図4~図6の各々に示す如く、人検出装置2は、コンピュータ31を用いたものである。コンピュータ31は、光センシング装置1と一体に設けられるものであっても良い。または、コンピュータ31は、他の場所(例えばクラウドネットワーク内)に設けられるものであっても良い。または、コンピュータ31のうちの一部の要素が光センシング装置1と一体に設けられるとともに、コンピュータ31のうちの残余の要素が他の場所に設けられるものであっても良い。
 図4に示す如く、コンピュータ31は、プロセッサ41及びメモリ42を含む。メモリ42には、コンピュータ31を三次元モデル生成部21、人検出部22及び出力制御部23として機能させるためのプログラムが記憶されている。プロセッサ41は、メモリ42に記憶されているプログラムを読み出して実行する。これにより、三次元モデル生成部21の機能F1、人検出部22の機能F2及び出力制御部23の機能F3が実現される。
 または、図5に示す如く、コンピュータ31は、処理回路43を含む。処理回路43は、コンピュータ31を三次元モデル生成部21、人検出部22及び出力制御部23として機能させるための処理を実行する。これにより、機能F1~F3が実現される。
 または、図6に示す如く、コンピュータ31は、プロセッサ41、メモリ42及び処理回路43を含む。この場合、機能F1~F3のうちの一部の機能がプロセッサ41及びメモリ42により実現されるとともに、機能F1~F3のうちの残余の機能が処理回路43により実現される。
 プロセッサ41は、1個以上のプロセッサにより構成されている。個々のプロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)を用いたものである。
 メモリ42は、1個以上のメモリにより構成されている。個々のメモリは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ソリッドステートドライブ、ハードディスクドライブ、フレキシブルディスク、コンパクトディスク、DVD(Digital Versatile Disc)、ブルーレイディスク、MO(Magneto Optical)ディスク又はミニディスクを用いたものである。
 処理回路43は、1個以上の処理回路により構成されている。個々の処理回路は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)又はシステムLSI(Large Scale Integration)を用いたものである。
 なお、プロセッサ41は、機能F1~F3の各々に対応する専用のプロセッサを含むものであっても良い。メモリ42は、機能F1~F3の各々に対応する専用のメモリを含むものであっても良い。処理回路43は、機能F1~F3の各々に対応する専用の処理回路を含むものであっても良い。
 次に、図7に示すフローチャートを参照して、人検出装置2の動作について説明する。
 まず、三次元モデル生成部21が侵入禁止エリアの三次元モデルを生成する(ステップST1)。かかる三次元モデルの生成には、上記のとおり、ToF LiDARの技術が用いられる。次いで、人検出部22が侵入禁止エリア内に存在する人を検出する(ステップST2)。かかる検出には、上記のとおり、ステップST1にて生成された三次元モデルが用いられる。次いで、出力制御部23は、ステップST2における検出の結果に基づく情報(すなわち検出結果情報)を出力する制御を実行する(ステップST3)。
 次に、図8を参照して、侵入禁止エリアの具体例について説明する。
 図中、Dは、ダムを示している。ダムDは、水力発電用のダムであっても良い。図中、Rは、ダムDに対する下流に位置する河川を示している。図中、DDは、ダムDによる河川Rに対する放流方向の例を示している。図8に示す例においては、ダムDの排水口(いわゆる「洪水吐き」又はドレーン)に対する近傍の位置に光センシング装置1が設置されている。
 図中、A1は、ダムDに対する下流における範囲を示している。ここで、図8に示す如く、範囲A1の形状は、扇形である。かかる扇形の中心位置は、光センシング装置1の設置位置に対応している。かかる扇形の中心角は、所定値(例えば略180度)に設定されている。かかる扇形の半径は、所定値(例えば300メートル)に設定されている。すなわち、範囲A1は、光センシング装置1によるレーザ光の照射が可能な範囲に対応している。
 図中、A2は、範囲A1の扇形に内接する矩形状の範囲を示している。図8に示す如く、範囲A2は、河川Rのうちの一部を含み、かつ、河川Rの沿岸部(より具体的には両岸部)のうちの一部を含む。
 図8に示す例においては、範囲A2が侵入禁止エリアに設定されている。すなわち、この場合、河川Rのうちの範囲A2に含まれる部位が放流エリアである。また、河川Rの沿岸部(より具体的には両岸部)のうちの範囲A2に含まれる部位が危険エリアである。
 図中、P1は、侵入禁止エリア内に存在する人を示している。上記のとおり、検出結果情報は、ダム保全管理システム200により、かかる人P1に対する警報の通知に用いられるものであっても良い。図中、S_1、S_2及びS_3の各々は、かかる警報の通知に用いられるスピーカを示している。図中、P2_1及びP2_2の各々は、ダム保全管理システム200による指示の下、かかる警報の通知をする他の人を示している。
 なお、侵入禁止エリアは、図8に示す例に限定されるものではない。例えば、範囲A1における扇形の半径が大きい値(例えば500メートル以上の値)である場合、又は河川Rの長さが短い場合、範囲A1に内接する範囲A2は、河川Rの河口部を含み得る。これにより、範囲A2は、かかる河口部の周辺における海岸部を含み得る。この場合、かかる海岸部が危険エリアに含まれるものであっても良い。
 次に、人検出システム100を用いることによる効果について説明する。
 上記のとおり、侵入禁止エリアの三次元モデルを生成することにより、侵入禁止エリア内に存在する個々の物体について、その形状に基づくパターンマッチングにより個々の物体が人であるか否かを判定することができる。このため、個々の物体が人である場合において、当該人が静止しているか動いているかにかかわらず、レーザ光が照射されたタイミングにおける当該人の形状に基づき、当該人を検出することができる。すなわち、侵入禁止エリア内に存在する人が静止しているか動いているかにかかわらず、かかる人を検出することができる。換言すれば、かかる人を正確に検出することができる。
 次に、人検出システム100の変形例について説明する。
 光出射部11及び受光部12は、光センシング装置1に設けられているのに代えて、人検出装置2に設けられているものであっても良い。すなわち、人検出装置2は、光出射部11及び受光部12を備えるものであっても良い。この場合、光センシング装置1は不要である。
 次に、図9を参照して、人検出システム100の他の変形例について説明する。また、図10を参照して、人検出装置2の変形例について説明する。
 図9に示す如く、人検出システム100は、三次元モデル生成部21及び人検出部22を備えるものであっても良い。換言すれば、三次元モデル生成部21及び人検出部22により人検出システム100の要部が構成されているものであっても良い。この場合、光センシング装置1は、人検出システム100の外部に設けられるものであっても良い。また、出力制御部23は、人検出システム100の外部に設けられるものであっても良い。また、出力装置3は、人検出システム100の外部に設けられるものであっても良い。なお、人検出システム100において、三次元モデル生成部21及び人検出部22の各々は、独立した装置により構成されているものであっても良い。
 図10に示す如く、人検出装置2は、三次元モデル生成部21及び人検出部22を備えるものであっても良い。換言すれば、三次元モデル生成部21及び人検出部22により人検出装置2の要部が構成されているものであっても良い。この場合、出力制御部23は、人検出装置2の外部に設けられるものであっても良い。
 これらの場合であっても、上記のような効果を奏することができる。すなわち、三次元モデル生成部21は、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、侵入禁止エリアの三次元モデルを生成する。人検出部22は、三次元モデルを用いて、侵入禁止エリアにおける人を検出する。ここで、かかる三次元モデルを用いることにより、侵入禁止エリア内に存在する個々の物体について、その形状に基づくパターンマッチングにより個々の物体が人であるか否かを判定することができる。このため、個々の物体が人である場合において、当該人が静止しているが動いているかにかかわらず、レーザ光が照射されたタイミングにおける当該人の形状に基づき、当該人を検出することができる。換言すれば、侵入禁止エリア内に存在する人が静止しているか動いているかにかかわらず、かかる人を検出することができる。すなわち、かかる人を正確に検出することができる。
[第2実施形態]
 図11は、第2実施形態に係る人検出システムの要部を示すブロック図である。図12は、第2実施形態に係る人検出装置の要部を示すブロック図である。図11及び図12を参照して、第2実施形態に係る人検出システムについて説明する。なお、図11及び図12において、図1~図3に示すブロックと同様のブロックについては同一符号を付して説明を省略する。
 図11に示す如く、人検出システム100aは、光センシング装置1、人検出装置2a及び出力装置3を含む。図12に示す如く、人検出装置2aは、三次元モデル生成部21、人検出部22a、出力制御部23及び動き検出部24を備える。
 動き検出部24は、光出射部11により出射されるレーザ光及び受光部12により受信された反射光に基づき、侵入禁止エリア内に存在する個々の物体の動きを検出する。かかる動きの検出には、ドップラーLiDARの原理が用いられる。
 すなわち、第1実施形態にて説明したとおり、三次元モデル生成部21により生成された三次元モデルは、侵入禁止エリア内に存在する個々の物体の形状に対応する三次元点群モデルを含む。動き検出部24は、かかる三次元点群モデルにおける個々の点ついて、対応するレーザ光に含まれる周波数成分を示す情報、及び対応する反射光に含まれる周波数成分を示す情報を取得する。これらの情報は、例えば、光センシング装置1から取得される。動き検出部24は、これらの情報を用いて、個々の物体について、対応する反射光におけるドップラーシフト量を演算する。かかるドップラーシフト量は、光出射部11により出射されるレーザ光の周波数を基準とするものである。換言すれば、かかるドップラーシフト量は、個々の物体について、対応するレーザ光に含まれる周波数成分と対応する反射光に含まれる周波数成分との差分に基づくものである。
 動き検出部24は、当該演算されたドップラーシフト量に基づき、侵入禁止エリア内に存在する個々の物体の動きを検出する。より具体的には、動き検出部24は、かかる動きの向き及び速さを検出する。これにより、かかる動きの有無も検出される。ドップラーLiDARの原理に基づく物体の動きの検出には、公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。
 人検出部22aは、侵入禁止エリア内に存在する個々の物体について、かかる物体が静止している場合、人検出部22による検出方法と同様の検出方法により、かかる物体が人であるか否かを判定する。すなわち、人検出部22aは、かかる物体の形状を基準形状と比較して、パターンマッチングにより、かかる物体が人であるか否かを判定する。他方、かかる物体が動いている場合、人検出部22aは、以下のようにして、かかる物体が人であるか否かを判定する。
 すなわち、人検出部22aには、侵入禁止エリアにおける人の動きの向き及び速さについて、人が通常とり得る範囲(以下「基準範囲」という。)を示す情報(以下「基準範囲情報」という。)が記憶されている。または、人検出部22aは、基準範囲情報を取得する。基準範囲情報は、侵入禁止エリアにおける互いに異なる位置に対応する複数個の基準範囲を示す情報を含み得る。
 人検出部22aは、上記記憶された又は上記取得された基準範囲情報を用いて、動き検出部24による検出の結果に基づき、侵入禁止エリア内に存在する物体のうちの動いている物体について、かかる物体の動きが基準範囲内の動きであるか否かを判定する。かかる物体の動きが基準範囲内の動きである場合、人検出部22aは、かかる物体が人であると判定する。他方、かかる物体の動きが基準範囲外の動きである場合、人検出部22aは、かかる物体が人でないと判定する。このようにして、侵入禁止エリア内に存在する人が検出される。
 または、人検出部22aは、侵入禁止エリア内に存在する物体のうちの動いている物体について、かかる物体の形状を基準形状と比較するとともに、かかる物体の動きが基準範囲内の動きであるか否かを判定する。かかる物体の形状の基準形状に対する差分が所定範囲内であり、かつ、かかる物体の動きが基準範囲内の動きである場合、人検出部22aは、かかる物体が人であると判定する。そうでない場合、人検出部22aは、かかる物体が人でないと判定する。このようにして、侵入禁止エリア内に存在する人が検出される。
 このようにして、人検出システム100aの要部が構成されている。
 以下、人検出部22aを「人検出手段」ということがある、また、動き検出部24を「動き検出手段」ということがある。
 人検出装置2aの要部のハードウェア構成は、第1実施形態にて図4~図6を参照して説明したものと同様である。このため、詳細な説明は省略する。
 すなわち、三次元モデル生成部21の機能F1、人検出部22aの機能F2a、出力制御部23の機能F3及び動き検出部24の機能F4は、プロセッサ41及びメモリ42により実現されるものであっても良い。または、機能F1,F2a,F3,F4は、処理回路43により実現されるものであっても良い。
 ここで、プロセッサ41は、機能F1,F2a,F3,F4の各々に対応する専用のプロセッサを含むものであっても良い。メモリ42は、機能F1,F2a,F3,F4の各々に対応する専用のメモリを含むものであっても良い。処理回路43は、機能F1,F2a,F3,F4の各々に対応する専用の処理回路を含むものであっても良い。
 次に、図13に示すフローチャートを参照して、人検出装置2aの動作について説明する。なお、図13において、図7に示すステップと同様のステップには同一符号を付している。
 まず、三次元モデル生成部21が侵入禁止エリアの三次元モデルを生成する(ステップST1)。かかる三次元モデルの生成には、第1実施形態にて説明したとおり、ToF LiDARの技術が用いられる。次いで、動き検出部24が侵入禁止エリア内に存在する個々の物体の動きを検出する(ステップST4)。かかる動きの検出には、上記のとおり、ドップラーLiDARの技術が用いられる。
 次いで、人検出部22aが侵入禁止エリア内に存在する人を検出する(ステップST2a)。かかる検出には、第1実施形態にて説明したとおり、ステップST1にて生成された三次元モデルが用いられる。また、かかる検出は、上記のとおり、ステップST4における動きの検出の結果を用いるものである。次いで、出力制御部23は、ステップST2aにおける検出の結果に基づく情報(すなわち検出結果情報)を出力する制御を実行する(ステップST3)。
 次に、人検出システム100aを用いることによる効果について説明する。
 上記のとおり、人検出システム100aを用いることにより、侵入禁止エリア内に存在する個々の物体について、かかる物体が静止しているか動いているかにかかわらず、かかる物体が人であるか否かを判定することができる。すなわち、侵入禁止エリア内に存在する人が静止しているか動いているかにかかわらず、かかる人を検出することができる。換言すれば、かかる人を正確に検出することができる。
 特に、侵入禁止エリア内に存在する物体のうちの動いている物体について、形状に基づく判定に加えて動きに基づく判定を用いることにより、かかる物体が人であるか否かの判定精度の向上を図ることができる。これにより、動いている人の検出精度の向上を図ることができる。
 次に、人検出システム100aの変形例について説明する。
 人検出システム100aは、第1実施形態にて説明したものと同様の種々の変形例を採用することができる。
 例えば、光出射部11及び受光部12は、光センシング装置1に設けられているのに代えて、人検出装置2aに設けられているものであっても良い。すなわち、人検出装置2aは、光出射部11及び受光部12を備えるものであっても良い。
 また、例えば、人検出システム100aは、三次元モデル生成部21、人検出部22a及び動き検出部24を備えるものであっても良い。換言すれば、三次元モデル生成部21、人検出部22a及び動き検出部24により人検出システム100aの要部が構成されているものであっても良い。
 また、例えば、人検出装置2aは、三次元モデル生成部21、人検出部22a及び動き検出部24を備えるものであっても良い。換言すれば、三次元モデル生成部21、人検出部22a及び動き検出部24により人検出装置2aの要部が構成されているものであっても良い。
 以上、実施形態を参照して本開示を説明したが、本開示は上記実施形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
[付記]
  [付記1]
 ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、前記侵入禁止エリアの三次元モデルを生成する三次元モデル生成手段と、
 前記三次元モデルを用いて、前記侵入禁止エリアにおける人を検出する人検出手段と、
 を備える人検出装置。
  [付記2]
 前記人検出手段は、前記三次元モデルを用いて、前記侵入禁止エリアにおける物体の形状に基づき前記物体が前記人であるか否かを判定することにより、前記人を検出することを特徴とする付記1に記載の人検出装置。
  [付記3]
 前記人検出手段は、前記物体の形状を基準形状と比較することにより前記物体が前記人であるか否かを判定することを特徴とする付記2に記載の人検出装置。
  [付記4]
 前記レーザ光に含まれる周波数成分と前記反射光に含まれる周波数成分との差分に基づき、前記物体の動きを検出する動き検出手段を備え、
 前記人検出手段は、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定する
 ことを特徴とする付記2又は付記3に記載の人検出装置。
  [付記5]
 前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする付記4に記載の人検出装置。
  [付記6]
 前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする付記4に記載の人検出装置。
  [付記7]
 前記人に関する情報を外部ダム保全システムに出力する出力制御手段を備え、
 前記情報は、前記人に対する警報の通知に使用される
 ことを特徴とする付記1から付記6のうちのいずれか一つに記載の人検出装置。
  [付記8]
 ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、前記侵入禁止エリアの三次元モデルを生成する三次元モデル生成手段と、
 前記三次元モデルを用いて、前記侵入禁止エリアにおける人を検出する人検出手段と、
 を備える人検出システム。
  [付記9]
 前記人検出手段は、前記三次元モデルを用いて、前記侵入禁止エリアにおける物体の形状に基づき前記物体が前記人であるか否かを判定することにより、前記人を検出することを特徴とする付記8に記載の人検出システム。
  [付記10]
 前記人検出手段は、前記物体の形状を基準形状と比較することにより前記物体が前記人であるか否かを判定することを特徴とする付記9に記載の人検出システム。
  [付記11]
 前記レーザ光に含まれる周波数成分と前記反射光に含まれる周波数成分との差分に基づき、前記物体の動きを検出する動き検出手段を備え、
 前記人検出手段は、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定する
 ことを特徴とする付記9又は付記10に記載の人検出システム。
  [付記12]
 前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする付記11に記載の人検出システム。
  [付記13]
 前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする付記11に記載の人検出システム。
  [付記14]
 前記人に関する情報を外部ダム保全システムに出力する出力制御手段を備え、
 前記情報は、前記人に対する警報の通知に使用される
 ことを特徴とする付記8から付記13のうちのいずれか一つに記載の人検出システム。
  [付記15]
 三次元モデル生成手段が、ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、前記侵入禁止エリアの三次元モデルを生成し、
 人検出手段が、前記三次元モデルを用いて、前記侵入禁止エリアにおける人を検出する
 人検出方法。
  [付記16]
 前記人検出手段は、前記三次元モデルを用いて、前記侵入禁止エリアにおける物体の形状に基づき前記物体が前記人であるか否かを判定することにより、前記人を検出することを特徴とする付記15に記載の人検出方法。
  [付記17]
 前記人検出手段は、前記物体の形状を基準形状と比較することにより前記物体が前記人であるか否かを判定することを特徴とする付記16に記載の人検出方法。
  [付記18]
 動き検出手段が、前記レーザ光に含まれる周波数成分と前記反射光に含まれる周波数成分との差分に基づき、前記物体の動きを検出し、
 前記人検出手段は、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定する
 ことを特徴とする付記16又は付記17に記載の人検出方法。
  [付記19]
 前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする付記18に記載の人検出方法。
  [付記20]
 前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする付記18に記載の人検出方法。
  [付記21]
 出力制御手段が、前記人に関する情報を外部ダム保全システムに出力し、
 前記情報は、前記人に対する警報の通知に使用される
 ことを特徴とする付記15から付記20のうちのいずれか一つに記載の人検出方法。
  [付記22]
 コンピュータを、
 ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、前記侵入禁止エリアの三次元モデルを生成する三次元モデル生成手段と、
 前記三次元モデルを用いて、前記侵入禁止エリアにおける人を検出する人検出手段と、
 として機能させるためのプログラムが記録された記録媒体。
  [付記23]
 前記人検出手段は、前記三次元モデルを用いて、前記侵入禁止エリアにおける物体の形状に基づき前記物体が前記人であるか否かを判定することにより、前記人を検出することを特徴とする付記22に記載の記録媒体。
  [付記24]
 前記人検出手段は、前記物体の形状を基準形状と比較することにより前記物体が前記人であるか否かを判定することを特徴とする付記23に記載の記録媒体。
  [付記25]
 前記プログラムは、前記コンピュータを、前記レーザ光に含まれる周波数成分と前記反射光に含まれる周波数成分との差分に基づき、前記物体の動きを検出する動き検出手段として機能させて、
 前記人検出手段は、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定する
 ことを特徴とする付記23又は付記24に記載の記録媒体。
  [付記26]
 前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする付記25に記載の記録媒体。
  [付記27]
 前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする付記25に記載の記録媒体。
  [付記28]
 前記プログラムは、前記コンピュータを、前記人に関する情報を外部ダム保全システムに出力する出力制御手段として機能させて、
 前記情報は、前記人に対する警報の通知に使用される
 ことを特徴とする付記22から付記27のうちのいずれか一つに記載の記録媒体。
1 光センシング装置
2,2a 人検出装置
3 出力装置
11 光出射部
12 受光部
21 三次元モデル生成部
22,22a 人検出部
23 出力制御部
24 動き検出部
31 コンピュータ
41 プロセッサ
42 メモリ
43 処理回路
100,100a 人検出システム
200 ダム保全管理システム

Claims (21)

  1.  ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、前記侵入禁止エリアの三次元モデルを生成する三次元モデル生成手段と、
     前記三次元モデルを用いて、前記侵入禁止エリアにおける人を検出する人検出手段と、
     を備える人検出装置。
  2.  前記人検出手段は、前記三次元モデルを用いて、前記侵入禁止エリアにおける物体の形状に基づき前記物体が前記人であるか否かを判定することにより、前記人を検出することを特徴とする請求項1に記載の人検出装置。
  3.  前記人検出手段は、前記物体の形状を基準形状と比較することにより前記物体が前記人であるか否かを判定することを特徴とする請求項2に記載の人検出装置。
  4.  前記レーザ光に含まれる周波数成分と前記反射光に含まれる周波数成分との差分に基づき、前記物体の動きを検出する動き検出手段を備え、
     前記人検出手段は、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定する
     ことを特徴とする請求項2又は請求項3に記載の人検出装置。
  5.  前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする請求項4に記載の人検出装置。
  6.  前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする請求項4に記載の人検出装置。
  7.  前記人に関する情報を外部ダム保全システムに出力する出力制御手段を備え、
     前記情報は、前記人に対する警報の通知に使用される
     ことを特徴とする請求項1から請求項6のうちのいずれか1項に記載の人検出装置。
  8.  ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、前記侵入禁止エリアの三次元モデルを生成する三次元モデル生成手段と、
     前記三次元モデルを用いて、前記侵入禁止エリアにおける人を検出する人検出手段と、
     を備える人検出システム。
  9.  前記人検出手段は、前記三次元モデルを用いて、前記侵入禁止エリアにおける物体の形状に基づき前記物体が前記人であるか否かを判定することにより、前記人を検出することを特徴とする請求項8に記載の人検出システム。
  10.  前記人検出手段は、前記物体の形状を基準形状と比較することにより前記物体が前記人であるか否かを判定することを特徴とする請求項9に記載の人検出システム。
  11.  前記レーザ光に含まれる周波数成分と前記反射光に含まれる周波数成分との差分に基づき、前記物体の動きを検出する動き検出手段を備え、
     前記人検出手段は、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定する
     ことを特徴とする請求項9又は請求項10に記載の人検出システム。
  12.  前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする請求項11に記載の人検出システム。
  13.  前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする請求項11に記載の人検出システム。
  14.  前記人に関する情報を外部ダム保全システムに出力する出力制御手段を備え、
     前記情報は、前記人に対する警報の通知に使用される
     ことを特徴とする請求項8から請求項13のうちのいずれか1項に記載の人検出システム。
  15.  三次元モデル生成手段が、ダムの水が放流されるエリア及びその周辺のエリアにおいて、侵入禁止エリアに照射されたレーザ光に対応する反射光に基づき、前記侵入禁止エリアの三次元モデルを生成し、
     人検出手段が、前記三次元モデルを用いて、前記侵入禁止エリアにおける人を検出する
     人検出方法。
  16.  前記人検出手段は、前記三次元モデルを用いて、前記侵入禁止エリアにおける物体の形状に基づき前記物体が前記人であるか否かを判定することにより、前記人を検出することを特徴とする請求項15に記載の人検出方法。
  17.  前記人検出手段は、前記物体の形状を基準形状と比較することにより前記物体が前記人であるか否かを判定することを特徴とする請求項16に記載の人検出方法。
  18.  動き検出手段が、前記レーザ光に含まれる周波数成分と前記反射光に含まれる周波数成分との差分に基づき、前記物体の動きを検出し、
     前記人検出手段は、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定する
     ことを特徴とする請求項16又は請求項17に記載の人検出方法。
  19.  前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする請求項18に記載の人検出方法。
  20.  前記人検出手段は、前記物体が静止している場合、前記物体の形状に基づき前記物体が前記人であるか否かを判定して、前記物体が動いている場合、前記物体の形状及び前記物体の動きに基づき前記物体が前記人であるか否かを判定することを特徴とする請求項18に記載の人検出方法。
  21.  出力制御手段が、前記人に関する情報を外部ダム保全システムに出力し、
     前記情報は、前記人に対する警報の通知に使用される
     ことを特徴とする請求項15から請求項20のうちのいずれか1項に記載の人検出方法。
PCT/JP2021/005958 2021-02-17 2021-02-17 人検出装置、人検出システム及び人検出方法 WO2022176069A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/005958 WO2022176069A1 (ja) 2021-02-17 2021-02-17 人検出装置、人検出システム及び人検出方法
JP2023500189A JPWO2022176069A1 (ja) 2021-02-17 2021-02-17

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/005958 WO2022176069A1 (ja) 2021-02-17 2021-02-17 人検出装置、人検出システム及び人検出方法

Publications (1)

Publication Number Publication Date
WO2022176069A1 true WO2022176069A1 (ja) 2022-08-25

Family

ID=82930340

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/005958 WO2022176069A1 (ja) 2021-02-17 2021-02-17 人検出装置、人検出システム及び人検出方法

Country Status (2)

Country Link
JP (1) JPWO2022176069A1 (ja)
WO (1) WO2022176069A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118176A (ja) * 1999-10-15 2001-04-27 Fujitsu Denso Ltd 放流警報装置
JP2005056406A (ja) * 2003-07-24 2005-03-03 Victor Co Of Japan Ltd 画像の動き検出装置及びコンピュータプログラム
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
JP2007122507A (ja) * 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2015213251A (ja) * 2014-05-02 2015-11-26 株式会社Ihi 挙動解析装置、監視システム及びアミューズメントシステム
WO2020188676A1 (ja) * 2019-03-18 2020-09-24 三菱電機株式会社 ライダ装置及び空気調和機

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118176A (ja) * 1999-10-15 2001-04-27 Fujitsu Denso Ltd 放流警報装置
JP2005056406A (ja) * 2003-07-24 2005-03-03 Victor Co Of Japan Ltd 画像の動き検出装置及びコンピュータプログラム
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
JP2007122507A (ja) * 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2015213251A (ja) * 2014-05-02 2015-11-26 株式会社Ihi 挙動解析装置、監視システム及びアミューズメントシステム
WO2020188676A1 (ja) * 2019-03-18 2020-09-24 三菱電機株式会社 ライダ装置及び空気調和機

Also Published As

Publication number Publication date
JPWO2022176069A1 (ja) 2022-08-25

Similar Documents

Publication Publication Date Title
US7089114B1 (en) Vehicle collision avoidance system and method
JP5673753B2 (ja) 目標検出装置およびシステム
JP5154430B2 (ja) 空間領域モニター装置および方法
US20220028099A1 (en) Depth Sensing Using Temporal Coding
US10983198B2 (en) Objective sensor, objective sensor dirt determination method, and object detection device
US9977118B2 (en) Method of operating a distance-measuring monitoring sensor and monitoring sensor
JP2007225589A (ja) 目標検出装置およびシステム
US9981604B2 (en) Object detector and sensing apparatus
JP2009110124A (ja) 対象検出装置、対象検出方法、および対象検出プログラム
US20210132228A1 (en) Depth sensing using dynamic illumination with range extension
EP3861529A1 (en) Depth sensing using grid light patterns
CN110383102B (zh) 故障检测装置、故障检测方法及计算机可读取存储介质
US11220272B2 (en) Failure detection apparatus, failure detection method, and computer readable medium
WO2022176069A1 (ja) 人検出装置、人検出システム及び人検出方法
JP6396647B2 (ja) 障害物検知装置及び障害物検知方法
WO2022172405A1 (ja) 氾濫予測装置、氾濫予測システム及び氾濫予測方法
JP2012237592A (ja) レーザレーダ装置及びレーザレーダ法
CN111856440B (zh) 位置检测方法、装置、设备及可读存储介质
WO2022157922A1 (ja) 気体漏れ検出装置、気体漏れ検出システム及び気体漏れ検出方法
WO2023053239A1 (ja) 材質推定装置、材質推定システム及び材質推定方法
WO2022244108A1 (ja) 航走体検出装置、航走体検出システム及び航走体検出方法
WO2023053238A1 (ja) 形状検出装置、形状検出システム及び形状検出方法
US10896516B1 (en) Low-power depth sensing using dynamic illumination
JP5045453B2 (ja) 高周波センサ装置、処理装置、検知システム、物体検知方法及びプログラム
WO2022157923A1 (ja) 液体漏れ検出装置、液体漏れ検出システム、液体漏れ検出方法及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21926508

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023500189

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21926508

Country of ref document: EP

Kind code of ref document: A1