WO2017195755A1 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
WO2017195755A1
WO2017195755A1 PCT/JP2017/017466 JP2017017466W WO2017195755A1 WO 2017195755 A1 WO2017195755 A1 WO 2017195755A1 JP 2017017466 W JP2017017466 W JP 2017017466W WO 2017195755 A1 WO2017195755 A1 WO 2017195755A1
Authority
WO
WIPO (PCT)
Prior art keywords
monitoring
distance
light
background
reference background
Prior art date
Application number
PCT/JP2017/017466
Other languages
English (en)
French (fr)
Inventor
潤一 藤田
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2018517021A priority Critical patent/JPWO2017195755A1/ja
Publication of WO2017195755A1 publication Critical patent/WO2017195755A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/181Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems
    • G08B13/187Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems by interference of a radiation field

Definitions

  • the present invention relates to a monitoring system that monitors an object by scanning and projecting laser light or the like, for example.
  • a monitoring device that uses a distance image has been proposed as a monitoring device for detecting an intruder or the like in a monitoring space.
  • the distance image has distance information as a pixel value.
  • a laser beam or the like is sent out to a monitoring space, and monitoring is performed to measure a distance to an object in the monitoring space from a time from the sending to reception of reflected light.
  • the device is known.
  • distance information about a plurality of directions facing the monitoring space can be obtained by sequentially changing the transmission direction of the measurement medium such as laser light and scanning the monitoring space two-dimensionally.
  • a distance image can be formed.
  • a distance image background image
  • current image input distance image
  • the change area is obtained. Then, based on the size / shape of the change area and the distance information in the current image, it is determined whether or not the moving object is the target detection target.
  • the distance image includes information such as the direction of the object viewed from the transmitting / receiving unit such as a laser beam and the distance to the object. Therefore, the size and shape of the object can be known from the distance image. For example, in an intruder detection application, it is possible to distinguish a relatively large person in the distance from small animals in the vicinity (such as a frog or a cat). It becomes possible, and the detection accuracy of an intruder can be improved.
  • the surroundings of the facilities are often surrounded by fences so that ordinary people cannot easily enter.
  • a human action can be detected quickly outside the fence because an alarm can be issued early.
  • the monitoring device since the monitoring device is generally installed in the fence to avoid inadvertent access by humans or the like, the laser light emitted from the monitoring device may pass through the fence depending on the installation location of the monitoring device. The light that travels from the inside toward the outside and is reflected by the object may return through the fence again.
  • the object distance image that is in front of the background distance image is extracted as a change image, that is, only the object at a position closer to the background object is the monitoring object. Therefore, if a fence image is set as a background image, there is a problem that even if an object outside the fence appears over the fence, it cannot be detected.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a monitoring system that can detect an object such as a fence in a monitoring system that detects an object based on a difference in distance between a reference background and an object. To do.
  • a monitoring system reflecting one aspect of the present invention.
  • a light projecting / receiving unit comprising: an emitting unit that emits a light beam; a scanning unit that scans the light beam in a monitoring space; and a light receiving unit that receives a light beam reflected from an object in the monitoring space;
  • exceeds the positive threshold C the object is recognized as a monitoring object.
  • a light projecting / receiving unit comprising: an emitting unit that emits a light beam; a scanning unit that scans the light beam in a monitoring space; and a light receiving unit that receives a light beam reflected from an object in the monitoring space;
  • the processing unit can set a reference background in the monitoring space, and can set a foreground monitoring area and a background monitoring area in an arbitrary range of the monitoring space. In the foreground monitoring area, the processing unit can set the projection background.
  • the object is monitored.
  • the difference (B ⁇ A) between the distance B from the light projecting / receiving unit to the object in the same light projecting / receiving direction and the distance A to the reference background is the threshold C If it exceeds, the object is recognized as a monitoring object.
  • a monitoring system capable of detecting an object such as a fence through a monitoring system that detects an object based on a difference in distance between a reference background and a target object based on a concept different from that of the prior art.
  • monitoring apparatus MD It is sectional drawing of monitoring apparatus MD concerning this embodiment. It is a figure which shows the state which scans the inside of the monitoring space of the monitoring apparatus MD with the laser spot light SB (it shows by hatching) radiate
  • FIG. 9 is a diagram illustrating a processing result of the processing circuit PROC in the state of FIG. 8, (a) is a processing result of the foreground monitoring region, (b) is a processing result of the background monitoring region, and the vertical axis indicates the reflected light. Strength and horizontal axis are distance. It is a flowchart which shows the monitoring control performed with the processing circuit PROC of the monitoring apparatus MD concerning this embodiment.
  • FIG. 1 is a cross-sectional view of a monitoring device MD as a monitoring system according to the present embodiment.
  • the monitoring device MD is preferably installed in an important facility such as an unmanned observation station in the back of the mountain.
  • the monitoring device MD includes, for example, a pulse-type semiconductor laser LD that emits a laser beam, a collimating lens CL that converts divergent light from the semiconductor laser LD into parallel light, and laser light that is collimated by the collimating lens CL.
  • a mirror unit MU that scans and projects light toward the monitoring space by a rotating mirror surface, reflects reflected light from the object, and a lens LS that collects reflected light from the object reflected by the mirror unit MU;
  • a photodiode PD that receives the light collected by the lens LS, a processing circuit (processing unit) PROC that obtains distance information according to a time difference between the emission timing of the semiconductor laser LD and the light reception timing of the photodiode PD, and a mirror It has a motor MT that rotationally drives the unit MU, and a housing CS that houses them.
  • the semiconductor laser LD and the collimating lens CL constitute an emission part LPS
  • the lens LS and the photodiode PD constitute a light receiving part RPS
  • the mirror unit MU constitutes a scanning part, and further these are used for projection.
  • the optical axes of the emission part LPS and the light receiving part RPS are preferably orthogonal to the rotation axis RO of the mirror unit MU.
  • a box-shaped housing CS fixed to a wall WL or the like of a rigid facility has an upper wall CSa, a lower wall CSb facing the upper wall CSa, and a side wall CSc connecting the upper wall CSa and the lower wall CSb. .
  • An opening CSd is formed in a part of the side wall CSc, and a transparent plate TR is attached to the opening CSd.
  • the mirror unit MU has a shape in which two quadrangular pyramids are joined together in opposite directions, that is, four pairs of mirror surfaces M1 and M2 tilted in a direction facing each other (but not limited to four pairs).
  • the mirror surfaces M1 and M2 are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC) in the shape of a mirror unit.
  • the mirror unit MU is connected to a shaft MTa of a motor MT fixed to the casing CS and is driven to rotate.
  • the axis (rotation axis) of the axis MTa extends in the Z direction which is the vertical direction, and the XY plane formed by the X direction and the Y direction orthogonal to the Z direction is a horizontal plane.
  • the axis of MTa may be inclined with respect to the vertical direction.
  • divergent light intermittently emitted in a pulse form from a semiconductor laser LD is converted into a parallel light beam by a collimating lens CL, enters a first mirror surface M1 of a rotating mirror unit MU, and is reflected there. Further, after being reflected by the second mirror surface M2, the light is scanned and projected as a laser spot light having, for example, a vertically long rectangular cross section through the transparent plate TR and toward the external monitoring space.
  • the direction in which the emitted laser spot light is reflected by the object and returned as reflected light is referred to as the light projecting / receiving direction.
  • Laser spot beams traveling in the same light projecting / receiving direction are detected by the same pixel.
  • FIG. 2 is a diagram illustrating a state in which the laser spot light SB (indicated by hatching) emitted in accordance with the rotation of the mirror unit MU scans the monitoring space of the monitoring device MD.
  • the back side of the fence FS is An example of an open space is shown.
  • the crossing angles are different from each other.
  • the laser light is sequentially reflected by the rotating first mirror surface M1 and second mirror surface M2.
  • the laser light reflected by the first pair of the first mirror surface M1 and the second mirror surface M2 moves from the left to the right in the horizontal direction in the uppermost area Ln1 in accordance with the rotation of the mirror unit MU. Is scanned.
  • the laser light reflected by the second pair of the first mirror surface M1 and the second mirror surface M2 moves from the left in the horizontal direction to the second region Ln2 from the top of the monitoring space according to the rotation of the mirror unit MU. Scan to the right.
  • the laser light reflected by the third pair of the first mirror surface M1 and the second mirror surface M2 passes through the third region Ln3 from the top in the monitoring space in accordance with the rotation of the mirror unit MU from the left in the horizontal direction. Scan to the right.
  • the laser beams reflected by the fourth pair of the first mirror surface M1 and the second mirror surface are moved horizontally from left to right in the lowermost region Ln4 of the monitoring space according to the rotation of the mirror unit MU. Scanned.
  • a single frame FL is obtained by combining images obtained by scanning the regions Ln1 to Ln4. If the first pair of the first mirror surface M1 and the second mirror surface M2 return after one rotation of the mirror unit MU, the region from the uppermost region Ln1 to the lowermost region Ln4 is again displayed. Scanning is repeated to obtain the next frame FL.
  • a part of the laser light reflected by the target (here, the fence FS) out of the scanned light beam is transmitted again through the transparent plate TR and the second mirror of the mirror unit MU in the housing CS.
  • the light enters the surface M2, is reflected here, is further reflected by the first mirror surface M1, is collected by the lens LS, and is detected by the light receiving surface of the photodiode PD.
  • the measurable range for example, 50 m
  • the processing circuit PROC as a processing unit obtains distance information according to the time difference between the emission timing of the semiconductor laser LD and the light reception timing of the photodiode PD. Thereby, the object is detected in the entire area in the monitoring space, and a frame FL (see FIG. 2) as a distance image having distance information for each pixel can be obtained. Such a distance image can be transmitted to a remote monitor via a network (not shown) or the like and displayed, or can be stored in a storage device.
  • FIG. 3 is a diagram showing a state in which such a monitoring space is viewed from the side in association with the processing result of the processing circuit PROC.
  • a reference background is set as preparation for monitoring. More specifically, a distance image (that is, a reference background) serving as a reference is obtained by the monitoring device MD in a state where there are no moving objects such as humans and animals.
  • a distance image that is, a reference background
  • the processing result of the processing circuit PROC since the back side of the fence FS is open, according to the processing result of the processing circuit PROC, only the peak P0 (last echo: see FIG. 5) corresponding to the reflected light RB1 of the fence FS appears.
  • the processing unit PROC sets the fence FS as the reference background, and the absolute value
  • the reference background may be set automatically by the processing circuit PROC detecting the fence FS, or may be set by the user specifying an arbitrary reference background using an interface (not shown).
  • the processing circuit PROC obtains the absolute value
  • a ⁇ B (1) since A ⁇ B (1), AB (1) is negative, but taking an absolute value thereof becomes a positive number. Therefore, when
  • the intruder OBJ2 when the intruder OBJ2 approaches the fence FS, the light beam SB from the monitoring device MD enters the intruder OBJ2, and the reflected light returns to the monitoring device MD again. Become.
  • the peak P2 corresponding to the reflected light RB3 from the intruder OBJ2 is placed in front of the peak P0 corresponding to the reference background. Will appear.
  • the processing circuit PROC obtains an absolute value
  • a ⁇ B (2) is a positive number.
  • AB (2) is a positive number.
  • a threshold C which is a predetermined positive number, if
  • the threshold C can be changed as appropriate according to the environment of the monitoring space (daytime, nighttime, etc.).
  • the absolute value of the difference value of the distance between the background and the object is compared with a threshold value only in a part of the monitoring space, and the difference value and the threshold value of the distance between the background and the object are compared in the remaining area. You may compare.
  • FIG. 6 is a flowchart showing the monitoring control performed by the processing circuit PROC of the monitoring device MD according to the present embodiment.
  • the processing circuit PROC scans the laser beam from the light projecting / receiving unit of the monitoring device MD, receives the reflected light, and receives N distance data (distance image) for one frame in the monitoring space.
  • the processing circuit PROC determines whether the user has updated the background image using an interface (not shown). If it is determined that the background image has been updated, the processing circuit PROC registers a new background image (current frame) in step S103, and uses this to detect the monitoring object. If it is determined that the background image has not been updated, the flow bypasses step S103.
  • the processing circuit PROC determines whether or not the absolute value of the difference value D is larger than the threshold value C in step S106. If it is determined that the absolute value of the difference value D is greater than the threshold value C, the processing circuit PROC determines in step S107 that the measurement point is part of the monitoring target. On the other hand, if the absolute value of the difference value D is equal to or less than the threshold value C, the processing circuit PROC determines that the measurement point is not part of the monitoring target.
  • the processing circuit PROC If it is determined that there is an object to be monitored of a predetermined size, the processing circuit PROC outputs an alarm signal in step S111, displays an alarm on a monitor (not shown), returns the flow to step S101, and returns to the next laser. Optical scanning is performed to obtain a distance image for the next frame. On the other hand, when it is determined that there is no monitoring target. The processing circuit PROC returns the flow to step S101 without outputting an alarm signal.
  • FIG. 7 is a diagram showing the processing results of the processing circuit PROC in association with each other.
  • a reference background is set as preparation for monitoring. More specifically, as shown in FIG. 7, a distance image (that is, a reference background) serving as a reference is obtained by the monitoring device MD in a state where there is no moving object such as a human being or an animal. At this time, only the peak P0 (last echo, see FIG. 9) corresponding to the fence FS appears in the processing result of the processing circuit PROC.
  • the processing circuit PROC uses, for example, a horizontal plane as a reference, the range of the angle ⁇ where the light beam is irradiated as the foreground monitoring region, and the range of the angle ⁇ where the light beam different from the angle ⁇ is irradiated as the background monitoring region. And set.
  • the angle ⁇ preferably includes the fence FS in the surveillance space.
  • the reference background in the foreground monitoring area and the reference background in the background monitoring area are fences FS.
  • A be the distance from the monitoring device MD to the obtained peak P0, that is, the fence FS.
  • the setting of the reference background and area may be automatically performed by the processing circuit PROC, or may be arbitrarily designated by the user using an interface (not shown).
  • the flying object DR appears in front of the fence FS and the intruder OBJ1 appears on the back side of the fence FS.
  • a peak P2 appears corresponding to the reflected light RB3 of the flying object DR.
  • a peak P1 appears on the far side of the distance A to the fence FS corresponding to the reflected light RB2 of the intruder OBJ1.
  • different detection algorithms are used for the foreground monitoring area and the background monitoring area. More specifically, in the foreground monitoring area, the background subtraction method is used, the object is determined by the last echo, the distance from the monitoring device to the reference background in the same light projecting and receiving direction, the distance to the object, If the difference between the two exceeds the threshold, the object is recognized as a monitoring object, and in the background monitoring area, the distance from the monitoring device to the object in the same light emitting / receiving direction and the distance to the reference background If the difference exceeds a positive threshold, the object is recognized as a monitoring object.
  • the background subtraction method is used, the object is determined by the last echo, the distance from the monitoring device to the reference background in the same light projecting and receiving direction, the distance to the object, If the difference between the two exceeds the threshold, the object is recognized as a monitoring object, and in the background monitoring area, the distance from the monitoring device to the object in the same light emitting / receiving direction and the distance to the reference background If the difference exceeds a positive threshold
  • the processing circuit PROC has the distance A to the reference background in the same light projecting / receiving direction and the distance B to the flying object DR.
  • a difference (A ⁇ B (2)) from (2) is obtained.
  • AB (2) is a positive number.
  • the processing circuit PROC obtains a difference (B (1) ⁇ A) between the distance B (1) to the intruder OBJ1 and the distance A to the reference background in the same light projecting / receiving direction.
  • B (1) -A is a positive number.
  • This is compared with a threshold value C which is a predetermined positive number, and if B (1) ⁇ A> C, an alarm can be issued if an intruder OBJ1 which is a monitoring target is detected. That is, in the background monitoring area, the object on the back side of the fence FS can be recognized as the monitoring object.
  • the threshold value C may be different between the foreground monitoring area and the background monitoring area.
  • FIG. 10 is a flowchart showing the monitoring control performed by the processing circuit PROC of the monitoring device MD according to the present embodiment.
  • the processing circuit PROC scans the laser beam from the light projecting / receiving unit of the monitoring device MD, receives the reflected light, and receives N distance data (distance image) for one frame in the monitoring space.
  • the processing circuit PROC determines whether the user has updated the background image using an interface (not shown). If it is determined that the background image has been updated, the processing circuit PROC registers a new background image (current frame) in step S203, and uses this to detect the monitoring object. If it is determined that the background image has not been updated, the flow bypasses step S203.
  • the processing circuit PROC determines whether or not the difference value D is larger than the threshold value C in step S208. If it is determined that the difference value D is greater than the threshold value C, the processing circuit PROC determines in step S209 that the measurement point is part of the monitoring target. On the other hand, if the difference value D is equal to or less than the threshold value C, the processing circuit PROC determines that the measurement point is not a part of the monitoring target.
  • the processing circuit PROC If it is determined that there is a monitoring object of a predetermined size, the processing circuit PROC outputs an alarm signal in step S214, displays an alarm on a monitor (not shown), returns the flow to step S201, and returns to the next laser. Optical scanning is performed to obtain a distance image for the next frame. On the other hand, when it is determined that there is no monitoring target. The processing circuit PROC returns the flow to step S201 without outputting an alarm signal.
  • the present invention is not limited to the embodiments described in the specification, and other embodiments and modifications are included for those skilled in the art from the embodiments and technical ideas described in the present specification. it is obvious.
  • the description and the embodiments are for illustrative purposes only, and the scope of the present invention is indicated by the following claims.
  • the foreground monitoring area and the background monitoring area are distinguished by the elevation angle. However, these may be distinguished by the azimuth angle, or any combination of the elevation angle and the azimuth angle may be used.
  • An area can be set in the direction. As a reference background in the foreground monitoring area,

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

基準背景と対象物との距離の差分により物体検出を行う監視システムにおいて、フェンス越しなどの物体を検出できる監視システムを提供する。監視システムにおいて、処理部は、監視空間において基準背景を設定し、投受光ユニットから同一投受光方向における基準背景までの距離Aと、対象物までの距離Bとの差分の絶対値│(A-B)│が正の閾値Cを超えている場合、前記対象物を監視対象物と認定する。

Description

監視システム
 本発明は、例えばレーザ光等を走査投光して物体を監視する監視システムに関する。
 監視空間への侵入者等を検出する監視装置として、距離画像を用いるものが提案されている。ここで距離画像とは、画素値として距離情報を有するものである。具体的には、特許文献1に示すように、レーザ光等を監視空間へ向けて送出し、その送出から反射光の受光までの時間などから監視空間内の対象物までの距離を計測する監視装置が知られている。かかる監視装置では、レーザ光等の測定媒体の送出方向を順次変えて監視空間内を二次元的に走査することにより、監視空間を向いた複数の方向に関する距離情報を得ることができ、これにより距離画像を形成できる。
 距離画像を用いた監視装置では、移動物体が存在しない背景となる距離画像(背景画像)と、入力された距離画像(現画像)とを比較し、背景画像より近い距離に相当する画素を抽出して変化領域を求めることが行われる。そして、変化領域の大きさ・形状及び現画像における距離情報に基づいて、移動物体が目的とする検知対象物であるか否かを判定する。
 距離画像は、レーザ光束等の送受部から見た物体の方向と、当該物体までの距離という情報を有する。よって、距離画像により、物体の大きさ・形状を知ることができ、例えば、侵入者検知の用途においては、遠方の比較的大きな人物と近傍の小動物(鼠や猫等)とを区別することが可能となり、侵入者の検出精度を向上させることができる。
特開2007-122507号公報
 ところで、山奥に設けた重要な施設等では、施設の周囲をフェンスなどで囲うことで、一般人が容易に立ち入れないようにすることが多い。このような施設に監視装置を設けて無人監視を行う場合、人間の行動をフェンス外でいち早く検知できると、早期に警報を発することが出来るので好ましいとされる。一方、監視装置は、人間等の不用意なアクセスを避けるべくフェンス内に設置されることが一般的であるから、監視装置の設置場所によっては、監視装置から出射されたレーザ光がフェンス越しにその内側から外側に向けて進行し、対象物に反射した光が再びフェンスを通って戻ってくる場合がある。ところが、特許文献1の監視装置においては、背景距離画像より手前にある対象距離画像を変化画像として抽出することとなっており、すなわち背景対象物より近い位置の対象物のみを監視対象としている。従って、フェンス画像を背景画像として設定してしまうと、フェンス外側の物体がフェンス越しに見える状況でも、それを検知できなくなるという問題がある。
 本発明は、上記事情に鑑みなされたものであり、基準背景と対象物との距離の差分により物体検出を行う監視システムにおいて、フェンス越しなどの物体を検出できる監視システムを提供することを目的とする。
 上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した監視システムは、
 光束を出射する出射部と、前記光束を監視空間内で走査する走査部と、前記監視空間内の対象物から反射した光束を受光する受光部とを備えた投受光ユニットと、
 前記投受光ユニットからの信号を処理することで、前記対象物までの距離を測定する処理部と、を有する監視システムであって、
 前記処理部は、前記監視空間において基準背景を設定し、前記投受光ユニットから同一投受光方向における基準背景までの距離Aと、前記対象物までの距離Bとの差分の絶対値│(A-B)│が正の閾値Cを超えている場合、前記対象物を監視対象物と認定するものである。
 上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した別の監視システムは、
 光束を出射する出射部と、前記光束を監視空間内で走査する走査部と、前記監視空間内の対象物から反射した光束を受光する受光部とを備えた投受光ユニットと、
 前記投受光ユニットからの信号を処理することで、前記対象物までの距離を測定する処理部と、を有する監視システムであって、
 前記処理部は、前記監視空間において基準背景を設定し、また前記監視空間の任意の範囲に前景監視領域と後景監視領域とを設定可能となっており、前記前景監視領域においては、前記投受光ユニットから同一投受光方向における前記基準背景までの距離Aと、前記対象物までの距離Bとの差分(A-B)が正の閾値Cを超えている場合、前記対象物を監視対象物と認定し、前記後景監視領域においては、前記投受光ユニットから同一投受光方向における前記対象物までの距離Bと、前記基準背景までの距離Aとの差分(B-A)が前記閾値Cを超えている場合、前記対象物を監視対象物と認定するものである。
 本発明によれば、従来技術とは異なる思想に基づき、基準背景と対象物との距離の差分により物体検出を行う監視システムにおいて、フェンス越しなどの物体を検出できる監視システムを提供することができる。
本実施形態にかかる監視装置MDの断面図である。 ミラーユニットMUの回転に応じて、出射するレーザスポット光SB(ハッチングで示す)で、監視装置MDの監視空間内を走査する状態を示す図である。 大きな背景対象物が存在する監視空間を側方から見た状態を示す図である。 監視対象物が侵入した監視空間を側方から見た状態を示す図である。 図4の状態における処理回路PROCの処理結果を示す図であり、縦軸を反射光強度、横軸を距離としている。 本実施形態にかかる監視装置MDの処理回路PROCで行われる監視制御を示すフローチャートである。 背景対象物が存在する監視空間を前景監視領域と後景監視領域とに区分けし、側方から見た状態を示す図である。 監視対象物が侵入した監視空間を側方から見た状態を示す図である。 図8の状態における処理回路PROCの処理結果を示す図であり、(a)は前景監視領域の処理結果であり、(b)は後景監視領域の処理結果であり、それぞれ縦軸を反射光強度、横軸を距離としている。 本実施形態にかかる監視装置MDの処理回路PROCで行われる監視制御を示すフローチャートである。
 以下、添付した図面を参照しながら、本発明の実施形態を説明する。図1は、本実施形態にかかる監視システムとしての監視装置MDの断面図であるが、構成要素の形状や長さ等、実際と異なる場合がある。監視装置MDは、山奥の無人観測所などの重要施設に設置されると好ましい。
 監視装置MDは、例えば、レーザ光束を出射するパルス式の半導体レーザLDと、半導体レーザLDからの発散光を平行光に変換するコリメートレンズCLと、コリメートレンズCLで平行とされたレーザ光を、回転するミラー面により監視空間に向かって走査投光すると共に、対象物からの反射光を反射させるミラーユニットMUと、ミラーユニットMUで反射された対象物からの反射光を集光するレンズLSと、レンズLSにより集光された光を受光するフォトダイオードPDと、半導体レーザLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める処理回路(処理部)PROCと、ミラーユニットMUを回転駆動するモータMTと、これらを収容する筐体CSとを有する。
 本実施形態において、半導体レーザLDとコリメートレンズCLとで出射部LPSを構成し、レンズLSとフォトダイオードPDとで受光部RPSを構成し、ミラーユニットMUが走査部を構成し、更にこれらで投受光ユニットを構成する。出射部LPS、受光部RPSの光軸は、ミラーユニットMUの回転軸ROに対して直交していると好ましい。
 剛体である施設の壁WL等に固定されたボックス状の筐体CSは、上壁CSaと、これに対向する下壁CSbと、上壁CSaと下壁CSbとを連結する側壁CScとを有する。側壁CScの一部に開口CSdが形成され、開口CSdには透明板TRが取り付けられている。
 ミラーユニットMUは、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面M1、M2を4対(但し4対に限られない)有している。ミラー面M1、M2は、ミラーユニットの形状をした樹脂素材(例えばPC)の表面に、反射膜を蒸着することにより形成されていると好ましい。
 ミラーユニットMUは、筐体CSに固定されたモータMTの軸MTaに連結され、回転駆動されるようになっている。本実施形態では、軸MTaの軸線(回転軸線)が鉛直方向であるZ方向に延在しており、Z方向に直交するX方向及びY方向によりなすXY平面が水平面となっているが、軸MTaの軸線を鉛直方向に対して傾けても良い。
 次に、監視装置MDの対象物検出原理について説明する。図1において、半導体レーザLDからパルス状に間欠的に出射された発散光は、コリメートレンズCLで平行光束に変換され、回転するミラーユニットMUの第1ミラー面M1に入射し、ここで反射され、更に第2ミラー面M2で反射した後、透明板TRを透過して外部の監視空間に向けて、例えば縦長の矩形断面を持つレーザスポット光として走査投光される。尚、出射されたレーザスポット光が対象物で反射し、反射光として戻ってくる方向を投受光方向という。同一投受光方向に進行するレーザスポット光束は、同一の画素で検出される。
 図2は、ミラーユニットMUの回転に応じて、出射するレーザスポット光SB(ハッチングで示す)で、監視装置MDの監視空間内を走査する状態を示す図であり、ここではフェンスFSの奥側が開けた空間である例を示している。
 ここで、ミラーユニットMUの第1ミラー面M1と第2ミラー面M2の組み合わせにおいて、それぞれ交差角が異なっている。レーザ光は、回転する第1ミラー面M1と第2ミラー面M2にて、順次反射される。まず1番対の第1ミラー面M1と第2ミラー面M2にて反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の一番上の領域Ln1を水平方向に左から右へと走査される。次に、2番対の第1ミラー面M1と第2ミラー面M2で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の上から二番目の領域Ln2を水平方向に左から右へと走査される。次に、3番対の第1ミラー面M1と第2ミラー面M2で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の上から三番目の領域Ln3を水平方向に左から右へと走査される。次に、4番対の第1ミラー面M1と第2ミラー面で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の最も下の領域Ln4を水平方向に左から右へと走査される。これにより監視装置MDが監視可能な監視空間全体の1回の走査が完了する。この領域Ln1~Ln4の走査により得られた画像を組み合わせて、1つのフレームFLが得られることとなる。そして、ミラーユニットMUが1回転した後、1番対の第1ミラー面M1と第2ミラー面M2が戻ってくれば、再び監視空間の一番上の領域Ln1から最も下の領域Ln4までの走査を繰り返し、次のフレームFLが得られる。
 図1において、走査投光された光束のうち対象物(ここではフェンスFS)に当たって反射したレーザ光の一部は、再び透明板TRを透過して筐体CS内のミラーユニットMUの第2ミラー面M2に入射し、ここで反射され、更に第1ミラー面M1で反射されて、レンズLSにより集光され、それぞれフォトダイオードPDの受光面で検知されることとなる。尚、この例では、フェンスFS以外、測定可能範囲(例えば50m)内に反射する対象物が存在しないので、フェンスFSからの反射光のみがフォトダイオードPDに入射することとなる。
 更に、処理部である処理回路PROCが、半導体レーザLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で対象物の検出を行って、画素毎に距離情報を持つ距離画像としてのフレームFL(図2参照)を得ることができる。かかる距離画像は、不図示のネットワークなどを介して遠方のモニタに送信されて表示されたり、また記憶装置に記憶できる。
 次に、監視装置MDの監視対象物の検知アルゴリズムについて説明する。一般的な背景差分法を用いた対象物監視アルゴリズムでは、最高次の反射光(ラストエコー)を発する対象物の奥には、対象物が存在しないものとしている。「最高次の反射光」とは、前記監視装置MDの最大限測定可能な距離(これを超えると測定不能点となる)以内であって、最も遠方の対象物からの反射光をいうものとする。最高次の反射光を用いて背景対象物を認識して背景画像を設定し、また実際の監視時に最高次の反射光を用いて検知対象物を認識することで、雨や雪、霧などの影響を回避できる。しかしながら、背景差分法によれば、フェンスのようにレーザ光束が透過する物体の取扱いが問題となる。
 ここで、図2とは異なるが、大きなフェンスFSによって監視空間の前面全てが覆われている例を挙げる。図3は、そのような監視空間を側方から見た状態を、処理回路PROCの処理結果に対応づけて示す図である。まず、監視の前準備として基準背景を設定する。より具体的には、人間や動物等の移動物体が存在しない状態で、監視装置MDにより基準となる距離画像(すなわち基準背景)を得る。この例では、フェンスFSの奥側が開けているため、処理回路PROCの処理結果によれば、フェンスFSの反射光RB1に対応するピークP0(ラストエコー:図5参照)しか現れない。
 しかるに、図3に示す監視空間で基準背景をフェンスFSに設定すると、背景差分法を適用する検知アルゴリズムでは、それより奥側の対象物を検出できなくなるという問題がある。
 そこで本実施形態では、かかる問題を以下のようにして解決している。すなわち、処理部PROCが、フェンスFSを基準背景として設定し、同一投受光方向におけるフェンスFSまでの距離Aと、対象物までの距離Bとの差分の絶対値│(A-B)│が正の閾値Cを超えている場合、かかる対象物を監視対象物と認定するのである。尚、基準背景の設定は、処理回路PROCがフェンスFSを検出して自動的に行っても良いし、不図示のインタフェースを用いてユーザーが任意の基準背景を指定して行っても良い。
 より具体的に説明すると、図3の状態で基準背景をフェンスFSに設定した後、図4に示すように、フェンスFSの奥側に侵入者OBJ1が現れると、フェンスFSの網目を通過した光束SBが侵入者OBJ1に入射し、その反射光が再びフェンスFSの網目を通過して監視装置MDに戻ることとなる。この反射光を処理することで、図5に示すように、処理回路PROCからの処理結果において、基準背景に対応したピークP0の奥側に、侵入者OBJ1からの反射光RB2に応じたピークP1が現れることとなる。
 このとき処理回路PROCは、同一投受光方向における基準背景までの距離Aと、対象物OBJ1までの距離B(1)との差分の絶対値│(A-B(1))│を求める。この例では、A<B(1)であるから、A-B(1)は負となるが、その絶対値をとることで正数となる。よって、所定の正数である閾値Cと比較して、│(A-B(1))│>Cであれば、監視対象物である侵入者OBJ1を検知したとしてアラームを発報できる。つまり、監視装置MDによりフェンスFSの奥側の監視空間を監視できるのである。
 更に、図4に示すように、フェンスFSを超えて侵入者OBJ2が接近してきた場合、監視装置MDからの光束SBが侵入者OBJ2に入射し、その反射光が再び監視装置MDに戻ることとなる。この反射光を処理することで、図5に示すように、処理回路PROCからの処理結果において、基準背景に対応したピークP0の手前側に、侵入者OBJ2からの反射光RB3に応じたピークP2が現れることとなる。
 このとき処理回路PROCは、同一投受光方向における基準背景までの距離Aと、対象物OBJ2までの距離B(2)との差分の絶対値│(A-B(2))│を求める。この例では、A>B(2)であるから、A-B(2)は正数になる。これを所定の正数である閾値Cと比較して、│(A-B(2))│>Cであれば、監視対象物である侵入者OBJ2を検知したとしてアラームを発報できる。つまり、監視装置MDによりフェンスFSの手前側の監視空間を監視できるのである。以上を総合すると、フェンスFSを基準背景として、その前後の監視空間を監視できることとなる。尚、閾値Cは監視空間の環境(日中、夜間など)に応じて適宜変更できる。又、監視空間の一部の領域のみ、背景と対象物との距離の差分値の絶対値と閾値とを比較し、残りの領域では、背景と対象物との距離の差分値と閾値とを比較しても良い。
 図6は、本実施形態にかかる監視装置MDの処理回路PROCで行われる監視制御を示すフローチャートである。まず図6のステップS101において、処理回路PROCは、監視装置MDの投受光ユニットからレーザ光の走査を行い、その反射光を受光して監視空間における1フレーム分のN個の距離データ(距離画像)を得る。次いで、処理回路PROCは、ステップS102で、不図示のインタフェースを用いてユーザーが背景画像を更新したか否かを判断する。背景画像を更新したと判断した場合、処理回路PROCは、ステップS103で新たな背景画像(カレントフレーム)を登録して、これを用いて監視対象物を検知する。背景画像を更新しなかったと判断した場合、フローはステップS103を迂回する。
 ここで処理回路PROCは、まずステップS104でN=1とし、更にステップS105で、N番目の測定点の3次元座標に基づいて、監視装置MDから同一投受光方向における基準背景までの距離Aと、対象物までの距離Bとの差分値Dを求める。
 処理回路PROCは、ステップS106で、差分値Dの絶対値が閾値Cより大きいか否かを判断する。差分値Dの絶対値が閾値Cより大きいと判断すれば、処理回路PROCはステップS107で、当該測定点が監視対象物の一部になると判断する。一方、差分値Dの絶対値が閾値C以下であれば、処理回路PROCは、当該測定点が監視対象物の一部ではないと判断する。
 更に処理回路PROCは、ステップS108で、フレーム内の全ての測定点について演算が終わったか否かを判断し、演算し終わっていないと判断した場合、ステップS109でN=N+1として、フローをステップS105へと戻す。一方、フレーム内の全ての測定点について演算が終わったと判断した場合、ステップS110で処理回路PROCは、ステップS107の判断結果を総合し、例えば検知した対象物が所定の大きさを持つか否か等を勘案して、所定の大きさの監視対象物が存在するか否か判断する。所定の大きさの監視対象物が存在すると判断した場合、ステップS111で処理回路PROCはアラーム信号を出力し、不図示のモニタにおいて警報表示を行い、フローをステップS101へと戻して、次のレーザ光走査を行って次のフレームについて距離画像を得る。一方、監視対象物が存在しないと判断した場合。処理回路PROCはアラーム信号を出力することなく、フローをステップS101へと戻す。
 次に、別の実施形態にかかる監視対象物の検知アルゴリズムについて説明する。図7は、処理回路PROCの処理結果に対応づけて示す図である。まず、監視の前準備として基準背景を設定する。より具体的には、図7に示すように、人間や動物等の移動物体が存在しない状態で、監視装置MDにより基準となる距離画像(すなわち基準背景)を得る。このとき、処理回路PROCの処理結果では、フェンスFSに対応するピークP0(ラストエコー、図9参照)しか現れない。
 本実施形態では、処理回路PROCが、例えば水平面を基準として、光束が照射される角度αの範囲を前景監視領域とし、角度αとは異なる光束が照射される角度βの範囲を後景監視領域と設定する。角度βは監視空間内のフェンスFSを含むと好ましい。この例では、前景監視領域における基準背景、及び後景監視領域における基準背景は、フェンスFSとする。又、監視装置MDから、求めたピークP0すなわちフェンスFSまでの距離をAとする。尚、基準背景及び領域の設定は、処理回路PROCが自動的に行っても良いし、不図示のインタフェースを用いてユーザーが任意に指定して行っても良い。
 この例では、図8に示すように、フェンスFSの手前に飛翔体DRが現れ、またフェンスFSの奥側に侵入者OBJ1が現れたものとする。かかる場合、処理回路PROCからの処理結果において、図9(a)に示すように、飛翔体DRの反射光RB3に対応してピークP2が現れる。又、図9(b)に示すように、フェンスFSまでの距離Aの奥側に、侵入者OBJ1の反射光RB2に対応してピークP1が現れる。
 本実施形態においては、前景監視領域と後景監視領域とで異なる検知アルゴリズムを用いることとする。より具体的には、前景監視領域においては、背景差分法を用いることとし、対象物をラストエコーで判別し、監視装置から同一投受光方向における基準背景までの距離と、対象物までの距離との差分が閾値を超えている場合、かかる対象物を監視対象物と認定し、後景監視領域においては、監視装置から同一投受光方向における対象物までの距離と、基準背景までの距離との差分が正の閾値を超えている場合、かかる対象物を監視対象物と認定する。
 具体例で示すと、飛翔体DRまでの距離がB(2)であったものとするとき、処理回路PROCは、同一投受光方向における基準背景までの距離Aと、飛翔体DRまでの距離B(2)との差分(A-B(2))を求める。この例では、A>B(2)であるから、A-B(2)は正数になる。これを所定の正数である閾値Cと比較して、(A-B(2))>Cであれば、監視対象物である飛翔体DRを検知したとしてアラームを発報できる。
 一方、侵入者OBJ1が後景監視領域に存在し、その距離がB(1)であったものとする。このとき処理回路PROCは、同一投受光方向における侵入者OBJ1までの距離B(1)と、基準背景までの距離Aと、の差分(B(1)-A)を求める。この例では、B(1)>Aであるから、B(1)-Aは正数になる。これを所定の正数である閾値Cと比較して、B(1)-A>Cであれば、監視対象物である侵入者OBJ1を検知したとしてアラームを発報できる。つまり、後景監視領域であれば、フェンスFSの奥側の対象物を監視対象物として認定できることとなる。前景監視領域と後景監視領域とで閾値Cを異ならせても良い。
 図10は、本実施形態にかかる監視装置MDの処理回路PROCで行われる監視制御を示すフローチャートである。まず図10のステップS201において、処理回路PROCは、監視装置MDの投受光ユニットからレーザ光の走査を行い、その反射光を受光して監視空間における1フレーム分のN個の距離データ(距離画像)を得る。次いで、処理回路PROCは、ステップS202で、不図示のインタフェースを用いてユーザーが背景画像を更新したか否かを判断する。背景画像を更新したと判断した場合、処理回路PROCは、ステップS203で新たな背景画像(カレントフレーム)を登録して、これを用いて監視対象物を検知する。背景画像を更新しなかったと判断した場合、フローはステップS203を迂回する。
 ここで処理回路PROCは、まずステップS204でN=1とし、更にステップS205で、N番目の測定点が前景監視領域に属するか、或いは後景監視領域に属するかを判断する。N番目の測定点が前景監視領域に属すると判断した場合、処理回路PROCは、ステップS206で、監視装置MDから同一投受光方向における基準背景までの距離Aから、対象物までの距離Bを除して差分値Dを求める。一方、N番目の測定点が後景監視領域に属すると判断した場合、処理回路PROCは、ステップS207で、監視装置MDから同一投受光方向における対象物までの距離Bから、基準背景までの距離Aを除して差分値Dを求める。
 更に処理回路PROCは、ステップS208で、差分値Dが閾値Cより大きいか否かを判断する。差分値Dが閾値Cより大きいと判断すれば、処理回路PROCはステップS209で、当該測定点が監視対象物の一部になると判断する。一方、差分値Dが閾値C以下であれば、処理回路PROCは、当該測定点が監視対象物の一部ではないと判断する。
 更に処理回路PROCは、ステップS211で、フレーム内の全ての測定点について演算が終わったか否かを判断し、終わっていないと判断した場合、ステップS212でN=N+1として、フローをステップS205へと戻す。一方、フレーム内の全ての測定点について演算が終わったと判断した場合、ステップS213で処理回路PROCは、ステップS209の判断結果を総合し、例えば検知した対象物が所定の大きさを持つか否か等を勘案して、所定の大きさの監視対象物が存在するか否か判断する。所定の大きさの監視対象物が存在すると判断した場合、ステップS214で処理回路PROCはアラーム信号を出力し、不図示のモニタにおいて警報表示を行い、フローをステップS201へと戻して、次のレーザ光走査を行って次のフレームについて距離画像を得る。一方、監視対象物が存在しないと判断した場合。処理回路PROCはアラーム信号を出力することなく、フローをステップS201へと戻す。
 本発明は、明細書に記載の実施形態に限定されるものではなく、他の実施形態・変形例を含むことは、本明細書に記載された実施形態や技術思想から本分野の当業者にとって明らかである。明細書の記載及び実施形態は、あくまでも例証を目的としており、本発明の範囲は後述するクレームによって示されている。以上の例では、図6、7に示すように仰角で前景監視領域と後景監視領域とを区別しているが、方位角でこれらを区別しても良いし、仰角及び方位角を組み合わせて任意の方向に領域設定することもできる。又、前景監視領域における基準背景としては、
CL       コリメートレンズ
CS       筐体
CSa      上壁
CSb      下壁
CSc      側壁
CSd      開口
DR1、DR2  飛翔体
FL       フレーム
FS       フェンス
LD       半導体レーザ
LPS      出射部
LS       レンズ
M1、M2    ミラー面
MD       監視装置
MT       モータ
MTa      軸
MU       ミラーユニット
OBJ、OBJ1、OBJ2  侵入者
PD       フォトダイオード
PROC     処理回路
RB1、RB2、RB3  反射光
RO       回転軸
RPS      受光部
SB       レーザスポット光
TR       透明板
WL       壁

Claims (5)

  1.  光束を出射する出射部と、前記光束を監視空間内で走査する走査部と、前記監視空間内の対象物から反射した光束を受光する受光部とを備えた投受光ユニットと、
     前記投受光ユニットからの信号を処理することで、前記対象物までの距離を測定する処理部と、を有する監視システムであって、
     前記処理部は、前記監視空間において基準背景を設定し、前記投受光ユニットから同一投受光方向における基準背景までの距離Aと、前記対象物までの距離Bとの差分の絶対値│(A-B)│が正の閾値Cを超えている場合、前記対象物を監視対象物と認定する監視システム。
  2.  前記処理部は、前記監視空間の一部の領域において、前記投受光ユニットから同一投受光方向における基準背景までの距離Aと、前記対象物までの距離Bとの差分の絶対値│(A-B)│が正の閾値Cを超えている場合、前記対象物を監視対象物と認定する請求項1に記載の監視システム。
  3.  前記処理部は、最高次反射光を反射した対象物を前記基準背景又は検知すべき対象物と認定する請求項1又は2に記載の監視システム。
  4.  光束を出射する出射部と、前記光束を監視空間内で走査する走査部と、前記監視空間内の対象物から反射した光束を受光する受光部とを備えた投受光ユニットと、
     前記投受光ユニットからの信号を処理することで、前記対象物までの距離を測定する処理部と、を有する監視システムであって、
     前記処理部は、前記監視空間において基準背景を設定し、また前記監視空間の任意の範囲に前景監視領域と後景監視領域とを設定可能となっており、前記前景監視領域においては、前記投受光ユニットから同一投受光方向における前記基準背景までの距離Aと、前記対象物までの距離Bとの差分(A-B)が正の閾値Cを超えている場合、前記対象物を監視対象物と認定し、前記後景監視領域においては、前記投受光ユニットから同一投受光方向における前記対象物までの距離Bと、前記基準背景までの距離Aとの差分(B-A)が前記閾値Cを超えている場合、前記対象物を監視対象物と認定する監視システム。
  5.  前記前景監視領域においては、前記処理部は、最高次反射光を反射した対象物を前記基準背景又は検知すべき対象物と認定する請求項4に記載の監視システム。
PCT/JP2017/017466 2016-05-13 2017-05-09 監視システム WO2017195755A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018517021A JPWO2017195755A1 (ja) 2016-05-13 2017-05-09 監視システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016096996 2016-05-13
JP2016-096996 2016-05-13

Publications (1)

Publication Number Publication Date
WO2017195755A1 true WO2017195755A1 (ja) 2017-11-16

Family

ID=60267304

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/017466 WO2017195755A1 (ja) 2016-05-13 2017-05-09 監視システム

Country Status (2)

Country Link
JP (1) JPWO2017195755A1 (ja)
WO (1) WO2017195755A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005101807A (ja) * 2003-09-24 2005-04-14 Yamatake Corp 屋外監視装置および屋外監視方法
US20110043806A1 (en) * 2008-04-17 2011-02-24 Avishay Guetta Intrusion warning system
JP2014089772A (ja) * 2014-02-17 2014-05-15 Secom Co Ltd 監視用センサ
WO2016002776A1 (ja) * 2014-07-03 2016-01-07 三菱電機株式会社 監視装置
JP2016052835A (ja) * 2014-09-03 2016-04-14 株式会社デンソーアイティーラボラトリ 移動物体位置予測装置、移動物体位置予測方法及び移動物体位置予測用コンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005101807A (ja) * 2003-09-24 2005-04-14 Yamatake Corp 屋外監視装置および屋外監視方法
US20110043806A1 (en) * 2008-04-17 2011-02-24 Avishay Guetta Intrusion warning system
JP2014089772A (ja) * 2014-02-17 2014-05-15 Secom Co Ltd 監視用センサ
WO2016002776A1 (ja) * 2014-07-03 2016-01-07 三菱電機株式会社 監視装置
JP2016052835A (ja) * 2014-09-03 2016-04-14 株式会社デンソーアイティーラボラトリ 移動物体位置予測装置、移動物体位置予測方法及び移動物体位置予測用コンピュータプログラム

Also Published As

Publication number Publication date
JPWO2017195755A1 (ja) 2019-03-22

Similar Documents

Publication Publication Date Title
US7164116B2 (en) Monitor for intrusion detection
US4949074A (en) Method of intrusion detection
US20040066500A1 (en) Occupancy detection and measurement system and method
JP2001509631A (ja) 侵入者検出システム
Dogru et al. Drone detection using sparse lidar measurements
KR20190011497A (ko) 하이브리드 라이다 스캐너
RU2375724C1 (ru) Способ лазерной локации заданной области пространства и устройство для его осуществления
JP6988797B2 (ja) 監視システム
WO2020105527A1 (ja) 画像解析装置、画像解析システム、および制御プログラム
JP2017215642A (ja) 監視システム
JP6825623B2 (ja) 監視システムの設定方法及び監視システム
WO2017195755A1 (ja) 監視システム
JP6825624B2 (ja) 監視システム
US11935380B2 (en) Operating a scanning smoke detector
EP2476014B1 (en) Device and method for object detection and location
JP6835079B2 (ja) 監視システム
JP7020096B2 (ja) 物体検出装置、物体検出装置の制御方法、および物体検出装置の制御プログラム
US20170307874A1 (en) Scanning Optical System And Radar
US10605917B2 (en) Optical-scanning-type object detection device having a mirror surface to be inclined in a direction crossing a rotation axis
WO2020008685A1 (ja) 情報報知装置、情報報知装置用プログラム、および情報報知システム
US20220291502A1 (en) Optical scanning system
CN116386263A (zh) 防触电的提醒方法、装置和设备
JPH10198871A (ja) 侵入監視装置
JPWO2020105225A1 (ja) 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム
JP2019105545A (ja) 物体監視装置、制御方法、および制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018517021

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17796116

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17796116

Country of ref document: EP

Kind code of ref document: A1