JP6835079B2 - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP6835079B2
JP6835079B2 JP2018517019A JP2018517019A JP6835079B2 JP 6835079 B2 JP6835079 B2 JP 6835079B2 JP 2018517019 A JP2018517019 A JP 2018517019A JP 2018517019 A JP2018517019 A JP 2018517019A JP 6835079 B2 JP6835079 B2 JP 6835079B2
Authority
JP
Japan
Prior art keywords
value
light
distance
pixel
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018517019A
Other languages
Japanese (ja)
Other versions
JPWO2017195753A1 (en
Inventor
潤一 藤田
潤一 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2017195753A1 publication Critical patent/JPWO2017195753A1/en
Application granted granted Critical
Publication of JP6835079B2 publication Critical patent/JP6835079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/181Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、例えばレーザ光等を走査投光して物体を監視する監視システムに関する。 The present invention relates to a monitoring system that monitors an object by scanning and projecting, for example, laser light.

監視空間への侵入者等を検出する監視装置として、距離画像を用いるものが提案されている。ここで距離画像とは、画素値として距離情報を有するものである。具体的には、特許文献1に示すように、レーザ光等を監視空間へ向けて送出し、その送出から反射光の受光までの時間などから監視空間内の対象物までの距離を計測する監視装置が知られている。かかる監視装置では、レーザ光等の測定媒体の送出方向を順次変えて監視空間内を二次元的に走査することにより、監視空間を向いた複数の方向に関する距離情報を得ることができ、これにより距離画像を形成できる。 As a monitoring device for detecting an intruder or the like into the monitoring space, a device using a distance image has been proposed. Here, the distance image has distance information as a pixel value. Specifically, as shown in Patent Document 1, a monitoring that sends a laser beam or the like toward a monitoring space and measures the distance from the transmission to the reception of reflected light to an object in the monitoring space. The device is known. In such a monitoring device, distance information regarding a plurality of directions facing the monitoring space can be obtained by sequentially changing the transmission direction of a measurement medium such as a laser beam and scanning the inside of the monitoring space two-dimensionally. A distance image can be formed.

距離画像を用いた監視装置では、移動物体が存在しない背景となる距離画像(背景画像)を予め求め、得られた背景画像と、入力された距離画像(現画像)とを比較し、所定値以上距離が変化した画素を抽出して変化領域を求める,いわゆる背景差分法が用いられる。これにより、変化領域の大きさ・形状及び現画像における距離情報に基づいて、移動物体が目的とする検知対象物であるか否かを判定することができる。 In a monitoring device using a distance image, a distance image (background image) that is a background in which no moving object exists is obtained in advance, and the obtained background image is compared with the input distance image (current image) to obtain a predetermined value. The so-called background subtraction method is used, in which pixels whose distances have changed are extracted to obtain a change region. Thereby, it is possible to determine whether or not the moving object is the target object to be detected based on the size and shape of the changing region and the distance information in the current image.

距離画像は、レーザ光束等の送受部から見た物体の方向と、当該物体までの距離という情報を有する。よって、距離画像により、物体の大きさ・形状を知ることができ、例えば、侵入者検知の用途においては、遠方の比較的大きな人物と近傍の小動物(鼠や猫等)とを区別することが可能となり、侵入者の検出精度を向上させることができる。 The distance image has information of the direction of the object as seen from the transmission / reception unit such as the laser luminous flux and the distance to the object. Therefore, the size and shape of an object can be known from a distance image. For example, in the application of intruder detection, it is possible to distinguish between a relatively large person in the distance and a small animal in the vicinity (rat, cat, etc.). This makes it possible to improve the detection accuracy of intruders.

特開2007−122507号公報JP-A-2007-122507 特開2011−133320号公報Japanese Unexamined Patent Publication No. 2011-133320

ここで、背景差分法を用いた対象物検知アルゴリズムにより、物体の検出を行う場合、測定距離のばらつきが問題となる。背景差分法では、背景の距離データを基準画像として保持しておき、現画像との距離差分値が所定値以上あれば、その画素を基準画像よりも手前に位置する前景物、すなわち検出物体とする方法であるが、距離測定の再現性が低く測定距離ばらつきが大きい場合、測定距離ばらつきにより背景に距離変動が生じたことで背景自身を物体として誤検出してしまう恐れがある。 Here, when the object is detected by the object detection algorithm using the background subtraction method, the variation in the measurement distance becomes a problem. In the background subtraction method, background distance data is held as a reference image, and if the distance difference value from the current image is equal to or greater than a predetermined value, the pixel is regarded as a foreground object located in front of the reference image, that is, a detected object. However, when the reproducibility of distance measurement is low and the measurement distance variation is large, the background itself may be erroneously detected as an object due to the distance variation in the background due to the measurement distance variation.

この問題について、さらに具体的に説明する。ある画素の所定期間内の距離ばらつきの分布例を図4に示す。例えば、所定フレーム数の平均値を当該画素の背景画素値として採用した場合、以降の測定でその平均値よりも小さい距離値が測定距離のばらつきにより取得されてしまうと、そのフレームにおいて当該画素は背景差分法により背景が検出物体として抽出され、誤検出となってしまう。特に図4(b)〜(d)に示すような距離ばらつきの大きな例の場合、これは問題となる。 This problem will be described more specifically. FIG. 4 shows an example of distribution of distance variation within a predetermined period of a certain pixel. For example, when the average value of a predetermined number of frames is adopted as the background pixel value of the pixel, if a distance value smaller than the average value is acquired due to the variation in the measurement distance in the subsequent measurement, the pixel is used in the frame. The background is extracted as a detection object by the background subtraction method, resulting in false detection. This is a problem especially in the case of an example having a large distance variation as shown in FIGS. 4 (b) to 4 (d).

上記の問題への対策としては、例えば以下のものが考えられる。通常、フレームの中の特定部分だけ距離ばらつきが大きくなる事は起こりにくいため、上記のような測定距離ばらつき起因の誤検出画素はフレーム中に離散的な位置に散在する事が多い。この性質を利用し、あるまとまった画素数以上を有する塊だけを検出対象とする事で誤検出を低減することができる。しかしながら、この対策ではある画素数未満の小さな物体を検出できなくなってしまうから、ドローンなどの小型飛翔体や投擲物の検知が困難になるという問題が残る。 For example, the following can be considered as countermeasures for the above problems. Normally, it is unlikely that the distance variation becomes large only in a specific portion in the frame, so that the false detection pixels due to the measurement distance variation as described above are often scattered at discrete positions in the frame. By utilizing this property, erroneous detection can be reduced by targeting only a mass having a certain number of pixels or more as a detection target. However, this countermeasure makes it impossible to detect small objects with a number of pixels less than a certain number, so there remains the problem that it becomes difficult to detect small flying objects such as drones and thrown objects.

これに対し特許文献2には、所定の被測定対象に光を走査させてこの走査領域における各画素の距離値を検出する距離画像センサと、前記距離画像センサから入力される各画素の距離値に基づいて背景画像を生成するとともに、この背景画像の距離値の差分から距離画像を生成する画像処理回路を備えた画像データ処理装置と、を備え、前記画像処理回路は、前記距離画像センサにより取得された各画素の距離値が最大となる距離値を保存しておき、各画素の最大の距離値に基づいて背景画像を生成するように構成されている距離画像処理システムが開示されている。 On the other hand, Patent Document 2 describes a distance image sensor that scans light on a predetermined object to be measured to detect the distance value of each pixel in this scanning region, and a distance value of each pixel input from the distance image sensor. An image data processing device including an image processing circuit that generates a background image based on the above and also generates a distance image from the difference in the distance value of the background image, and the image processing circuit is provided by the distance image sensor. A distance image processing system configured to store a distance value that maximizes the acquired distance value of each pixel and generate a background image based on the maximum distance value of each pixel is disclosed. ..

しかしながら、この先行技術は距離ばらつきが予め想定される範囲に収まるような図4(a)に示すごとき画素に対しては有効であるが、図4(b)〜(d)に示すような予め想定できないような大きな距離ばらつきを有する画素に対しては、予め想定した距離ばらつきの範囲外の距離が測定される度に、その画素が検出物体として抽出され誤検出画素となってしまうという課題があった。 However, although this prior art is effective for the pixels as shown in FIG. 4 (a) in which the distance variation falls within the range assumed in advance, the prior art as shown in FIGS. 4 (b) to 4 (d) is effective. For pixels with a large distance variation that cannot be expected, there is a problem that each time a distance outside the range of the distance variation assumed in advance is measured, the pixel is extracted as a detection object and becomes a false detection pixel. there were.

本発明は、上記事情に鑑みなされたものであり、各画素の測定距離ばらつきの分布特性に応じて、適切な背景画素値を設定する事で背景差分法により物体検出の誤検出を低減する監視システムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and monitoring that reduces false detection of object detection by the background subtraction method by setting an appropriate background pixel value according to the distribution characteristics of measurement distance variation of each pixel. The purpose is to provide a system.

上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した監視システムは、
光束を出射する出射部と、前記光束を監視空間内で走査する走査部と、前記監視空間内の対象物から反射した光束を受光する受光部とを備えた投受光ユニットと、
前記出射部より光束を出射した出射時刻と、前記対象物から反射した光束を前記受光部で受光した受光時刻との時間差に基づいて、前記対象物までの距離値を求める処理部と、を有する監視システムであって、
前記処理部は、監視前処理として、n回の走査を行って前記投受光ユニットから対象物までの距離をn個求めて統計処理を行い、その標準偏差σが閾値σth未満である場合には、前記n個の距離値の中央値を背景画素値とし、前記標準偏差σが前記閾値σth以上である場合には、前記n個の距離値の中央値より低く且つ最小値以上の値を背景画素値とし、
前記処理部は、対象物監視時に、前記監視空間からの反射光を測定して距離値を求め、前記求めた距離値が、同一投受光方向における前記反射光を測定して得られた前記背景画素値よりも小さい場合に、監視対象物と認識するものである。
In order to achieve at least one of the above mentioned objectives, a monitoring system that reflects one aspect of the invention
A light emitting / receiving unit including an emitting unit that emits a light beam, a scanning unit that scans the light beam in the monitoring space, and a light receiving unit that receives the light beam reflected from an object in the monitoring space.
It has a processing unit that obtains a distance value to the object based on the time difference between the emission time when the luminous flux is emitted from the emission unit and the light reception time when the light flux reflected from the object is received by the light receiving unit. It ’s a monitoring system,
As a pre-monitoring process, the processing unit performs n times of scanning to obtain n distances from the light emitting / receiving unit to the object, and performs statistical processing. If the standard deviation σ is less than the threshold value σth, the processing unit performs statistical processing. The median value of the n distance values is used as the background pixel value, and when the standard deviation σ is equal to or greater than the threshold value σth, the background is a value lower than the median value of the n distance values and equal to or greater than the minimum value. As a pixel value
At the time of object monitoring, the processing unit measures the reflected light from the monitoring space to obtain a distance value, and the obtained distance value measures the reflected light in the same light emitting / receiving direction to obtain the background. When it is smaller than the pixel value, it is recognized as a monitored object.

本発明によれば、各画素の測定距離ばらつきの分布特性に応じて、適切な背景画素値を設定する事で背景差分法により物体検出の誤検出を低減する監視システムを提供することができる。 According to the present invention, it is possible to provide a monitoring system that reduces false detection of object detection by the background subtraction method by setting an appropriate background pixel value according to the distribution characteristic of the measurement distance variation of each pixel.

本実施形態にかかる監視装置MDの断面図である。It is sectional drawing of the monitoring apparatus MD which concerns on this embodiment. ミラーユニットMUの回転に応じて、出射するレーザスポット光SB(ハッチングで示す)で、監視装置MDの監視空間内を走査する状態を示す図である。It is a figure which shows the state which scans in the monitoring space of the monitoring apparatus MD by the laser spot light SB (shown by a hatching) which emits with the rotation of a mirror unit MU. 監視空間を側方から見た状態を示す図である。It is a figure which shows the state which looked at the monitoring space from the side. 背景対象物に対するn回の走査によって得られた1つの画素上での背景対象物までの距離値を横軸にとり、その頻度を縦軸にとって示すヒストグラムの例である。This is an example of a histogram in which the distance value to the background object on one pixel obtained by n times of scanning the background object is taken on the horizontal axis and the frequency is shown on the vertical axis. 基準画像を処理回路PROCが生成するための監視前処理を示すフローチャートである。It is a flowchart which shows the monitoring preprocessing for the processing circuit PROC to generate a reference image. 本発明者が行った実験結果を示すヒストグラムである。It is a histogram which shows the experimental result performed by the present invention.

以下、添付した図面を参照しながら、本発明の実施形態を説明する。図1は、本実施形態にかかる監視システムとしての監視装置MDの断面図であるが、構成要素の形状や長さ等、実際と異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. FIG. 1 is a cross-sectional view of a monitoring device MD as a monitoring system according to the present embodiment, but the shape and length of the components may differ from the actual ones.

監視装置MDは、例えば、レーザ光束を出射するパルス式の半導体レーザLDと、半導体レーザLDからの発散光を平行光に変換するコリメートレンズCLと、コリメートレンズCLで平行とされたレーザ光を、回転するミラー面により監視空間に向かって走査投光すると共に、対象物からの反射光を反射させるミラーユニットMUと、ミラーユニットMUで反射された対象物からの反射光を集光するレンズLSと、レンズLSにより集光された光を受光するフォトダイオードPDと、半導体レーザLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める処理回路(処理部)PROCと,ミラーユニットMUを回転駆動するモータMTと、これらを収容する筐体CSとを有する。フォトダイオードPDは、Z方向に並んだ複数の画素を有する。 The monitoring device MD is, for example, a pulse type semiconductor laser LD that emits a laser beam, a collimating lens CL that converts divergent light from the semiconductor laser LD into parallel light, and a laser beam that is parallel to the collimating lens CL. A mirror unit MU that scans and projects light toward the monitoring space by a rotating mirror surface and reflects the reflected light from the object, and a lens LS that collects the reflected light from the object reflected by the mirror unit MU. , The photodiode PD that receives the light collected by the lens LS, the processing circuit (processing unit) PROC that obtains the distance information according to the time difference between the emission timing of the semiconductor laser LD and the reception timing of the photodiode PD, and the mirror. It has a motor MT for rotationally driving the unit MU and a housing CS for accommodating them. The photodiode PD has a plurality of pixels arranged in the Z direction.

本実施形態において、半導体レーザLDとコリメートレンズCLとで出射部LPSを構成し、レンズLSとフォトダイオードPDとで受光部RPSを構成し、ミラーユニットMUが走査部を構成し、更にこれらで投受光ユニットを構成する。出射部LPS、受光部RPSの光軸は、ミラーユニットMUの回転軸ROに対して直交していると好ましい。 In the present embodiment, the semiconductor laser LD and the collimating lens CL form an emitting unit LPS, the lens LS and the photodiode PD form a light receiving unit RPS, and the mirror unit MU constitutes a scanning unit, and these are used for throwing. It constitutes a light receiving unit. It is preferable that the optical axes of the emitting unit LPS and the light receiving unit RPS are orthogonal to the rotation axis RO of the mirror unit MU.

剛体である壁WL等に固定されたボックス状の筐体CSは、上壁CSaと、これに対向する下壁CSbと、上壁CSaと下壁CSbとを連結する側壁CScとを有する。側壁CScの一部に開口CSdが形成され、開口CSdには透明板TRが取り付けられている。 The box-shaped housing CS fixed to a rigid wall WL or the like has an upper wall CSa, a lower wall CSb facing the upper wall CSa, and a side wall CSc connecting the upper wall CSa and the lower wall CSb. An opening CSd is formed in a part of the side wall CSc, and a transparent plate TR is attached to the opening CSd.

ミラーユニットMUは、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面M1、M2を4対(但し4対に限られない)有している。ミラー面M1、M2は、ミラーユニットの形状をした樹脂素材(例えばPC)の表面に、反射膜を蒸着することにより形成されていると好ましい。 The mirror unit MU has a shape in which two quadrangular pyramids are joined in opposite directions and integrated, that is, four pairs (but not limited to four pairs) of mirror surfaces M1 and M2 tilted in a pair facing direction. ) Have. The mirror surfaces M1 and M2 are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC) in the shape of a mirror unit.

ミラーユニットMUは、筐体CSに固定されたモータMTの軸MTaに連結され、回転駆動されるようになっている。本実施形態では、軸MTaの軸線(回転軸線)が鉛直方向であるZ方向に延在しており、Z方向に直交するX方向及びY方向によりなすXY平面が水平面となっているが、軸MTaの軸線を鉛直方向に対して傾けても良い。 The mirror unit MU is connected to the shaft MTa of the motor MT fixed to the housing CS and is rotationally driven. In the present embodiment, the axis (rotational axis) of the axis MTa extends in the Z direction, which is the vertical direction, and the XY plane formed by the X and Y directions orthogonal to the Z direction is the horizontal plane. The axis of MTa may be tilted with respect to the vertical direction.

次に、監視装置MDの対象物検出原理について説明する。図1において、半導体レーザLDからパルス状に間欠的に出射された発散光は、コリメートレンズCLで平行光束に変換され、回転するミラーユニットMUの第1ミラー面M1に入射し、ここで反射され、更に第2ミラー面M2で反射した後、透明板TRを透過して外部の監視空間に向けて、例えば縦長の矩形断面を持つレーザスポット光として走査投光される。尚、出射されたレーザスポット光が対象物で反射し、反射光として戻ってくる方向を投受光方向という。同一投受光方向に進行するレーザスポット光束は、同一の画素で検出される。 Next, the object detection principle of the monitoring device MD will be described. In FIG. 1, the divergent light emitted intermittently in a pulse shape from the semiconductor laser LD is converted into a parallel light beam by the collimating lens CL, is incident on the first mirror surface M1 of the rotating mirror unit MU, and is reflected here. After being further reflected by the second mirror surface M2, the light is scanned and projected as laser spot light having a vertically long rectangular cross section, for example, through the transparent plate TR and directed toward the external monitoring space. The direction in which the emitted laser spot light is reflected by the object and returned as reflected light is called the light emitting / receiving direction. The laser spot luminous flux traveling in the same light emitting / receiving direction is detected by the same pixel.

図2は、ミラーユニットMUの回転に応じて、出射するレーザスポット光SB(ハッチングで示す)で、監視装置MDの監視空間内を走査する状態を示す図である。ここで、ミラーユニットMUの第1ミラー面M1と第2ミラー面M2の組み合わせにおいて、それぞれ交差角が異なっている。レーザ光は、回転する第1ミラー面M1と第2ミラー面M2にて、順次反射される。まず1番対の第1ミラー面M1と第2ミラー面M2にて反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の一番上の領域Ln1を水平方向に左から右へと走査される。次に、2番対の第1ミラー面M1と第2ミラー面M2で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の上から二番目の領域Ln2を水平方向に左から右へと走査される。次に、3番対の第1ミラー面M1と第2ミラー面M2で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の上から三番目の領域Ln3を水平方向に左から右へと走査される。次に、4番対の第1ミラー面M1と第2ミラー面で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の最も下の領域Ln4を水平方向に左から右へと走査される。これにより監視装置MDが監視可能な監視空間全体の1回の走査が完了する。この領域Ln1〜Ln4の走査により得られた画像を組み合わせて、1つのフレームFLが得られることとなる。そして、ミラーユニットMUが1回転した後、1番対の第1ミラー面M1と第2ミラー面M2が戻ってくれば、再び監視空間の一番上の領域Ln1から最も下の領域Ln4までの走査を繰り返し、次のフレームFLが得られる。 FIG. 2 is a diagram showing a state in which the laser spot light SB (shown by hatching) emitted in response to the rotation of the mirror unit MU scans in the monitoring space of the monitoring device MD. Here, the crossing angles are different in the combination of the first mirror surface M1 and the second mirror surface M2 of the mirror unit MU. The laser beam is sequentially reflected by the rotating first mirror surface M1 and the second mirror surface M2. First, the laser beam reflected by the first pair of first mirror surfaces M1 and the second mirror surface M2 horizontally moves from left to right in the uppermost region Ln1 of the monitoring space according to the rotation of the mirror unit MU. Is scanned. Next, the laser beam reflected by the second pair of the first mirror surface M1 and the second mirror surface M2 horizontally covers the second region Ln2 from the top of the monitoring space from the left in accordance with the rotation of the mirror unit MU. Scanned to the right. Next, the laser beam reflected by the third pair of the first mirror surface M1 and the second mirror surface M2 horizontally covers the third region Ln3 from the top of the monitoring space from the left in accordance with the rotation of the mirror unit MU. Scanned to the right. Next, the laser beam reflected by the 4th pair of the first mirror surface M1 and the second mirror surface horizontally moves from left to right in the lowermost region Ln4 of the monitoring space according to the rotation of the mirror unit MU. It is scanned. This completes one scan of the entire monitoring space that can be monitored by the monitoring device MD. One frame FL can be obtained by combining the images obtained by scanning the regions Ln1 to Ln4. Then, if the first pair of first mirror surfaces M1 and the second mirror surface M2 return after one rotation of the mirror unit MU, the area from the top region Ln1 to the bottom region Ln4 of the monitoring space is restored again. The scanning is repeated to obtain the next frame FL.

図1において、走査投光された光束のうち対象物に当たって反射したレーザ光の一部は、再び透明板TRを透過して筐体CS内のミラーユニットMUの第2ミラー面M2に入射し、ここで反射され、更に第1ミラー面M1で反射されて、レンズLSにより集光され、それぞれフォトダイオードPDの受光面で画素毎に検知されることとなる。更に、処理部である処理回路PROCが、半導体レーザLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で対象物の検出を行って、画素毎に距離情報を持つ距離画像としてのフレームFL(図2参照)を得ることができる。かかる距離画像は、不図示のネットワークなどを介して遠方のモニタに送信されて表示されたり、また記憶装置に記憶できる。 In FIG. 1, a part of the laser beam reflected by hitting an object among the light beams scanned and projected is transmitted through the transparent plate TR again and incident on the second mirror surface M2 of the mirror unit MU in the housing CS. Here, it is reflected, further reflected by the first mirror surface M1, collected by the lens LS, and detected for each pixel on the light receiving surface of the photodiode PD. Further, the processing circuit PROC, which is a processing unit, obtains distance information according to the time difference between the emission timing of the semiconductor laser LD and the light receiving timing of the photodiode PD. As a result, the object can be detected in the entire area in the monitoring space, and a frame FL (see FIG. 2) as a distance image having distance information for each pixel can be obtained. Such a distance image can be transmitted to a distant monitor via a network (not shown) or the like for display, or can be stored in a storage device.

次に、背景差分法を用いた、監視装置MDの監視対象物の検知アルゴリズムについて説明する。図3は、監視空間を側方から見た状態を示す図である。本実施形態で採用する背景差分法では、予め取得した基準画像(背景画像ともいう)を用いる。具体的には、監視の前準備(前処理)として、図3(a)に示すように、人間や動物等の移動物体が存在しない状態で、監視装置MDからレーザスポット光束SBを走査する。これにより背景対象物から得られた反射光RB1に基づいて、基準画像(図2参照)を得ることができる。
基準画像の形成手法の詳細については、後述する。
Next, the detection algorithm of the monitored object of the monitoring device MD using the background subtraction method will be described. FIG. 3 is a diagram showing a state in which the monitoring space is viewed from the side. In the background subtraction method adopted in this embodiment, a reference image (also referred to as a background image) acquired in advance is used. Specifically, as a pre-preparation (pre-processing) for monitoring, as shown in FIG. 3A, the laser spot luminous flux SB is scanned from the monitoring device MD in the absence of moving objects such as humans and animals. As a result, a reference image (see FIG. 2) can be obtained based on the reflected light RB1 obtained from the background object.
The details of the reference image forming method will be described later.

実際の監視時においては、図3(b)に示すように、背景対象物の手前に侵入者OBJが現れた場合、侵入者OBJからの反射光RB2が新たに生じることとなる。処理回路PROCは、図3(a)の基準画像と図3(b)の距離画像とを比較して、差が生じた場合、何らかの物体が現れた旨の注意を喚起することができる。又、侵入者OBJが移動している場合、走査を繰り返して得られるフレームでその位置が変わることから、処理回路PROCは侵入者OBJを追跡して、移動方向や速度を求める(動体検出を行う)ことができる。 In the actual monitoring, as shown in FIG. 3B, when the intruder OBJ appears in front of the background object, the reflected light RB2 from the intruder OBJ is newly generated. The processing circuit PROC can compare the reference image of FIG. 3 (a) with the distance image of FIG. 3 (b), and if there is a difference, it can call attention to the fact that some object has appeared. Further, when the intruder OBJ is moving, its position changes in the frame obtained by repeating the scanning, so that the processing circuit PROC tracks the intruder OBJ and obtains the moving direction and speed (moving object detection is performed). )be able to.

次に、基準画像を取得する際の課題について説明する。本実施形態の監視装置MDのように、ミラーユニットMUを回転させてレーザ光束を走査する場合には、ミラーユニットMUのわずかな振れ等により背景対象物への入射位置がばらつくことは避けられない。
そこで、複数回(n回,但しnは2以上の整数)、レーザ光束を背景対象物に走査し、画素毎にその平均値をとって距離値を平均化することが行われる。ところが、背景対象物によっては、複数回の走査によって得られた距離値を平均化することが適切でない場合もある。その例について以下に説明する。
Next, problems in acquiring a reference image will be described. When the mirror unit MU is rotated to scan the laser luminous flux as in the monitoring device MD of the present embodiment, it is inevitable that the incident position on the background object varies due to slight deflection of the mirror unit MU or the like. ..
Therefore, the laser luminous flux is scanned on the background object a plurality of times (n times, where n is an integer of 2 or more), the average value is taken for each pixel, and the distance value is averaged. However, depending on the background object, it may not be appropriate to average the distance values obtained by a plurality of scans. An example thereof will be described below.

図4は、背景対象物に対するn回の走査によって得られた1つの画素上での背景対象物までの距離値を横軸にとり、その頻度を縦軸にとって示すヒストグラムの例である。まず、背景対象物が図2の建物BLの白い壁面(レーザ光束の入射位置P1)の場合、ほぼ等しい反射率を持つ平坦な面であることから反射条件が一様となり、走査毎に距離値のバラツキが生じにくく、図4(a)に示すように得られたデータはほぼ正規分布に従う。このようにほぼ等しい距離値を持つ画素をフラット画素と、ここでは呼ぶこととする。 FIG. 4 is an example of a histogram showing the distance value to the background object on one pixel obtained by n times of scanning the background object on the horizontal axis and the frequency thereof on the vertical axis. First, when the background object is the white wall surface of the building BL in FIG. 2 (incident position P1 of the laser luminous flux), the reflection conditions are uniform because it is a flat surface having substantially the same reflectance, and the distance value is obtained for each scan. The data obtained as shown in FIG. 4A almost follow a normal distribution. Pixels having substantially the same distance value in this way are referred to as flat pixels here.

これに対し、背景対象物が図2の樹木等(レーザ光束の入射位置P2)の場合、凹凸があったり局所的に色が変わるなどのため反射条件が安定しないから、その反射光に基づいて距離値を求めると、図4(b)に示すように得られたデータにバラツキが生じる傾向がある。このように、走査毎に距離値が比較的ばらつく画素を雑多画素と、ここでは呼ぶこととする。 On the other hand, when the background object is a tree or the like in FIG. 2 (incident position P2 of the laser luminous flux), the reflection conditions are not stable due to unevenness or local color change, so based on the reflected light. When the distance value is obtained, the obtained data tends to vary as shown in FIG. 4 (b). Pixels in which the distance value varies relatively with each scan are referred to as miscellaneous pixels here.

更に、背景対象物が図2の建物BLのエッジ等(レーザ光束の入射位置P3)の場合、ミラーユニットMUの振れ等により、ある時はレーザスポット光束が建物BLに当たり、又ある時は建物BLから逸れて奥の木に当たったりする。かかる場合、図4(c)に示すように、同じ画素上で走査毎に2群のデータ(すなわち建物までの距離値又は木までの距離値)が得られることとなる。このように複数回の走査で2群の距離値を持つ画素をカスリ画素と、ここでは呼ぶこととする。 Further, when the background object is the edge of the building BL in FIG. 2 (incident position P3 of the laser light beam), the laser spot light beam hits the building BL at one time due to the runout of the mirror unit MU, and at another time, the building BL It deviates from and hits the tree in the back. In such a case, as shown in FIG. 4C, two groups of data (that is, a distance value to a building or a distance value to a tree) can be obtained for each scan on the same pixel. Pixels having two groups of distance values in a plurality of scans in this way are referred to as scrap pixels here.

更に、背景対象物が図2の建物BLの黒い塗装部分等(レーザ光束の入射位置P4)の場合、レーザスポット光束の照射具合によっては、その反射光をフォトダイオードPDの同一画素で検出できる場合もあれば、検出できない場合もある。検出できない場合には、測定不能点として扱われてしまうので距離値が不明確となる。かかる場合、図4(d)に示すように、同じ画素上で走査毎に2群のデータ(すなわち建物までの距離値又は測定不能点)が得られることとなる。このように、走査によっては距離値が不明となる画素をギリギリ画素と、ここでは呼ぶこととする。 Further, when the background object is a black painted part of the building BL in FIG. 2 (incident position P4 of the laser light flux), the reflected light can be detected by the same pixel of the photodiode PD depending on the irradiation condition of the laser spot light flux. In some cases, it cannot be detected. If it cannot be detected, it will be treated as an unmeasurable point, and the distance value will be unclear. In such a case, as shown in FIG. 4D, two groups of data (that is, a distance value to a building or an unmeasurable point) can be obtained for each scan on the same pixel. In this way, a pixel whose distance value is unknown depending on scanning is referred to as a last-minute pixel here.

ここで、図4(a)にデータを示すフラット画素の場合、データのバラツキが少ないことから、その中央値Cを背景対象物の最大距離値(背景画素値ともいう)としても、例えば中央値Cの前後に所定の不感帯(例えば±18cm)を設定することで、この背景対象物自身を監視対象物として検出する恐れがなくなるため、特に問題はない。一方、図4(b)にデータを示す雑多画素、図4(c)にデータを示すカスリ画素、図4(d)にデータを示すギリギリ画素の場合、背景対象物の最大距離値をどのよう設定するかが問題となる。 Here, in the case of the flat pixel showing the data in FIG. 4A, since there is little variation in the data, the median value C can be set as the maximum distance value (also referred to as the background pixel value) of the background object, for example, the median value. By setting a predetermined dead zone (for example, ± 18 cm) before and after C, there is no possibility of detecting the background object itself as a monitoring object, so that there is no particular problem. On the other hand, in the case of the miscellaneous pixels showing the data in FIG. 4B, the scraped pixels showing the data in FIG. 4C, and the last-minute pixels showing the data in FIG. 4D, what is the maximum distance value of the background object? The question is whether to set it.

例えば、図4(b)に示す雑多画素において、データの平均値Cを最大距離値としてしまうと、あるフレームで平均値Cから所定の不感帯を超えて手前に距離値(例えばピークPK1すなわち背景対象物自身)が得られた場合、これを監視対象物として誤って検出する恐れがある。同様に、雑多画素において、データの最大値MXを最大距離値としてしまうと、あるフレームで最大値MXから所定の不感帯を超えて手前に距離値(例えばピークPK1すなわち背景対象物自身)が得られた場合、これを監視対象物として誤って検出する恐れがある。 For example, in the miscellaneous pixels shown in FIG. 4B, if the average value C of the data is set as the maximum distance value, the distance value (for example, peak PK1, that is, the background object) exceeds the predetermined dead zone from the average value C in a certain frame. If the object itself) is obtained, it may be erroneously detected as a monitored object. Similarly, in miscellaneous pixels, if the maximum value MX of the data is set as the maximum distance value, a distance value (for example, peak PK1 or the background object itself) can be obtained from the maximum value MX in a certain frame beyond a predetermined dead zone. If this happens, it may be erroneously detected as a monitored object.

又、図4(c)に示すカスリ画素において、データの平均値Cを最大距離値としてしまうと、あるフレームで平均値Cから所定の不感帯を超えて手前に距離値(例えばピークPK2すなわち背景対象物自身)が得られた場合、これを監視対象物として誤って検出する恐れがある。同様に、カスリ画素において、データの最大値MXを最大距離値としてしまうと、あるフレームで最大値MXから所定の不感帯を超えて手前に距離値(例えばピークPK2,PK3すなわち背景対象物自身)が得られた場合、これを監視対象物として誤って検出する恐れがある。 Further, in the scraped pixel shown in FIG. 4C, if the average value C of the data is set as the maximum distance value, the distance value (for example, peak PK2, that is, the background object) exceeds the predetermined dead zone from the average value C in a certain frame. If the object itself) is obtained, it may be erroneously detected as a monitored object. Similarly, if the maximum value MX of the data is set as the maximum distance value in the Kasuri pixel, the distance value (for example, peaks PK2, PK3, that is, the background object itself) is set in front of the maximum value MX beyond a predetermined dead zone in a certain frame. If obtained, it may be erroneously detected as a monitored object.

更に、図4(d)に示すギリギリ画素において、データの平均値Cを最大距離値としてしまうと、あるフレームで平均値Cから所定の不感帯を超えて手前に距離値(例えばピークPK4すなわち背景対象物自身)が得られた場合、これを監視対象物として誤って検出する恐れがある。同様に、ギリギリ画素において、データの最大値MXを最大距離値としてしまうと、あるフレームで最大値MXから所定の不感帯を超えて手前に距離値(例えばピークPK4すなわち背景対象物自身)が得られた場合、これを監視対象物として誤って検出する恐れがある。 Further, in the last-minute pixels shown in FIG. 4D, if the average value C of the data is set as the maximum distance value, the distance value (for example, peak PK4, that is, the background object) exceeds the predetermined dead zone from the average value C in a certain frame. If the object itself) is obtained, it may be erroneously detected as a monitored object. Similarly, if the maximum value MX of the data is set as the maximum distance value in the last-minute pixel, a distance value (for example, peak PK4, that is, the background object itself) is obtained from the maximum value MX in a certain frame beyond a predetermined dead zone. If this happens, it may be erroneously detected as a monitored object.

本実施形態では、標準偏差σを用いて、フラット画素と、それ以外の画素とを切り分けた上で、最大距離値を設定することとする。具体的には、n回の走査において得られた距離値のデータを統計処理して、その標準偏差σが閾値σthより小さければ、データのバラツキが比較的少ないとしてフラット画素と判断する。フラット画素であれば、上述したように最大距離値としてデータの中央値Cを用いることができる。一方、標準偏差σが閾値σth以上であれば、データのバラツキが比較的大きいとしてフラット画素以外の画素、すなわち雑多画素、カスリ画素、ギリギリ画素のいずれかと判断する。 In the present embodiment, the standard deviation σ is used to separate the flat pixel from the other pixels, and then the maximum distance value is set. Specifically, the distance value data obtained in n scans is statistically processed, and if the standard deviation σ is smaller than the threshold value σth, it is determined that the data is a flat pixel with relatively little variation in the data. If it is a flat pixel, the median value C of the data can be used as the maximum distance value as described above. On the other hand, if the standard deviation σ is equal to or greater than the threshold value σth, it is determined that the data variation is relatively large and that the pixels are other than flat pixels, that is, miscellaneous pixels, scraped pixels, or barely pixel.

更に、雑多画素、カスリ画素、ギリギリ画素のいずれかと判断された場合、n回の走査において得られた距離値のうち最も監視装置MDに近い値MN(最小値)を、当該画素の最大距離値とする。このようにすることで、背景差分法を用いて対象物を監視する際に,最大距離値より大きな距離値が得られた場合には、差分をとることで負の値が得られるから、対象物検知アルゴリズム上、その検知結果を無視することで誤検出を抑制できる。これにより、適切な対象物検知を行うことができる。尚、雑多画素、カスリ画素、ギリギリ画素のいずれかと判断された場合、n回の走査において得られた距離値のうち最小値MNを、ここでは当該画素の最大距離値としたが、これに限られず、中央値Cより低く且つ最小値MN以上の値とすれば効果を得られる。又、中央値とは、計算により得られた距離値の平均値に対してバラツキ幅の±10%以内にあれば良い。 Further, when it is determined that the pixel is miscellaneous pixel, scraped pixel, or barely pixel, the value MN (minimum value) closest to the monitoring device MD among the distance values obtained in n scans is set to the maximum distance value of the pixel. And. By doing so, when monitoring an object using the background subtraction method, if a distance value larger than the maximum distance value is obtained, a negative value can be obtained by taking the difference. False detection can be suppressed by ignoring the detection result in the object detection algorithm. As a result, appropriate object detection can be performed. When it is determined that the pixel is miscellaneous pixel, scraped pixel, or barely pixel, the minimum value MN among the distance values obtained in n scans is set as the maximum distance value of the pixel, but the present invention is limited to this. However, if the value is lower than the median C and greater than or equal to the minimum value MN, the effect can be obtained. Further, the median value may be within ± 10% of the variation width with respect to the average value of the distance values obtained by calculation.

図5は、以上述べた基準画像を処理回路PROCが生成するための監視前処理を示すフローチャートである。ここではフォトダイオードPDは、6個の画素を1列に並べたものを用いたが、これに限られず、例えば1個又は複数の画素を用いてもよい。まず背景対象物に向かってレーザスポット光束を照射しつつミラーユニットMUをn回転することにより、nフレーム分の距離値(サンプルデータ群)を採取して、不図示のメモリに記憶しているものとする。 FIG. 5 is a flowchart showing a monitoring pre-processing for the processing circuit PROC to generate the reference image described above. Here, the photodiode PD used is one in which six pixels are arranged in a row, but the present invention is not limited to this, and for example, one or a plurality of pixels may be used. First, by rotating the mirror unit MU n times while irradiating the background object with the laser spot luminous flux, the distance values (sample data group) for n frames are collected and stored in a memory (not shown). And.

図5のステップS101で、1番目の画素について最大距離値を求めるために、処理回路PROCはm=1とする。次いで、ステップS102で、処理回路PROCは、記憶されたサンプルデータ群からm=1番目の画素におけるn個の距離値を読み出して統計処理し、その標準偏差σを得る。更に、ステップS103で処理回路PROCは、標準偏差σを閾値σthと比較する。ここで、標準偏差σが閾値σthより小さいと判断した場合、処理回路PROCはサンプルデータ群の中央値を1番目の画素における最大距離値とする。一方、標準偏差σが閾値σth以上と判断した場合、処理回路PROCはサンプルデータ群の最小値を1番目の画素における最大距離値とする。 In step S101 of FIG. 5, the processing circuit PROC is set to m = 1 in order to obtain the maximum distance value for the first pixel. Next, in step S102, the processing circuit PROC reads out n distance values in the m = 1st pixel from the stored sample data group, performs statistical processing, and obtains the standard deviation σ. Further, in step S103, the processing circuit PROC compares the standard deviation σ with the threshold σth. Here, when it is determined that the standard deviation σ is smaller than the threshold value σth, the processing circuit PROC sets the median value of the sample data group as the maximum distance value in the first pixel. On the other hand, when it is determined that the standard deviation σ is equal to or greater than the threshold value σth, the processing circuit PROC sets the minimum value of the sample data group as the maximum distance value in the first pixel.

その後、ステップS106で最後の画素と判断しない限り、処理回路PROCは、次の画素について最大距離値を求めるために、ステップS107でm=m+1として、再びフローをステップS102へと戻す。以上を繰り返すことで、m=2,3,4、・・・番目の画素について、最大距離値を求めることができる。一方、ステップS106で最後(m=N)の画素について最大距離値を求めたと判断すれば、全ての画素について最大距離値を求めたことになるので、処理回路PROCは処理を完了する。以上のようにして画素毎に求めた最大距離値から、基準画像を得ることができる。 After that, unless it is determined to be the last pixel in step S106, the processing circuit PROC sets m = m + 1 in step S107 and returns the flow to step S102 again in order to obtain the maximum distance value for the next pixel. By repeating the above, the maximum distance value can be obtained for the m = 2, 3, 4, ... Th pixel. On the other hand, if it is determined in step S106 that the maximum distance value has been obtained for the last (m = N) pixel, it means that the maximum distance value has been obtained for all the pixels, so that the processing circuit PROC completes the process. A reference image can be obtained from the maximum distance value obtained for each pixel as described above.

以下、本発明者が行った実験結果について説明する。図6は、本発明者が行った実験結果を示すヒストグラムであり、複数回の走査を行った際に特定画素のデータに着目して、縦軸に頻度、横軸に距離値をとって示している。但し、距離値の数値は相対的なものである。 The results of experiments conducted by the present inventor will be described below. FIG. 6 is a histogram showing the results of experiments conducted by the present inventor, focusing on the data of a specific pixel when scanning a plurality of times, and shows the frequency on the vertical axis and the distance value on the horizontal axis. ing. However, the numerical value of the distance value is relative.

図6(a)は、反射率が一様で凹凸のない固定板の中央にレーザスポット光束を照射して,その反射光を受光した特定画素の距離値を処理したものであり、特定画素がフラット画素となる例である。反射率が一様で凹凸のない固定板等に対してレーザスポット光束を照射する場合、ミラーユニットの振れなどの影響を受けにくいため、その反射光に基づく距離値は一定になるはずであるが、実際には電気ノイズなどの影響で距離値は微妙に変化する。しかしながら、統計処理により標準偏差σを求めると、その値が小さくなりバラツキは小さいことがわかる。この例では標準偏差σ=0.475であった。 FIG. 6A shows a laser spot luminous flux irradiating the center of a fixed plate having uniform reflectance and no unevenness, and processing the distance value of a specific pixel that receives the reflected light. This is an example of flat pixels. When irradiating a fixed plate with uniform reflectance and no unevenness with a laser spot luminous flux, the distance value based on the reflected light should be constant because it is not easily affected by the runout of the mirror unit. Actually, the distance value changes slightly due to the influence of electrical noise and the like. However, when the standard deviation σ is obtained by statistical processing, it can be seen that the value becomes small and the variation is small. In this example, the standard deviation was σ = 0.475.

図6(b)は、反射率が異なる素材の境界部付近にレーザスポット光束を照射して,その反射光を受光した特定画素の距離値を処理したものであり、特定画素が雑多画素となる例である。図6(a)と比較すると明らかなように、フラット画素に比べて距離値のバラツキが増大している。よって、統計処理により標準偏差σを求めると、標準偏差σ=0.985となった。 FIG. 6B shows a laser spot light beam irradiating the vicinity of a boundary portion of materials having different reflectances and processing the distance value of a specific pixel that receives the reflected light, and the specific pixel becomes a miscellaneous pixel. This is an example. As is clear from comparison with FIG. 6A, the variation in the distance value is increased as compared with the flat pixel. Therefore, when the standard deviation σ was obtained by statistical processing, the standard deviation σ = 0.985.

図6(c)は、天井につるされた照明器具のスイッチ紐にレーザスポット光束を照射して,その反射光を受光した特定画素の距離値を処理したものであり、特定画素がカスリ画素となる例である。図6(c)から明らかなように、2群の距離値が得られた。よって、統計処理により標準偏差σを求めると、標準偏差σ=68.84となった。 FIG. 6C shows a switch string of a lighting fixture hung on the ceiling is irradiated with a laser spot luminous flux, and the distance value of a specific pixel that receives the reflected light is processed, and the specific pixel is a scrap pixel. This is an example. As is clear from FIG. 6 (c), the distance values of the two groups were obtained. Therefore, when the standard deviation σ was obtained by statistical processing, the standard deviation σ = 68.84.

図6(d)は、反射光の強度が測定可能レベル近傍である床面にレーザスポット光束を照射して,その反射光を受光した特定画素の距離値を処理したものであり、特定画素がギリギリ画素となる例である。図6(d)から明らかなように、ある走査では床面からの反射光が測定可能レベル以上となって距離値が得られるが、別の走査では床面からの反射光が測定可能レベル未満となって距離値が測定不能点(検知アルゴリズム上で無限遠方)を示す。よって、統計処理により標準偏差σを求めると、標準偏差σ=30166.42となった。 FIG. 6D shows a floor surface whose reflected light intensity is near a measurable level is irradiated with a laser spot luminous flux, and the distance value of a specific pixel that receives the reflected light is processed. This is an example of a last-minute pixel. As is clear from FIG. 6D, in one scan, the reflected light from the floor surface is above the measurable level and a distance value is obtained, but in another scan, the reflected light from the floor surface is below the measurable level. The distance value indicates the unmeasurable point (infinity on the detection algorithm). Therefore, when the standard deviation σ was obtained by statistical processing, the standard deviation σ = 30166.42.

以上の実験結果より、特定画素がフラット画素であるか、それ以外の画素であるかは、標準偏差σを閾値σthと比較することで判断できることがわかった。以上の例では、フラット画素に標準偏差が最も近くなるのは、雑多画素である。従って、閾値σthを0.7に設定することで、特定画素がフラット画素であるか、雑多画素又はそれ以外の画素であるか判断できることとなる。 From the above experimental results, it was found that whether a specific pixel is a flat pixel or a other pixel can be determined by comparing the standard deviation σ with the threshold value σth. In the above example, it is the miscellaneous pixels that have the closest standard deviation to the flat pixels. Therefore, by setting the threshold value σth to 0.7, it is possible to determine whether the specific pixel is a flat pixel, a miscellaneous pixel, or a other pixel.

本発明は、明細書に記載の実施形態・実施例に限定されるものではなく、他の実施形態・実施例・変形例を含むことは、本明細書に記載された実施形態や技術思想から本分野の当業者にとって明らかである。明細書の記載及び実施例は、あくまでも例証を目的としており、本発明の範囲は後述するクレームによって示されている。 The present invention is not limited to the embodiments / examples described in the present specification, and the inclusion of other embodiments / examples / modifications is based on the embodiments and technical ideas described in the present specification. It is obvious to those skilled in the art. The description and examples of the specification are for illustration purposes only, and the scope of the present invention is indicated by the claims described below.

CL コリメートレンズ
CS 筐体
CSa 上壁
CSb 下壁
CSc 側壁
CSd 開口
FL フレーム
FS フェンス
G 地面
LD 半導体レーザ
LPS 出射部
LS レンズ
M1、M2 ミラー面
MD 監視装置
MT モータ
MTa 軸
MU ミラーユニット
OBJ 侵入者
PD フォトダイオード
PROC 処理回路
RB1、RB2 反射光
RO 回転軸
RPS 受光部
SB レーザスポット光
TR 透明板
WL 壁
CL collimating lens CS housing CSa upper wall CSb lower wall CSc side wall CSd opening FL frame FS fence G ground LD semiconductor laser LPS exit LS lens M1, M2 mirror surface MD monitoring device MT motor MTa axis MU mirror unit OBJ intruder PD photo Diode PROC Processing circuit RB1, RB2 Reflected light RO Rotating axis RPS Light receiving part SB Laser spot light TR Transparent plate WL Wall

Claims (3)

光束を出射する出射部と、前記光束を監視空間内で走査する走査部と、前記監視空間内の対象物から反射した光束を受光する受光部とを備えた投受光ユニットと、
前記出射部より光束を出射した出射時刻と、前記対象物から反射した光束を前記受光部で受光した受光時刻との時間差に基づいて、前記対象物までの距離値を求める処理部と、を有する監視システムであって、
前記処理部は、監視前処理として、n回の走査を行って前記投受光ユニットから対象物までの距離をn個求めて統計処理を行い、その標準偏差σが閾値σth未満である場合には、前記n個の距離値の中央値を背景画素値とし、前記標準偏差σが前記閾値σth以上である場合には、前記n個の距離値の中央値より低く且つ最小値以上の値を背景画素値とし、
前記処理部は、対象物監視時に、前記監視空間からの反射光を測定して距離値を求め、前記求めた距離値が、同一投受光方向における前記反射光を測定して得られた前記背景画素値よりも小さい場合に、監視対象物と認識する監視システム。
A light emitting / receiving unit including an emitting unit that emits a light beam, a scanning unit that scans the light beam in the monitoring space, and a light receiving unit that receives the light beam reflected from an object in the monitoring space.
It has a processing unit that obtains a distance value to the object based on the time difference between the emission time when the luminous flux is emitted from the emission unit and the light reception time when the light flux reflected from the object is received by the light receiving unit. It ’s a monitoring system,
As a pre-monitoring process, the processing unit performs n times of scanning to obtain n distances from the light emitting / receiving unit to the object, and performs statistical processing. If the standard deviation σ is less than the threshold value σth, the processing unit performs statistical processing. The median value of the n distance values is used as the background pixel value, and when the standard deviation σ is equal to or greater than the threshold value σth, the background is a value lower than the median value of the n distance values and equal to or greater than the minimum value. As a pixel value
At the time of object monitoring, the processing unit measures the reflected light from the monitoring space to obtain a distance value, and the obtained distance value is obtained by measuring the reflected light in the same light emitting / receiving direction. A monitoring system that recognizes an object to be monitored when it is smaller than the pixel value.
前記処理部は、前記標準偏差σが前記閾値σth以上である場合には、前記n個の距離値の最小値を背景画素値とする請求項1に記載の監視システム。 The monitoring system according to claim 1, wherein when the standard deviation σ is equal to or greater than the threshold value σth, the processing unit uses the minimum value of the n distance values as the background pixel value. 前記走査部は、前記出射部から出射された前記光束を、前記監視空間に向かって反射すると共に、前記監視空間から戻ってきた前記反射光を反射して、前記受光部に受光させる回転するミラーを有する請求項1又は2に記載の監視システム。 The scanning unit reflects the luminous flux emitted from the emitting unit toward the monitoring space, and reflects the reflected light returned from the monitoring space to cause the light receiving unit to receive the light. The monitoring system according to claim 1 or 2.
JP2018517019A 2016-05-13 2017-05-09 Monitoring system Active JP6835079B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016096994 2016-05-13
JP2016096994 2016-05-13
PCT/JP2017/017464 WO2017195753A1 (en) 2016-05-13 2017-05-09 Surveillance system

Publications (2)

Publication Number Publication Date
JPWO2017195753A1 JPWO2017195753A1 (en) 2019-03-14
JP6835079B2 true JP6835079B2 (en) 2021-02-24

Family

ID=60267300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018517019A Active JP6835079B2 (en) 2016-05-13 2017-05-09 Monitoring system

Country Status (2)

Country Link
JP (1) JP6835079B2 (en)
WO (1) WO2017195753A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229722A1 (en) * 2020-05-13 2021-11-18 三菱電機株式会社 Obstacle detection device, parking assistance device, collision avoidance device, and obstacle detection method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122508A (en) * 2005-10-28 2007-05-17 Secom Co Ltd Intrusion detection apparatus
JP2012022573A (en) * 2010-07-15 2012-02-02 Toshiba Corp Mobile body detection device
JP2012255657A (en) * 2011-06-07 2012-12-27 Mitsubishi Electric Corp Radar image processing device and radar image processing method
US9875557B2 (en) * 2012-11-05 2018-01-23 The Chancellor Masters And Scholars Of The University Of Oxford Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus
JP6309099B2 (en) * 2014-07-03 2018-04-11 三菱電機株式会社 Monitoring device

Also Published As

Publication number Publication date
WO2017195753A1 (en) 2017-11-16
JPWO2017195753A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
JP5092076B2 (en) Laser area sensor
EP2217911B1 (en) Particle detection
KR20190106765A (en) Camera and method of detecting image data
US11592537B2 (en) Optical crosstalk mitigation in LIDAR using digital signal processing
JP4691701B2 (en) Number detection device and method
JP2020076589A (en) Object detection device
JP2007122508A (en) Intrusion detection apparatus
KR20190011497A (en) Hybrid LiDAR scanner
JP2008241693A (en) Method of sensing object and optoelectronic device
JP6835079B2 (en) Monitoring system
JP6070306B2 (en) Image processing apparatus, object detection method, and object detection program
WO2020105527A1 (en) Image analysis device, image analysis system, and control program
CN115047472B (en) Method, device, equipment and storage medium for determining laser radar point cloud layering
JP2017215642A (en) Monitoring system
JP7477715B2 (en) METHOD FOR MEASURING OPTICAL CROSSTALK OF A LIDAR SENSOR AND LIDAR SENSOR - Patent application
US8805075B2 (en) Method and apparatus for identifying a vibrometry spectrum in imaging applications
JP6825623B2 (en) Monitoring system setting method and monitoring system
JP2015135266A (en) Method of stably detecting minute foreign matter within glass plate, and apparatus for implementing the same
JP6988797B2 (en) Monitoring system
US20210063579A1 (en) Method and device for distance measurement
EP4174810A1 (en) Operating a scanning smoke detector
KR20220084173A (en) Techniques for filtering measurement data of active optical sensor systems
JP6825624B2 (en) Monitoring system
JP7020096B2 (en) Object detection device, control method of object detection device, and control program of object detection device
US20170307874A1 (en) Scanning Optical System And Radar

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R150 Certificate of patent or registration of utility model

Ref document number: 6835079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150