JP2007122508A - Intrusion detection apparatus - Google Patents

Intrusion detection apparatus Download PDF

Info

Publication number
JP2007122508A
JP2007122508A JP2005315247A JP2005315247A JP2007122508A JP 2007122508 A JP2007122508 A JP 2007122508A JP 2005315247 A JP2005315247 A JP 2005315247A JP 2005315247 A JP2005315247 A JP 2005315247A JP 2007122508 A JP2007122508 A JP 2007122508A
Authority
JP
Japan
Prior art keywords
distance
pixel
image
distance measurement
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005315247A
Other languages
Japanese (ja)
Inventor
Yoshi Marukawa
佳 丸川
Chihiro Sato
千尋 佐藤
Hisashi Yamamoto
寿史 山本
Hiroyuki Masubuchi
浩之 増渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2005315247A priority Critical patent/JP2007122508A/en
Publication of JP2007122508A publication Critical patent/JP2007122508A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem in an intrusion detection apparatus for forming range images by use of reflected laser beams that it is impossible to detect changes in distance from pixels which cannot be measured either in a background range image or the present range image, leading to the possibility of the failure to detect intruders. <P>SOLUTION: A distance calculating part 16 calculates the measurement of a distance to an object based on a reflected laser beam. For each pixel on a range image, a ranging availability data generating part 32 generates ranging availability data showing whether or not ranging by the distance calculating part 16 has been successful. A background difference calculating part 22 refers to the ranging availability data for both the background range image and the current range image, and extracts some pixels as pixels varied, not only when a variation between distance measurements obtained from both range images is equal to or greater than a predetermined value, but also when it is impossible to measure distance because distance measurements cannot be obtained only by either of the range images. An intruder determining part 24 determines whether or not there is an intruding object in the monitored space according to the pixels varied. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は侵入検知装置に関し、特に検知精度の向上に関する。   The present invention relates to an intrusion detection device, and more particularly to improvement of detection accuracy.

監視空間への人などの侵入物体を検出する監視装置として、距離画像を用いるものが提案されている。ここで距離画像とは、画素値として距離情報を有する情報である。   As a monitoring device for detecting an intruding object such as a person into the monitoring space, an apparatus using a distance image has been proposed. Here, the distance image is information having distance information as a pixel value.

具体的には、レーザビーム等を監視空間へ向けて送出し、その送出から反射光の受光までの時間などから監視空間内の対象物までの距離を計測することができる。そして、レーザビーム等の測定媒体の送出方向を順次変えて監視空間内を二次元的に走査することにより、監視空間を向いた複数の方向に関する距離情報が得られ、上述の距離画像が取得される。測距方法としては、上述の反射光の受光までの時間に基づく方法の他、分離配置した2つの受光部での反射光の位相差から三角測量の原理に基づいて距離を求める方法などがある。   Specifically, it is possible to send a laser beam or the like toward the monitoring space, and measure the distance from the transmission to the reception of the reflected light to the object in the monitoring space. Then, by sequentially changing the sending direction of the measurement medium such as a laser beam and scanning the monitoring space two-dimensionally, distance information regarding a plurality of directions facing the monitoring space is obtained, and the above-described distance image is acquired. The As a distance measuring method, there is a method based on the principle of triangulation based on a phase difference between reflected light at two light receiving units separately disposed, in addition to a method based on the time until the reflected light is received. .

距離画像を用いた監視装置は、移動物体が存在しない背景となる距離画像(背景画像)と、入力された距離画像(現画像)とを比較し、所定値以上距離が変化した画素を抽出して変化領域を求める。そして、変化領域の大きさ・形状及び現画像における距離情報に基づいて、移動物体が目的とする検知対象物であるか否かを判定する。   A monitoring device using a distance image compares a distance image (background image) as a background in which no moving object exists with an input distance image (current image), and extracts pixels whose distance has changed by a predetermined value or more. To find the change area. Then, based on the size / shape of the change area and the distance information in the current image, it is determined whether or not the moving object is the target detection target.

距離画像は、レーザビーム等の送受部から見た物体の方向と、当該物体までの距離という情報を有する。よって、距離画像により、物体の大きさ・形状を知ることができ、例えば、侵入者検知の用途においては、遠方の比較的大きな人物と近傍の小動物(鼠や猫等)とを区別することが可能となり、侵入者の検出精度を向上させることができる。
特公平7−71286号
The distance image includes information such as the direction of an object viewed from a transmitting / receiving unit such as a laser beam and the distance to the object. Therefore, the size and shape of the object can be known from the distance image. For example, in an intruder detection application, it is possible to distinguish a relatively large person in the distance from small animals in the vicinity (such as a frog or a cat). It becomes possible, and the detection accuracy of an intruder can be improved.
JP 7-71286

上述したような方法で測距する場合、反射光の強度が小さいと反射光のS/N比が低下し、反射光の波形や受光タイミングを正確に検出できず、測距精度が低下する。反射光の強度がさらに低下すると、反射光がノイズ成分に埋もれ、反射光を検出できなくなり、距離の計測に失敗する測距不能となる。例えば、このような測距不能な画素は、光反射率の低い物体に対応して生じ得る。距離画像では、このように測距不能となった画素には、測距不能であることを示す値(コード)が付与される。   When distance measurement is performed by the method described above, if the intensity of the reflected light is small, the S / N ratio of the reflected light decreases, and the waveform of the reflected light and the light reception timing cannot be accurately detected, resulting in a decrease in distance measurement accuracy. When the intensity of the reflected light further decreases, the reflected light is buried in a noise component, and the reflected light cannot be detected, and distance measurement is impossible due to failure in distance measurement. For example, such a pixel that cannot be measured can be generated corresponding to an object having low light reflectance. In the distance image, a value (code) indicating that the distance measurement is impossible is assigned to the pixel in which the distance measurement is impossible in this way.

距離画像を用いた従来の監視装置は、現画像と背景画像とから変化領域を抽出する際、現画像及び背景画像の対比される2つの画素値のいずれか一方が測距不能であると、その画素については距離差分値を得ることができないため、変化の有無を判断することができないという問題があった。   In the conventional monitoring device using the distance image, when extracting the change area from the current image and the background image, if any one of the two pixel values to be compared between the current image and the background image cannot be measured, Since the distance difference value cannot be obtained for the pixel, there is a problem in that it cannot be determined whether or not there is a change.

この測距不能は、監視空間に光反射率の低い物体が存在する場合などに発生し易い。測距不能な画素が多くなると、移動物体の一部しか距離変化領域として抽出されず、例えば、侵入者が監視空間内に存在しても検出漏れを生じ易くなるという問題がある。   This inability to measure the distance is likely to occur when an object with low light reflectance exists in the monitoring space. When the number of pixels that cannot be measured increases, only a part of the moving object is extracted as the distance change region, and for example, there is a problem that detection omission is likely to occur even if an intruder exists in the monitoring space.

本発明は上述の問題点を解決するためになされたものであり、距離画像を用いた侵入検知装置において、測距不能な画素に起因する誤動作を低減させ、検知精度を向上させることを目的とする。   The present invention has been made to solve the above-described problems, and aims to reduce malfunctions caused by pixels that cannot be measured and improve detection accuracy in an intrusion detection apparatus using a distance image. To do.

本発明に係る侵入検知装置は、監視空間の距離画像に基づいて侵入物体の有無を判定するものであって、前記監視空間へ投光し、その反射光に基づいて前記監視空間に存在する物体までの距離計測値を前記距離画像の画素毎に求める測距手段と、前記距離画像の各画素について、前記測距手段による測距の成否を表す測距成否情報を生成する成否情報生成手段と、所定基準時における背景距離画像と監視対象とする対象距離画像とのそれぞれに対応する前記測距成否情報を参照し、前記背景距離画像及び前記対象距離画像の両方にて前記距離計測値が得られている画素に関しては、当該両距離画像間での前記距離計測値の変化が所定値以上である場合に変化画素として抽出し、前記背景距離画像及び前記対象距離画像の一方のみにて前記距離計測値が得られず測距不能である画素に関しては、当該画素を変化画素として抽出する背景差分算出手段と、前記変化画素に基づいて前記監視空間における前記侵入物体の有無を判定する判定手段と、を有するものである。   An intrusion detection device according to the present invention determines whether or not there is an intruding object based on a distance image of a monitoring space, and projects light to the monitoring space, and an object existing in the monitoring space based on the reflected light. Ranging means for obtaining a distance measurement value for each pixel of the distance image; and success / failure information generating means for generating distance measurement success / failure information indicating success / failure of distance measurement by the distance measuring means for each pixel of the distance image; The distance measurement success / failure information corresponding to each of the background distance image at the predetermined reference time and the target distance image to be monitored is referred to, and the distance measurement value is obtained in both the background distance image and the target distance image. With respect to the pixel being extracted, if the change in the distance measurement value between the two distance images is greater than or equal to a predetermined value, the pixel is extracted as a change pixel, and the distance is detected only in one of the background distance image and the target distance image. For a pixel for which a measured value cannot be obtained and ranging is impossible, a background difference calculation unit that extracts the pixel as a change pixel, and a determination unit that determines the presence or absence of the intruding object in the monitoring space based on the change pixel , Has.

他の本発明に係る侵入検知装置においては、前記成否情報生成手段が、前記測距に用いる前記反射光の受光量に基づいて前記測距成否情報を生成する。   In another intrusion detection apparatus according to the present invention, the success / failure information generating means generates the distance measurement success / failure information based on a received light amount of the reflected light used for the distance measurement.

別の本発明に係る侵入検知装置においては、前記測距手段が、投光から前記反射光の受光までの応答時間に基づいて前記距離計測値を求め、前記投光から所定時間内に、所定値以上の受光量の前記反射光が得られない画素を前記測距不能とする。   In another intrusion detection apparatus according to the present invention, the distance measuring unit obtains the distance measurement value based on a response time from light projection to reception of the reflected light, and is determined within a predetermined time from the light projection. A pixel in which the reflected light having a light reception amount equal to or greater than the value cannot be obtained is regarded as being unable to measure the distance.

基準時における背景距離画像と監視対象とする対象距離画像とで或る画素の測距成否が相違することは、その画素に現れている物体が両距離画像間で互いに反射率の異なる他の物体である場合や、その画素に現れている物体までの距離が実際には変化している場合などに起こり得る。よって、測距成否の相違は侵入物体に起因すると推定することは妥当性を有する。そこで、本発明は、背景距離画像と対象距離画像とで測距成否が相違する画素を、距離変化が検出された画素と同様に取り扱うこととして、移動物体が現れている画素の抽出漏れを少なくする。その結果、距離画像から把握される移動物体の大きさ・形状の精度が向上し、検知対象とする侵入物体を精度良く判定することが可能となる。   The difference in the distance measurement success / failure of a certain pixel between the background distance image at the reference time and the target distance image to be monitored is because the object appearing at that pixel has other reflectances different from each other between the distance images. Or when the distance to the object appearing in the pixel is actually changing. Therefore, it is appropriate to estimate that the difference in distance measurement success / failure is caused by an intruding object. Therefore, the present invention treats pixels with different distance measurement success / failure between the background distance image and the target distance image in the same manner as the pixels in which the distance change is detected, thereby reducing the extraction omission of the pixels in which the moving object appears. To do. As a result, the accuracy of the size and shape of the moving object grasped from the distance image is improved, and the intruding object to be detected can be accurately determined.

以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。   Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.

図1は実施形態である侵入者検知装置の概略のブロック構成図である。本装置は、投光部2、投光制御部4、投光タイミング記憶部6、走査ミラー8、走査部10、受光部12、受光タイミング抽出部14、距離算出部16、データ生成部18、背景データ記憶部20、背景差分算出部22、侵入者判定部24、警報部26を含んで構成される。また、データ生成部18は、距離画像生成部30、測距可否データ生成部32を含んで構成される。   FIG. 1 is a schematic block diagram of an intruder detection device according to an embodiment. The apparatus includes a light projecting unit 2, a light projecting control unit 4, a light projecting timing storage unit 6, a scanning mirror 8, a scanning unit 10, a light receiving unit 12, a light receiving timing extracting unit 14, a distance calculating unit 16, a data generating unit 18, A background data storage unit 20, a background difference calculation unit 22, an intruder determination unit 24, and an alarm unit 26 are included. The data generation unit 18 includes a distance image generation unit 30 and a distance measurement availability data generation unit 32.

本装置は、走査ミラー8を二軸それぞれの周りに揺動させ、この走査ミラー8で投光部2が放射するレーザ光を反射し監視空間へ投光する。これにより、監視空間へ向けて、投光方向が二次元的に変化するレーザ光が送出される。そして、受光部12では物体40にて反射したレーザ光を受光し、この反射光に基づいて、例えば、飛行時間法により物体40までの距離を測定する。   In this apparatus, the scanning mirror 8 is swung around each of two axes, and the laser light emitted from the light projecting unit 2 is reflected by this scanning mirror 8 and projected to the monitoring space. As a result, a laser beam whose projection direction changes two-dimensionally is sent toward the monitoring space. The light receiving unit 12 receives the laser light reflected by the object 40, and measures the distance to the object 40 by, for example, the time-of-flight method based on the reflected light.

投光部2は半導体レーザを光源として備え、当該光源は投光制御部4からパルス状の電圧信号を供給され、パルス光を発生する。投光部2は光源が発生するレーザ光をレンズによりビームにして出射する。投光部2からのレーザ光は、ハーフミラー42を透過し、走査ミラー8に入射する。走査ミラー8は例えばガルバノミラーを用いて構成され、入射したレーザ光で撮像対象範囲を二次元的に走査する。   The light projecting unit 2 includes a semiconductor laser as a light source. The light source is supplied with a pulsed voltage signal from the light projecting control unit 4 and generates pulsed light. The light projecting unit 2 emits laser light generated by the light source as a beam by a lens. The laser light from the light projecting unit 2 passes through the half mirror 42 and enters the scanning mirror 8. The scanning mirror 8 is configured using, for example, a galvanometer mirror, and scans an imaging target range two-dimensionally with incident laser light.

投光制御部4は、走査部10が出力する走査周期開始パルスに連動して投光部2の半導体レーザのパルス駆動を開始する。投光制御部4は、パルス駆動を開始すると、投光タイミング記憶部6に記録された投光タイミングに基づいて、半導体レーザの駆動電圧パルスを生成する。また投光制御部4は、駆動電圧パルスの生成タイミングを受光タイミング抽出部14及び距離算出部16に通知する。   The light projecting control unit 4 starts pulse driving of the semiconductor laser of the light projecting unit 2 in conjunction with the scanning cycle start pulse output from the scanning unit 10. When the pulse driving is started, the light projecting control unit 4 generates a driving voltage pulse for the semiconductor laser based on the light projecting timing recorded in the light projecting timing storage unit 6. The light projection control unit 4 notifies the generation timing of the drive voltage pulse to the light reception timing extraction unit 14 and the distance calculation unit 16.

投光タイミング記憶部6は、走査ミラー8の走査角度に応じた投光タイミングを指定する情報を格納する。例えば、走査ミラー8により周期的に描かれる走査線上に、レーザ光の送受を行うサンプリング点群が配列され、各サンプリング点の走査タイミングが投光タイミングとして投光タイミング記憶部6に格納される。サンプリング点群は、それらにてサンプリングされる情報で画像を構成し得るように、走査対象範囲全体に分散配置され、基本的に走査対象範囲内で均一又はそれに近い分布となるように設定される。なお、走査線としては、例えばリサジュ図形、その他、走査対象範囲全体を満遍なく通過する非線形曲線を用いることができる。投光タイミングの決定方法の詳細については、特開2004−157796号公報等にて公知となっているため説明を省略する。   The light projection timing storage unit 6 stores information for designating light projection timing according to the scanning angle of the scanning mirror 8. For example, sampling point groups for transmitting and receiving laser light are arranged on a scanning line periodically drawn by the scanning mirror 8, and the scanning timing of each sampling point is stored in the light projection timing storage unit 6 as the light projection timing. The sampling point group is distributed and arranged over the entire scanning target range so that an image can be constituted by information sampled by them, and is basically set so as to have a uniform or close distribution within the scanning target range. . As the scanning line, for example, a Lissajous figure or other nonlinear curve that passes through the entire scanning target range can be used. Details of the method for determining the light projection timing are well known in Japanese Patent Application Laid-Open No. 2004-157796 and the like, and thus the description thereof is omitted.

走査ミラー8は、投光部2から出射したレーザ光を物体40へ投光すると共に、物体40で反射されたレーザ光を本装置に取り込む。物体40からのレーザ光は走査ミラー8を経由してハーフミラー42に導かれ、ハーフミラー42にて反射されて受光部12へ向かう。   The scanning mirror 8 projects the laser light emitted from the light projecting unit 2 onto the object 40 and takes in the laser light reflected by the object 40 into the apparatus. Laser light from the object 40 is guided to the half mirror 42 via the scanning mirror 8, reflected by the half mirror 42, and travels toward the light receiving unit 12.

走査部10は、走査ミラー8の走査の開始及び停止を行う。また、現在の走査角度に応じた電圧値を有する信号をデータ生成部18へ出力すると共に、走査の各周期の開始タイミングに同期して走査周期開始パルスを投光制御部4へ与える。   The scanning unit 10 starts and stops scanning of the scanning mirror 8. In addition, a signal having a voltage value corresponding to the current scanning angle is output to the data generation unit 18, and a scanning cycle start pulse is given to the light projection control unit 4 in synchronization with the start timing of each scanning cycle.

受光部12は入射光をレンズにより光センサに集光する。光センサは、アバランシェフォトダイオードやピンフォトダイオードなどにより構成され、物体40からの反射光を受光量に応じた電気信号に変換する。電気信号は増幅された後、受光信号として受光タイミング抽出部14へ出力される。   The light receiving unit 12 condenses incident light on the optical sensor using a lens. The optical sensor is composed of an avalanche photodiode, a pin photodiode, or the like, and converts the reflected light from the object 40 into an electrical signal corresponding to the amount of received light. The electric signal is amplified and then output to the light reception timing extraction unit 14 as a light reception signal.

受光タイミング抽出部14は、投光部2に対する駆動電圧パルスに同期して投光制御部4が生成するパルスを入力され、当該パルスに基づいて投光部2の投光時刻を把握する。そして、各投光時刻から予め設定された一定の時間範囲τ内に受光部12から入力される受光信号に基づいて受光時刻を求める。受光タイミング抽出部14はピーク検出回路を備え、受光信号のピークの位置から受光時刻を、そしてピークの大きさから受光量を算出する。   The light reception timing extraction unit 14 receives a pulse generated by the light projection control unit 4 in synchronization with the drive voltage pulse for the light projection unit 2, and grasps the light projection time of the light projection unit 2 based on the pulse. And the light reception time is calculated | required based on the light reception signal input from the light-receiving part 12 within the fixed time range (tau) preset from each light projection time. The light reception timing extraction unit 14 includes a peak detection circuit, and calculates the light reception time from the peak position of the light reception signal and the light reception amount from the peak size.

図2は、受光タイミング抽出部14における処理を説明する受光信号に関する模式図である。図2の横軸は時間、縦軸は受光信号電圧である。投光部2からの投光は周期的に行われ、図2には、複数の投光に対する受光信号の例が示されている。受光タイミング抽出部14は、受光信号50のように、ピーク位置tが投光時刻tから幅τの期間内に存在し、かつ閾値Ib以上のピーク高を有する受光信号を検知対象とする。ここで、期間τは、監視対象とする上限距離の設定値に応じて定められる。期間τは、投光間隔以下の範囲で設定可能である。投光間隔は、距離画像のフレームレートとサンプリング点の数に応じて定まる。なお、投光タイミングが一定間隔でない場合、期間τは投光間隔の最小値以下とする。また、閾値Ibは受光部12のS/Nを考慮して設定される。 FIG. 2 is a schematic diagram relating to a light reception signal for explaining the processing in the light reception timing extraction unit 14. In FIG. 2, the horizontal axis represents time, and the vertical axis represents the received light signal voltage. Light projection from the light projecting unit 2 is performed periodically, and FIG. 2 shows an example of a light reception signal for a plurality of light projections. The light reception timing extraction unit 14 detects, as a light reception signal 50, a light reception signal in which the peak position t P exists within the period of the width τ from the projection time t S and has a peak height equal to or greater than the threshold value Ib. . Here, the period τ is determined according to the set value of the upper limit distance to be monitored. The period τ can be set within a range equal to or shorter than the light projection interval. The light projection interval is determined according to the frame rate of the distance image and the number of sampling points. When the light projection timing is not constant, the period τ is set to be equal to or less than the minimum value of the light projection interval. The threshold value Ib is set in consideration of the S / N of the light receiving unit 12.

従って、受光信号52のようにtからの時間範囲τを越えた時刻で受光されるものは監視対象とする上限距離を超えた物体からの反射光であり検知対象外とされる。この場合には、ピーク検出は行われず、距離計測に関しては測距不能として取り扱われる。例えば、この場合には、受光タイミング抽出部14は受光時刻として所定の無効を示す値を出力する。また、受光信号54のようにピークが閾値Ib未満である場合には、受光信号がノイズに埋もれてノイズとの弁別が困難となるために検知対象外とされ、測距不能として取り扱われる。この場合には受光タイミング抽出部14は、受光時刻として所定の無効を示す値を出力すると共に受光量を0とする。ちなみに、受光信号の強度が弱くなるという状況は、物体の反射率が低い場合や、物体までの距離が大きい場合に生じ得る。 Therefore, what is received at a time exceeding the time range τ from t S like the light reception signal 52 is reflected light from an object exceeding the upper limit distance to be monitored and is excluded from detection. In this case, peak detection is not performed, and distance measurement is handled as being impossible. For example, in this case, the light reception timing extraction unit 14 outputs a value indicating a predetermined invalidity as the light reception time. Further, when the peak is less than the threshold value Ib as in the light reception signal 54, the light reception signal is buried in noise and difficult to discriminate from the noise, so that it is excluded from detection and treated as being unable to be measured. In this case, the light reception timing extraction unit 14 outputs a value indicating predetermined invalidity as the light reception time and sets the light reception amount to zero. Incidentally, the situation where the intensity of the received light signal becomes weak can occur when the reflectance of the object is low or when the distance to the object is large.

距離算出部16は、投光制御部4からの投光時刻と受光タイミング抽出部14からの受光時刻との差から、物体までの距離を算出する。ここで、受光時刻が無効を表す値である場合には、距離計測値として測距不能を示す所定の値を出力する。   The distance calculation unit 16 calculates the distance to the object from the difference between the light projection time from the light projection control unit 4 and the light reception time from the light reception timing extraction unit 14. Here, when the light reception time is a value indicating invalidity, a predetermined value indicating that distance measurement is impossible is output as the distance measurement value.

データ生成部18においては距離画像生成部30が、走査部10からの投光時の走査角度と、距離算出部16からの距離計測値とに基づいて、監視空間に向かう複数の方向についての距離計測値で構成される距離情報を走査周期毎に生成する。この距離情報は、投光方向を多く設定することで、物体の形状を把握可能な画像としての性質を備え、当該画像が距離画像として定義される。   In the data generation unit 18, the distance image generation unit 30 performs distances in a plurality of directions toward the monitoring space based on the scanning angle at the time of projection from the scanning unit 10 and the distance measurement value from the distance calculation unit 16. Distance information composed of measurement values is generated for each scanning cycle. This distance information has a property as an image capable of grasping the shape of the object by setting many light projection directions, and the image is defined as a distance image.

測距可否データ生成部32は、走査部10からの投光時の走査角度と、受光タイミング抽出部14からの測距可否の結果とに基づいて、距離画像の各画素に対応する測距可否(測距成否)を示す値からなる測距可否データ(測距成否情報)を生成する。なお、距離算出部16、距離画像生成部30における測距不能を示す値を読み取って測距可否データを生成してもよい。   The distance measurement availability data generation unit 32 determines the distance measurement availability corresponding to each pixel of the distance image based on the scanning angle at the time of light projection from the scanning unit 10 and the result of the distance measurement availability from the light reception timing extraction unit 14. Ranging availability data (ranging success / failure information) composed of values indicating (ranging success / failure) is generated. It should be noted that distance measurement availability data may be generated by reading a value indicating that distance measurement is not possible in the distance calculation unit 16 and the distance image generation unit 30.

背景データ記憶部20は、基本的に監視空間に移動物体が存在しない状態(基準時)での距離画像、測距可否データを背景データとして格納する。これら背景データとして、例えば、本装置の起動時に監視空間を走査して取得されたデータを用いることができる。また、監視空間内の静止物体を例えば、人が動かす等により背景は変化し得るので、監視開始時など適時、監視空間を走査して背景データを更新してもよい。   The background data storage unit 20 stores, as background data, a distance image and distance measurement availability data in a state where there is basically no moving object in the monitoring space (reference time). As the background data, for example, data acquired by scanning the monitoring space when the apparatus is activated can be used. In addition, since the background can change due to, for example, a person moving a stationary object in the monitoring space, the background data may be updated by scanning the monitoring space at an appropriate time such as when monitoring starts.

背景差分算出部22は、侵入者検知動作中に監視空間を走査して得られた監視対象の距離画像、測距可否データを監視対象データとして入力される。背景差分算出部22は監視動作中の走査周期毎に入力される監視対象データと背景データ記憶部20に記憶された背景データとを比較して、距離に変化があったと判断される画像領域を抽出する。   The background difference calculation unit 22 receives the monitoring target distance image and distance measurement availability data obtained by scanning the monitoring space during the intruder detection operation as monitoring target data. The background difference calculation unit 22 compares the monitoring target data input for each scanning cycle during the monitoring operation with the background data stored in the background data storage unit 20, and determines an image area determined to have changed in distance. Extract.

侵入者判定部24は、背景差分算出部22により抽出された変化領域の形状や大きさ、当該領域に関する距離等のデータに基づいて、当該変化が侵入者によるものであるか否かを判断する。   The intruder determination unit 24 determines whether or not the change is caused by an intruder based on data such as the shape and size of the change region extracted by the background difference calculation unit 22 and the distance related to the region. .

警報部26は、侵入者判定部24が侵入者が存在すると判断した場合に、例えば、警備センター等に警報を送出すると共に、装置の表示部に侵入者である旨の表示を行ったり、ブザー等の鳴動を行う。   When the intruder determination unit 24 determines that an intruder exists, the alarm unit 26 sends an alarm to a security center, for example, and displays an intruder on the display unit of the device or a buzzer. And so on.

次に本装置の動作について説明する。図3は、本装置の全体的な動作を説明する概略の処理フロー図である。本装置が起動され侵入者検知処理の開始が指示されると、監視空間をレーザ光で走査して、現在の距離画像等のデータが取得される(S100)。背景データが背景データ記憶部20に記憶されていない場合には(S105)、取得された現在の距離画像等のデータが背景データとして背景データ記憶部20に格納される(S110)。一方、背景データが既に記憶されている場合には(S105)、現在の距離画像等のデータを監視対象データとして、現在の監視空間内に侵入者が存在するか否かが判定される(S115〜S140)。   Next, the operation of this apparatus will be described. FIG. 3 is a schematic process flow diagram for explaining the overall operation of the apparatus. When this apparatus is activated and instructed to start the intruder detection process, the monitoring space is scanned with laser light, and data such as the current distance image is acquired (S100). When the background data is not stored in the background data storage unit 20 (S105), the acquired data such as the current distance image is stored in the background data storage unit 20 as background data (S110). On the other hand, if the background data has already been stored (S105), it is determined whether or not there is an intruder in the current monitoring space using the current distance image data as monitoring target data (S115). ~ S140).

背景差分算出部22は監視対象データを入力されると、当該監視対象データと背景データ記憶部20に記憶された背景データとを比較して、例えば、距離に変化があったと判断される画像領域の画素値を「1」、それ以外の画像領域の画素値を「0」とした差分二値画像を生成する(S115)。この背景差分算出部22での距離変化の有無の判定処理の詳細については後述する。   When the monitoring target data is input, the background difference calculation unit 22 compares the monitoring target data with the background data stored in the background data storage unit 20, for example, an image region that is determined to have changed in distance. A differential binary image with a pixel value of “1” and a pixel value of the other image region as “0” is generated (S115). The details of the process for determining whether or not there is a change in distance in the background difference calculation unit 22 will be described later.

背景差分算出部22は、現在の距離画像のうち、差分二値画像の画素値が「1」である画像領域に対応する部分を抽出して、差分距離画像を生成し、侵入者判定部24へ出力する(S120)。   The background difference calculation unit 22 extracts a portion corresponding to the image region in which the pixel value of the difference binary image is “1” from the current distance image, generates a difference distance image, and the intruder determination unit 24. (S120).

侵入者判定部24は、ラベリング処理S125、統合処理S130、物体大きさ算出処理S135、物体位置算出処理S140を行う。ラベリング処理S125では、差分距離画像内の任意の注目画素の画素値と、注目画素の周囲の画素の画素値との差が所定値未満である場合に、当該注目画素と周囲の画素とに同一のラベル番号を付与する。これにより、差分距離画像内の距離が異なる複数の物体がラベル番号により識別され、抽出される。なお、ラベル番号を画素値とした画像をラベル画像と称する。測距可否データとして測距不能を表す値が設定されている画素については、他の画素値を有する画素に付与される一般ラベル番号とは区別可能なラベル番号を付与する。   The intruder determination unit 24 performs a labeling process S125, an integration process S130, an object size calculation process S135, and an object position calculation process S140. In the labeling process S125, when the difference between the pixel value of an arbitrary target pixel in the difference distance image and the pixel values of the pixels around the target pixel is less than a predetermined value, the same target pixel and the surrounding pixels are the same The label number is assigned. Thereby, a plurality of objects having different distances in the difference distance image are identified and extracted by the label number. An image with the label number as the pixel value is referred to as a label image. For a pixel for which a value indicating that distance measurement is not possible is set as distance measurement availability data, a label number that can be distinguished from a general label number given to a pixel having another pixel value is assigned.

統合処理S130では、ラベル画像において測距不能を示すラベル番号を付与された画素に関して、当該画素に隣接する画素に一般ラベル番号を付与されたものがあれば、当該隣接画素と同一物体であるとみなして、当該測距不能画素のラベル番号を隣接画素の一般ラベル番号に付け替える。   In the integration process S130, regarding a pixel assigned a label number indicating that ranging is not possible in the label image, if a pixel adjacent to the pixel is assigned a general label number, the pixel is the same object as the adjacent pixel. Accordingly, the label number of the pixel that cannot be measured is changed to the general label number of the adjacent pixel.

物体大きさ算出S135では、ラベル番号で識別される物体毎に、その大きさを表すパラメータが算出される。この処理に際して、各画素を、投光部2及び受光部12を中心とした距離と方向で表される座標から直交空間での座標に変換する。その上で、例えば、ラベリングされた各領域の左端と右端との画素の座標差から物体の幅、また上端と下端との画素の座標差から物体の高さを表すパラメータを求める。測距不能画素についての座標変換は、同一ラベル番号が付与された画素の距離を用いて行う。このように、現在の距離画像から物体の距離がわかるので、当該距離と画像上の物体領域とから実空間における物体の大きさを求めることができる。   In the object size calculation S135, a parameter representing the size is calculated for each object identified by the label number. In this processing, each pixel is converted from coordinates represented by a distance and a direction centered on the light projecting unit 2 and the light receiving unit 12 to coordinates in an orthogonal space. Then, for example, parameters representing the object width are obtained from the pixel coordinate difference between the left end and the right end of each labeled region, and the object height is determined from the pixel coordinate difference between the upper end and the lower end. Coordinate conversion for pixels that cannot be measured is performed using the distance between pixels assigned the same label number. Thus, since the distance of the object is known from the current distance image, the size of the object in real space can be obtained from the distance and the object area on the image.

物体位置算出処理S140では、同じラベル番号の画素からなる画素領域の位置に基づいて、その領域に対応する物体の位置を表すパラメータが算出される。例えば、当該領域を構成する画素の三次元直交座標での重心を物体の位置を表すパラメータとする。   In the object position calculation process S140, a parameter representing the position of the object corresponding to the area is calculated based on the position of the pixel area composed of pixels having the same label number. For example, the center of gravity of the pixels constituting the area in the three-dimensional orthogonal coordinates is used as a parameter representing the position of the object.

上記物体の位置、大きさはラベル番号毎に算出され、それら位置及び大きさから、当該物体が人であるか否かが判定される。例えば、予め人と判断する幅、高さの閾値を設定しておき、物体の幅、高さのいずれかが閾値を超えた場合に人であるとの判定を行う。また、監視空間内に予め侵入検知領域を設定することもでき、その場合には、物体の位置がその侵入検知領域内にあるか否かを判定要素に加えることができる。   The position and size of the object are calculated for each label number, and it is determined from the position and size whether the object is a person. For example, thresholds for width and height for determining a person are set in advance, and it is determined that the person is a person when either the width or height of the object exceeds the threshold. In addition, an intrusion detection area can be set in advance in the monitoring space, and in this case, whether or not the position of the object is within the intrusion detection area can be added to the determination element.

人である場合には、侵入者判定部24は監視空間に侵入者が発生したと判断し(S145)、警報部26に通知する。警報部26は通知信号を受けて、上述の侵入者検知時の各種処理を実行する(S150)。   If it is a person, the intruder determination unit 24 determines that an intruder has occurred in the monitoring space (S145), and notifies the alarm unit 26 of it. The alarm unit 26 receives the notification signal and executes various processes when the intruder is detected (S150).

一方、侵入者が検知されない間は(S145)、警報処理S150は実行されず、レーザ光による走査で新たな監視対象データが取得され(S100)、上述の処理S105〜S145を周期的に繰り返すことにより監視動作が継続される。   On the other hand, while no intruder is detected (S145), the alarm process S150 is not executed, new monitoring target data is acquired by scanning with laser light (S100), and the above-described processes S105 to S145 are periodically repeated. As a result, the monitoring operation is continued.

図4は、差分二値画像生成処理S115の概略の処理フロー図である。以下、(i,j)という表記は、距離画像の画素値のx,y座標を表す。距離画像のx,y方向それぞれの画素数をNx,Nyとすると、x方向の座標値iは0≦i≦Nx−1なる値、またy方向の座標値iは0≦i≦Ny−1なる値で表すことができる。例えば、i=0、j=0の画素から差分二値化処理を開始する(S200)。背景差分算出部22は、現在の距離画像について生成された測距可否データと背景の距離画像について背景データ記憶部20に記憶されている測距可否データとを比較参照する。そして、現在の距離画像及び背景の距離画像それぞれの互いに対応する(i,j)画素についての測距可能/不能の組み合わせパターンを判定し、そのパターンに応じて処理を分岐する。例えば、背景差分算出部22は、現在の距離画像、背景の距離画像それぞれの(i,j)画素が共に測距不能であるか否かを判別し(S205)、両画素の少なくとも一方が測距可能であった場合には、次にそれらが両方とも測距可能であるか否かを判断する(S210)。   FIG. 4 is a schematic process flow diagram of the difference binary image generation process S115. Hereinafter, the notation (i, j) represents the x and y coordinates of the pixel value of the distance image. When the number of pixels in the x and y directions of the distance image is Nx and Ny, the coordinate value i in the x direction is 0 ≦ i ≦ Nx−1, and the coordinate value i in the y direction is 0 ≦ i ≦ Ny−1. Can be expressed as For example, the difference binarization process is started from a pixel with i = 0 and j = 0 (S200). The background difference calculation unit 22 compares and refers to the distance measurement availability data generated for the current distance image and the distance measurement availability data stored in the background data storage unit 20 for the background distance image. Then, a combination pattern that enables / disallows distance measurement is determined for the (i, j) pixels corresponding to each of the current distance image and the background distance image, and the process branches according to the pattern. For example, the background difference calculation unit 22 determines whether or not (i, j) pixels of the current distance image and the background distance image are both unmeasurable (S205), and at least one of both pixels is measured. If the distance is possible, it is next determined whether or not both of them can be measured (S210).

現在の距離画像、背景の距離画像それぞれの(i,j)画素が共に測距不能である場合には(S205)、差分二値画像の(i,j)画素の値は、距離変化なしを意味する0に設定される(S215)。   If both the (i, j) pixels of the current distance image and the background distance image cannot be measured (S205), the value of the (i, j) pixel of the difference binary image is set to have no distance change. It is set to 0 which means (S215).

現在の距離画像、背景の距離画像それぞれの(i,j)画素が共に測距可能である場合には(S210)、距離差分値ddが算出される(S220)。ddは、現距離画像の(i,j)画素の距離値をd1(i,j)、背景距離画像の(i,j)画素の距離値をd2(i,j)とすると、次式で与えられる。
dd=|d1(i,j)−d2(i,j)|
If both (i, j) pixels of the current distance image and the background distance image can be measured (S210), a distance difference value dd is calculated (S220). If dd is the distance value of (i, j) pixels in the current distance image and d2 (i, j) is the distance value of (i, j) pixels in the background distance image, Given.
dd = | d1 (i, j) -d2 (i, j) |

この距離差分値ddが閾値ThDと比較され(S225)、ddがThD以上であれば、差分二値画像の(i,j)画素の値は、距離変化ありを意味する1に設定され(S230)、ThD未満であれば0に設定される(S215)。閾値ThDは侵入者を検知するために十分な距離差に設定することが好適である。   This distance difference value dd is compared with a threshold ThD (S225), and if dd is equal to or greater than ThD, the value of the (i, j) pixel of the difference binary image is set to 1 which means that there is a distance change (S230). If it is less than ThD, it is set to 0 (S215). The threshold ThD is preferably set to a sufficient distance difference to detect an intruder.

また、背景差分算出部22は、現在の距離画像、背景の距離画像のいずれか一方の(i,j)画素が測距不能である場合には(S210)、差分二値画像の(i,j)画素の値を、距離変化ありを意味する1に設定する。   Further, the background difference calculation unit 22 determines that (i, j) pixels of either the current distance image or the background distance image cannot be measured (S210), and (i, j) of the difference binary image. j) The pixel value is set to 1 which means that there is a change in distance.

以上のようにして、或る画素について差分二値画像の画素値が決定されると、未処理の画素について同様の処理を実行する。例えば、x方向の座標iを1ずつ増加させて、順次、新たな画素について差分二値化処理を行う(S235)。処理S235にて1増加させたiが上限値Nx−1を超える場合には(S240)、iを0にリセットし、jを1増加させることにより、y方向に隣接する画素列の処理に移行する(S245)。処理S245にて1増加させたjが上限値Ny−1を超えた時点で(S250)、現在の距離画像の全画素についての差分二値化処理が完了する。   As described above, when the pixel value of the difference binary image is determined for a certain pixel, the same processing is executed for an unprocessed pixel. For example, the coordinate i in the x direction is incremented by 1, and the difference binarization process is sequentially performed on new pixels (S235). When i increased by 1 in process S235 exceeds the upper limit value Nx-1 (S240), i is reset to 0, and j is increased by 1 to shift to the process of the pixel column adjacent in the y direction. (S245). When j increased by 1 in process S245 exceeds the upper limit value Ny-1 (S250), the difference binarization process for all the pixels of the current distance image is completed.

図5は、本装置による侵入者検知の処理の一例を説明する模式図である。この例に示す監視空間には背景となる物体として遠方に立つ壁300、その手前に置かれた静止物体302,304が存在する。図5(a)は背景距離画像を表している。この距離画像において、壁300及び静止物体302を構成する各画素については測距可能であり距離計測値が得られている。一方、静止物体304は、例えば光反射率が低い表面材質で構成され、当該物体304からの受光量が少ないため、測距不能な物体である。   FIG. 5 is a schematic diagram for explaining an example of intruder detection processing by this apparatus. In the monitoring space shown in this example, there are a wall 300 standing far away as an object serving as a background, and stationary objects 302 and 304 placed in front of the wall 300. FIG. 5A shows a background distance image. In this distance image, distance measurement is possible for each pixel constituting the wall 300 and the stationary object 302, and a distance measurement value is obtained. On the other hand, the stationary object 304 is made of a surface material having a low light reflectance, for example, and has a small amount of light received from the object 304, and therefore cannot be measured.

図5(b)は現在の距離画像を表している。この距離画像には、静止物体302,304それぞれの前に人306,308が現れる。これら人306,308は測距可能である。   FIG. 5B shows the current distance image. In this distance image, people 306 and 308 appear in front of the stationary objects 302 and 304, respectively. These persons 306 and 308 can measure the distance.

図5(c)は、これら図5(a)(b)に示す背景距離画像及び現在の距離画像に基づく、本装置による差分二値画像を示している。人306に対応する画像領域は、背景距離画像及び現在の距離画像のいずれも測距可能であり、距離差分値が得られる。よって、この距離差分値を閾値ThDで二値化することで、差分二値画像の人306に対応する画像領域の各画素値は「1」に設定される。一方、人308に対応する画像領域に関しては、一部の背景が壁300で、残りの背景が静止物体304である。このうち、背景が壁の部分については人306の画像領域と同様、距離差分値が得られ、それを閾値ThDで二値化することで差分二値画像の画素値として「1」が設定される。背景が静止物体304の部分については、距離差分値が得られない。そのため、従来の差分二値化処理では、距離変化ありと判断することができず、差分二値画像の画素値として「0」が付与される。よって、従来は人308の一部しか差分二値画像に抽出することができず、人308の検出漏れを生じる可能性がある。これに対して、本装置では背景距離画像と現在の距離画像との一方のみが測距不能である画素については、距離変化ありと推定し、差分二値画像の画素値を「1」に設定する。これにより、人308の全体が差分二値画像に抽出され、検出漏れが回避される。   FIG. 5C shows a binary difference image by the present apparatus based on the background distance image and the current distance image shown in FIGS. 5A and 5B. The image area corresponding to the person 306 can measure both the background distance image and the current distance image, and a distance difference value is obtained. Therefore, by binarizing the distance difference value with the threshold ThD, each pixel value of the image area corresponding to the person 306 of the difference binary image is set to “1”. On the other hand, regarding the image area corresponding to the person 308, a part of the background is the wall 300 and the remaining background is the stationary object 304. Among them, the distance difference value is obtained for the wall portion of the background in the same manner as the image area of the person 306, and “1” is set as the pixel value of the difference binary image by binarizing it with the threshold ThD. The A distance difference value cannot be obtained for a portion where the background is the stationary object 304. Therefore, in the conventional difference binarization process, it cannot be determined that there is a distance change, and “0” is assigned as the pixel value of the difference binary image. Therefore, conventionally, only a part of the person 308 can be extracted into the difference binary image, and there is a possibility that the detection of the person 308 may be missed. On the other hand, in the present apparatus, for pixels in which only one of the background distance image and the current distance image cannot be measured, it is estimated that there is a distance change, and the pixel value of the difference binary image is set to “1”. To do. As a result, the entire person 308 is extracted into the difference binary image, and detection omission is avoided.

実施形態の侵入者検知装置の概略のブロック構成図である。It is a schematic block diagram of the intruder detection device of the embodiment. 受光タイミング抽出部における処理を説明する受光信号に関する模式図である。It is a schematic diagram regarding the light reception signal explaining the process in a light reception timing extraction part. 実施形態の侵入者検知装置の全体的な動作を説明する概略の処理フロー図である。It is a rough processing flow figure explaining the whole operation of the intruder detection device of an embodiment. 差分二値画像生成処理の概略の処理フロー図である。It is a general | schematic process flow figure of a difference binary image generation process. 実施形態の侵入者検知装置による侵入者検知の処理の一例を説明する模式図である。It is a schematic diagram explaining an example of the process of intruder detection by the intruder detection apparatus of embodiment.

符号の説明Explanation of symbols

2 投光部、4 投光制御部、6 投光タイミング記憶部、8 走査ミラー、10 走査部、12 受光部、14 受光タイミング抽出部、16 距離算出部、18 データ生成部、20 背景データ記憶部、22 背景差分算出部、24 侵入者判定部、26 警報部、30 距離画像生成部、32 測距可否データ生成部。   2 light projection unit, 4 light projection control unit, 6 light projection timing storage unit, 8 scanning mirror, 10 scanning unit, 12 light reception unit, 14 light reception timing extraction unit, 16 distance calculation unit, 18 data generation unit, 20 background data storage Unit, 22 background difference calculation unit, 24 intruder determination unit, 26 alarm unit, 30 distance image generation unit, 32 distance measurement availability data generation unit.

Claims (3)

監視空間の距離画像に基づいて侵入物体の有無を判定する侵入検知装置において、
前記監視空間へ投光し、その反射光に基づいて前記監視空間に存在する物体までの距離計測値を前記距離画像の画素毎に求める測距手段と、
前記距離画像の各画素について、前記測距手段による測距の成否を表す測距成否情報を生成する成否情報生成手段と、
所定基準時における背景距離画像と監視対象とする対象距離画像とのそれぞれに対応する前記測距成否情報を参照し、前記背景距離画像及び前記対象距離画像の両方にて前記距離計測値が得られている画素に関しては、当該両距離画像間での前記距離計測値の変化が所定値以上である場合に変化画素として抽出し、前記背景距離画像及び前記対象距離画像の一方のみにて前記距離計測値が得られず測距不能である画素に関しては、当該画素を変化画素として抽出する背景差分算出手段と、
前記変化画素に基づいて前記監視空間における前記侵入物体の有無を判定する判定手段と、
を有することを特徴とする侵入検知装置。
In an intrusion detection device that determines the presence or absence of an intruding object based on a distance image of a monitoring space,
Ranging means for projecting light to the monitoring space and obtaining a distance measurement value for each pixel of the distance image based on the reflected light to an object existing in the monitoring space;
Success / failure information generating means for generating distance measurement success / failure information indicating success / failure of distance measurement by the distance measurement means for each pixel of the distance image;
The distance measurement value is obtained in both the background distance image and the target distance image with reference to the distance measurement success / failure information corresponding to each of the background distance image and the target distance image to be monitored at a predetermined reference time. If the change in the distance measurement value between the distance images is greater than or equal to a predetermined value, the pixel is extracted as a change pixel, and the distance measurement is performed using only one of the background distance image and the target distance image. For a pixel for which no value is obtained and ranging is impossible, background difference calculation means for extracting the pixel as a change pixel;
Determining means for determining the presence or absence of the intruding object in the monitoring space based on the change pixel;
An intrusion detection device comprising:
請求項1に記載の侵入検知装置において、
前記成否情報生成手段は、前記測距に用いる前記反射光の受光量に基づいて前記測距成否情報を生成すること、を特徴とする侵入検知装置。
The intrusion detection device according to claim 1,
The intrusion detection device, wherein the success / failure information generation means generates the distance measurement success / failure information based on a received light amount of the reflected light used for the distance measurement.
請求項1又は請求項2に記載の侵入検知装置において、
前記測距手段は、投光から前記反射光の受光までの応答時間に基づいて前記距離計測値を求め、前記投光から所定時間内に、所定値以上の受光量の前記反射光が得られない画素を前記測距不能とすること、を特徴とする侵入検知装置。
The intrusion detection device according to claim 1 or 2,
The distance measuring means obtains the distance measurement value based on a response time from light projection to reception of the reflected light, and the reflected light having a received light amount equal to or greater than a predetermined value is obtained within a predetermined time from the light projection. An intrusion detection apparatus characterized in that no distance measurement is possible for a pixel that does not exist.
JP2005315247A 2005-10-28 2005-10-28 Intrusion detection apparatus Pending JP2007122508A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005315247A JP2007122508A (en) 2005-10-28 2005-10-28 Intrusion detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005315247A JP2007122508A (en) 2005-10-28 2005-10-28 Intrusion detection apparatus

Publications (1)

Publication Number Publication Date
JP2007122508A true JP2007122508A (en) 2007-05-17

Family

ID=38146273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005315247A Pending JP2007122508A (en) 2005-10-28 2005-10-28 Intrusion detection apparatus

Country Status (1)

Country Link
JP (1) JP2007122508A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093428A (en) * 2007-10-09 2009-04-30 Optex Co Ltd Laser area sensor
JP2010127849A (en) * 2008-11-28 2010-06-10 Sogo Keibi Hosho Co Ltd Moving body detecting device and method
ITCS20090006A1 (en) * 2009-03-04 2010-09-05 Innova Technology Solutions S R L CONTROL MODULE FOR A VOLUMETRIC ALARM DEVICE
JP2010286307A (en) * 2009-06-10 2010-12-24 Nec Engineering Ltd Image pickup device
JP2011027574A (en) * 2009-07-27 2011-02-10 Nippon Signal Co Ltd:The Range image processing system
JP2011053137A (en) * 2009-09-03 2011-03-17 Nippon Signal Co Ltd:The Optical range finder
JP2011089909A (en) * 2009-10-23 2011-05-06 Nippon Signal Co Ltd:The Distance image sensor, and distance image processing system with the use of the same
JP2011253521A (en) * 2010-05-31 2011-12-15 Primesense Ltd Analysis of three-dimensional scene
KR101142212B1 (en) 2010-08-17 2012-05-04 주식회사 에스원 Intrusion sensing apparatus and method
EP2455780A1 (en) * 2009-07-17 2012-05-23 Optex Co., Ltd. Laser scan sensor
JP2012154719A (en) * 2011-01-25 2012-08-16 Omron Corp Object detecting unit
JP2012173073A (en) * 2011-02-21 2012-09-10 Omron Corp Object detection unit
JP2012190449A (en) * 2011-02-25 2012-10-04 Ripuro:Kk Mobile body detection system and mobile body detector
JP2013145118A (en) * 2012-01-13 2013-07-25 Panasonic Corp Object detection method and object detection device using the same
JP2014055925A (en) * 2012-09-14 2014-03-27 Omron Corp Image processor, object detection method, and object detection program
JP2015141635A (en) * 2014-01-29 2015-08-03 セコム株式会社 object detection sensor and program
JP2016134679A (en) * 2015-01-16 2016-07-25 キヤノン株式会社 Image processor and method for controlling image processor
JP2017058188A (en) * 2015-09-15 2017-03-23 株式会社デンソーアイティーラボラトリ Intrusion detecting device, intrusion detecting system, intrusion detecting method and intrusion detecting program
JP2017058189A (en) * 2015-09-15 2017-03-23 株式会社デンソーアイティーラボラトリ Object detection device, object detection system, object detection method, and object detection program
WO2017195753A1 (en) * 2016-05-13 2017-11-16 コニカミノルタ株式会社 Surveillance system
JP2018179876A (en) * 2017-04-19 2018-11-15 株式会社日立製作所 Attitude estimation system, distance image camera, and attitude estimation device
CN110291557A (en) * 2017-02-06 2019-09-27 三菱电机株式会社 Monitoring arrangement
JP2020518046A (en) * 2017-04-21 2020-06-18 インテグレイテッド デザイン リミテッド An optical system that monitors the movement of a person through a passage
JP7040660B1 (en) 2021-03-23 2022-03-23 株式会社リコー Information processing equipment and information processing method
WO2023286542A1 (en) 2021-07-16 2023-01-19 ヌヴォトンテクノロジージャパン株式会社 Object detection device and object detection method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1062532A (en) * 1996-08-19 1998-03-06 Nissan Motor Co Ltd Radar for vehicle
JP2000266539A (en) * 1999-03-15 2000-09-29 Nissan Motor Co Ltd Inter-vehicle distance measuring apparatus
JP2002208073A (en) * 2001-01-10 2002-07-26 Secom Co Ltd Intrusion monitor
JP2005242488A (en) * 2004-02-24 2005-09-08 Matsushita Electric Works Ltd Object detecting device, object detecting method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1062532A (en) * 1996-08-19 1998-03-06 Nissan Motor Co Ltd Radar for vehicle
JP2000266539A (en) * 1999-03-15 2000-09-29 Nissan Motor Co Ltd Inter-vehicle distance measuring apparatus
JP2002208073A (en) * 2001-01-10 2002-07-26 Secom Co Ltd Intrusion monitor
JP2005242488A (en) * 2004-02-24 2005-09-08 Matsushita Electric Works Ltd Object detecting device, object detecting method and program

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093428A (en) * 2007-10-09 2009-04-30 Optex Co Ltd Laser area sensor
JP2010127849A (en) * 2008-11-28 2010-06-10 Sogo Keibi Hosho Co Ltd Moving body detecting device and method
ITCS20090006A1 (en) * 2009-03-04 2010-09-05 Innova Technology Solutions S R L CONTROL MODULE FOR A VOLUMETRIC ALARM DEVICE
EP2226774A2 (en) * 2009-03-04 2010-09-08 Innova - Technology Solutions S.R.L. System control unit for a volumetric alarm device
EP2226774A3 (en) * 2009-03-04 2011-01-19 Innova - Technology Solutions S.R.L. System control unit for a volumetric alarm device
JP2010286307A (en) * 2009-06-10 2010-12-24 Nec Engineering Ltd Image pickup device
EP2455780A1 (en) * 2009-07-17 2012-05-23 Optex Co., Ltd. Laser scan sensor
US8681323B2 (en) 2009-07-17 2014-03-25 Optex Co., Ltd. Laser scanning sensor
EP2455780A4 (en) * 2009-07-17 2013-02-20 Optex Co Ltd Laser scan sensor
JP2011027574A (en) * 2009-07-27 2011-02-10 Nippon Signal Co Ltd:The Range image processing system
JP2011053137A (en) * 2009-09-03 2011-03-17 Nippon Signal Co Ltd:The Optical range finder
JP2011089909A (en) * 2009-10-23 2011-05-06 Nippon Signal Co Ltd:The Distance image sensor, and distance image processing system with the use of the same
JP2011253521A (en) * 2010-05-31 2011-12-15 Primesense Ltd Analysis of three-dimensional scene
KR101142212B1 (en) 2010-08-17 2012-05-04 주식회사 에스원 Intrusion sensing apparatus and method
JP2012154719A (en) * 2011-01-25 2012-08-16 Omron Corp Object detecting unit
JP2012173073A (en) * 2011-02-21 2012-09-10 Omron Corp Object detection unit
JP2012190449A (en) * 2011-02-25 2012-10-04 Ripuro:Kk Mobile body detection system and mobile body detector
JP2013145118A (en) * 2012-01-13 2013-07-25 Panasonic Corp Object detection method and object detection device using the same
JP2014055925A (en) * 2012-09-14 2014-03-27 Omron Corp Image processor, object detection method, and object detection program
JP2015141635A (en) * 2014-01-29 2015-08-03 セコム株式会社 object detection sensor and program
JP2016134679A (en) * 2015-01-16 2016-07-25 キヤノン株式会社 Image processor and method for controlling image processor
JP2017058188A (en) * 2015-09-15 2017-03-23 株式会社デンソーアイティーラボラトリ Intrusion detecting device, intrusion detecting system, intrusion detecting method and intrusion detecting program
JP2017058189A (en) * 2015-09-15 2017-03-23 株式会社デンソーアイティーラボラトリ Object detection device, object detection system, object detection method, and object detection program
WO2017195753A1 (en) * 2016-05-13 2017-11-16 コニカミノルタ株式会社 Surveillance system
JPWO2017195753A1 (en) * 2016-05-13 2019-03-14 コニカミノルタ株式会社 Monitoring system
CN110291557B (en) * 2017-02-06 2023-06-06 三菱电机株式会社 Monitoring device
CN110291557A (en) * 2017-02-06 2019-09-27 三菱电机株式会社 Monitoring arrangement
JP2018179876A (en) * 2017-04-19 2018-11-15 株式会社日立製作所 Attitude estimation system, distance image camera, and attitude estimation device
JP7156588B2 (en) 2017-04-21 2022-10-19 インテグレイテッド デザイン リミテッド An optical system that monitors the movement of people through corridors
JP2020518046A (en) * 2017-04-21 2020-06-18 インテグレイテッド デザイン リミテッド An optical system that monitors the movement of a person through a passage
JP7040660B1 (en) 2021-03-23 2022-03-23 株式会社リコー Information processing equipment and information processing method
JP2022151477A (en) * 2021-03-23 2022-10-07 株式会社リコー Information processing apparatus and information processing method
WO2023286542A1 (en) 2021-07-16 2023-01-19 ヌヴォトンテクノロジージャパン株式会社 Object detection device and object detection method

Similar Documents

Publication Publication Date Title
JP2007122508A (en) Intrusion detection apparatus
JP4727388B2 (en) Intrusion detection device
JP4815190B2 (en) Intrusion detection device
CA2934796C (en) Surface defect detecting method and surface defect detecting apparatus
JP5092076B2 (en) Laser area sensor
JP4691701B2 (en) Number detection device and method
JP4460782B2 (en) Intrusion monitoring device
EP2089866B1 (en) Intruder detection system
JP5145986B2 (en) Object detection apparatus and distance measuring method
KR20000071087A (en) Outdoor range finder
JP4445763B2 (en) Image generating apparatus and intruder monitoring apparatus
JP6465772B2 (en) Laser radar equipment
JP2018063221A (en) Distance measurement device, distance measurement method and program
JP4069456B2 (en) Number detection device and method
JP2014059834A (en) Laser scan sensor
CN109547764B (en) Image depth sensing method and image depth sensing device
JP2018160049A (en) Image recognition device
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5163971B1 (en) Laser scan sensor
JP4690823B2 (en) Fire detection equipment
US10962645B2 (en) Reception apparatus, reception method, transmission apparatus, transmission method, and communication system
JP2019079338A (en) Object detection system
JP2000348268A (en) Human body detecting device
JP2005337954A (en) Sensing system and height measuring system
JP2009010594A (en) Image sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111213