JP6309099B2 - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP6309099B2
JP6309099B2 JP2016531393A JP2016531393A JP6309099B2 JP 6309099 B2 JP6309099 B2 JP 6309099B2 JP 2016531393 A JP2016531393 A JP 2016531393A JP 2016531393 A JP2016531393 A JP 2016531393A JP 6309099 B2 JP6309099 B2 JP 6309099B2
Authority
JP
Japan
Prior art keywords
distance
intensity
peak point
difference
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016531393A
Other languages
Japanese (ja)
Other versions
JPWO2016002776A1 (en
Inventor
健一 新房
健一 新房
康伸 大森
康伸 大森
三輪 祥太郎
祥太郎 三輪
勝治 今城
勝治 今城
秀伸 辻
秀伸 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2016002776A1 publication Critical patent/JPWO2016002776A1/en
Application granted granted Critical
Publication of JP6309099B2 publication Critical patent/JP6309099B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/12Detecting, e.g. by using light barriers using one transmitter and one receiver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/181Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

この発明は、監視領域に存在する対象物を認識する監視装置に関するものである。   The present invention relates to a monitoring device that recognizes an object existing in a monitoring area.

従来より、カメラ画像を用いて対象物を検知および認識する技術が存在する。カメラ画像は2次元データであることから、当該カメラ画像から得られる情報も2次元座標、輝度、および色などに限定される。従来技術の多くは輝度背景差分方式を用いて、監視領域内の変化領域を抽出して対象物を認識している。例えば、特許文献1に開示された監視用画像処理装置では、現画像データと比較用画像データとを比較演算して変化領域を抽出し、抽出した変化領域が所定の条件に合致した場合は発報対象として認識し、変化領域が所定の面積で現れた場合には外乱が発生したと判定した場合に発報対象の処理を規制している。   Conventionally, there is a technique for detecting and recognizing an object using a camera image. Since a camera image is two-dimensional data, information obtained from the camera image is also limited to two-dimensional coordinates, luminance, color, and the like. Many of the prior arts recognize a target object by extracting a change area in a monitoring area using a luminance background difference method. For example, in the monitoring image processing apparatus disclosed in Patent Document 1, a change area is extracted by performing a comparison operation on the current image data and the comparison image data, and when the extracted change area meets a predetermined condition, When the change area appears in a predetermined area when it is recognized as a report target, the process of the report target is restricted when it is determined that a disturbance has occurred.

特開平9−214939号公報Japanese Patent Laid-Open No. 9-214939

しかしながら、上述した特許文献1に記載された技術では、カメラ画像から得られる2次元データでは3次元の監視領域を監視するための精度が劣るという課題があった。また、対象物と背景とに輝度差が存在する場合には輝度背景差分が効果的に得られるが、対象物と背景とに輝度差が存在しない場合には対象物を精度よく認識することができないという課題があった。さらに、対象物と背景とに輝度差が十分に存在するが、対象物が3次元座標上をZ軸方向に移動(カメラなどの撮像手段に向かって直進)する場合に、2次元座標上では対象物が静止していると認識され、発報対象として認識することが困難となる。このように、対象物と背景とに十分な輝度差が存在した場合であっても、対象物を精度よく認識することができないという課題があった。   However, in the technique described in Patent Document 1 described above, there is a problem that accuracy for monitoring a three-dimensional monitoring region is inferior in two-dimensional data obtained from a camera image. In addition, when there is a luminance difference between the object and the background, a luminance background difference is effectively obtained, but when there is no luminance difference between the object and the background, the object can be accurately recognized. There was a problem that it was not possible. Furthermore, there is a sufficient luminance difference between the object and the background, but when the object moves in the Z-axis direction on the three-dimensional coordinate (goes straight toward the imaging means such as a camera), the two-dimensional coordinate It is recognized that the object is stationary, and it is difficult to recognize the object as a report target. As described above, there is a problem that even if there is a sufficient luminance difference between the object and the background, the object cannot be accurately recognized.

この発明は、上記のような課題を解決するためになされたもので、対象物と背景とに十分な輝度差が存在しない場合、あるいは対象物が3次元座標上をZ軸方向に移動する場合においても、対象物を精度よく認識可能な監視装置を提供することを目的とする。   The present invention has been made to solve the above-described problems. When there is no sufficient luminance difference between the object and the background, or when the object moves on the three-dimensional coordinate in the Z-axis direction. The object of the present invention is to provide a monitoring device capable of accurately recognizing an object.

この発明に係る監視装置は、監視領域を測定した3次元レーザスキャナの測定結果から、監視領域までの距離情報を取得し、現距離データとする現データ演算部と、測定結果から監視領域までの距離情報を取得し、比較距離データに変換する比較データ演算部と、現データ演算部が取得した現距離データと、比較データ演算部が変換した比較距離データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域として抽出する第1の変化領域抽出部とを備え、第1の変化領域抽出部は、監視領域における背景と対象物との距離関係に基づいて拒絶すべき差分値を記憶したマップデータと、現距離データと比較距離データとの差分値とを照合し、マップデータにより拒絶される差分値を修正する正負マップ照合部を備えるものである。 The monitoring device according to the present invention acquires the distance information to the monitoring area from the measurement result of the three-dimensional laser scanner that measured the monitoring area, and sets the current data calculation unit as the current distance data, and the measurement result to the monitoring area. The difference value between the comparison data calculation unit that acquires distance information and converts it into comparison distance data, the current distance data acquired by the current data calculation unit, and the comparison distance data converted by the comparison data calculation unit is calculated, and the difference A first change region extraction unit that extracts a region having a value equal to or greater than a threshold value as a change region, and the first change region extraction unit should reject based on a distance relationship between the background and the object in the monitoring region and map data stored difference value, and compares the difference value between the comparison distance data and current distance data is shall comprise positive and negative map matching unit for correcting the difference value being rejected by the map data.

この発明によれば、対象物と背景とに十分な輝度差が存在しない場合、あるいは対象物が3次元座標上を移動する場合においても、対象物を精度よく認識することができる。   According to the present invention, even when there is no sufficient luminance difference between the object and the background, or even when the object moves on the three-dimensional coordinates, the object can be accurately recognized.

実施の形態1に係る監視装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a monitoring device according to Embodiment 1. FIG. 3次元レーザスキャナの構成を示す図である。It is a figure which shows the structure of a three-dimensional laser scanner. 3次元レーザスキャナの分散機構を示す説明図である。It is explanatory drawing which shows the dispersion mechanism of a three-dimensional laser scanner. 実施の形態1に係る監視装置の動作を示すフローチャートである。3 is a flowchart showing an operation of the monitoring apparatus according to the first embodiment. 実施の形態1に係る監視装置の認識処理部の判定処理を示すフローチャートである。4 is a flowchart illustrating a determination process of a recognition processing unit of the monitoring apparatus according to the first embodiment. 実施の形態2に係る監視装置の構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of a monitoring device according to a second embodiment. 実施の形態2に係る監視装置の動作を示すフローチャートである。10 is a flowchart showing the operation of the monitoring apparatus according to the second embodiment. 実施の形態3に係る監視装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a monitoring device according to a third embodiment. 実施の形態3に係る監視装置の距離演算部の処理の一例を示す図である。FIG. 10 is a diagram illustrating an example of processing of a distance calculation unit of a monitoring device according to Embodiment 3. 実施の形態3に係る監視装置の変化領域の抽出を示す図である。It is a figure which shows extraction of the change area | region of the monitoring apparatus which concerns on Embodiment 3. FIG. 実施の形態3に係る監視装置の動作を示すフローチャートである。10 is a flowchart showing the operation of the monitoring apparatus according to the third embodiment. 実施の形態3に係る監視装置の認識処理部の判定処理を示すフローチャートである。10 is a flowchart illustrating a determination process of a recognition processing unit of the monitoring apparatus according to the third embodiment. 実施の形態4に係る監視装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a monitoring device according to a fourth embodiment. 実施の形態4に係る監視装置の動作を示すフローチャートである。10 is a flowchart showing the operation of the monitoring apparatus according to the fourth embodiment. 実施の形態5に係る監視装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a monitoring device according to a fifth embodiment. 実施の形態5に係る監視装置の強度演算部の処理の一例を示す図である。It is a figure which shows an example of a process of the intensity | strength calculating part of the monitoring apparatus which concerns on Embodiment 5. FIG. 実施の形態5に係る監視装置の変化領域の抽出を示す図である。It is a figure which shows extraction of the change area | region of the monitoring apparatus which concerns on Embodiment 5. FIG. 実施の形態5に係る監視装置の動作を示すフローチャートである。10 is a flowchart showing the operation of the monitoring apparatus according to the fifth embodiment. 実施の形態6に係る監視装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a monitoring device according to a sixth embodiment. 実施の形態6に係る監視装置の安定度確認部の処理を示す図である。It is a figure which shows the process of the stability confirmation part of the monitoring apparatus which concerns on Embodiment 6. FIG. 実施の形態6に係る監視装置の動作を示すフローチャートである。14 is a flowchart illustrating the operation of the monitoring apparatus according to the sixth embodiment. 実施の形態6に係る監視装置の認識処理部の判定処理を示すフローチャートである。18 is a flowchart illustrating a determination process of a recognition processing unit of the monitoring apparatus according to the sixth embodiment. 実施の形態1と実施の形態3の構成を組み合わせて実現した監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring apparatus implement | achieved combining the structure of Embodiment 1 and Embodiment 3. FIG. 実施の形態1と実施の形態5の構成を組み合わせて実現した監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring apparatus implement | achieved combining the structure of Embodiment 1 and Embodiment 5. FIG. 実施の形態3と実施の形態5の構成を組み合わせて実現した監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring apparatus implement | achieved combining the structure of Embodiment 3 and Embodiment 5. FIG. 実施の形態1と実施の形態3と実施の形態5の構成を組み合わせて実現した監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring apparatus implement | achieved combining the structure of Embodiment 1, Embodiment 3, and Embodiment 5. FIG. 実施の形態7に係る監視装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a monitoring device according to a seventh embodiment. 実施の形態7に係る監視装置の動作を示すフローチャートである。18 is a flowchart showing the operation of the monitoring apparatus according to the seventh embodiment. 実施の形態8に係る監視装置の構成を示すブロック図である。FIG. 20 is a block diagram illustrating a configuration of a monitoring device according to an eighth embodiment. 実施の形態8に係る監視装置の動作を示すフローチャートである。20 is a flowchart showing the operation of the monitoring apparatus according to the eighth embodiment.

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る監視装置の構成を示すブロック図である。
監視装置100は、3次元レーザスキャナ10、現データ演算部20、現データ蓄積部21、比較データ演算部30、比較データ蓄積部31、第1の変化領域抽出部40、認識処理部50および報知処理部60で構成されている。なお、図1において、監視装置100外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201を記載している。
Hereinafter, in order to explain the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram illustrating a configuration of the monitoring apparatus according to the first embodiment.
The monitoring apparatus 100 includes a three-dimensional laser scanner 10, a current data calculation unit 20, a current data storage unit 21, a comparison data calculation unit 30, a comparison data storage unit 31, a first change area extraction unit 40, a recognition processing unit 50, and a notification. The processing unit 60 is configured. In FIG. 1, a background 200 indicating a scanning range of the three-dimensional laser scanner 10 and an object 201 standing in front of the background 200 are shown outside the monitoring apparatus 100.

図2は、3次元レーザスキャナの構成を示す図である。図2に示すように、3次元レーザスキャナ10は、レーザ発光ユニット11、回転ミラーを用いた分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。レーザ発光ユニット11は、レーザ光パルス12を照射する。
分散機構13は、レーザ発光ユニット11から発光されたレーザ光パルス12を広角範囲に分散させる機構である。図2の例では、回転ミラーを用いた分散機構13を示している。当該回転ミラーを用いた分散機構13の詳細については後述する。分散機構13により分散された分散レーザ光パルス14は、背景200あるいは対象物(図2においては不図示)に照射および反射されレーザ反射光15を形成する。図2の例では、分散レーザ光パルス14が背景200のX方向およびY方向へ順次分散照射される様子を示している。具体的には、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散照射されている。
FIG. 2 is a diagram showing the configuration of the three-dimensional laser scanner. As shown in FIG. 2, the three-dimensional laser scanner 10 includes a laser light emitting unit 11, a dispersion mechanism 13 using a rotating mirror, and a laser light receiving unit 16, and scans the range indicated by the background 200 to obtain distance data and intensity. Get the data. The laser light emitting unit 11 irradiates a laser light pulse 12.
The dispersion mechanism 13 is a mechanism that disperses the laser light pulse 12 emitted from the laser light emitting unit 11 in a wide angle range. In the example of FIG. 2, a dispersion mechanism 13 using a rotating mirror is shown. Details of the dispersion mechanism 13 using the rotating mirror will be described later. The dispersed laser light pulse 14 dispersed by the dispersion mechanism 13 is irradiated and reflected on the background 200 or an object (not shown in FIG. 2) to form a laser reflected light 15. In the example of FIG. 2, the dispersion laser light pulse 14 is sequentially dispersedly irradiated in the X direction and the Y direction of the background 200. Specifically, 6 points in the X direction of the background 200 and 2 points in the Y direction of the background 200 are distributedly irradiated to a total of 12 points.

レーザ受光ユニット16は、反射対象で反射されたレーザ反射光15を受光し、発光から受光までの時間差に基づいて、反射対象までの距離を算出し、距離データとする。図2の例では、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散された照射位置全てに対して、個別に距離を算出する。さらに、レーザ受光ユニット16は、分散された照射位置全てに対して、照射した光量と受光した光量の比率に基づいて反射対象の各ポイントにおける反射率を算出し、強度データとする。レーザ受光ユニット16で算出された距離データおよび強度データ17は、図1で示した現データ演算部20および比較データ演算部30に出力される。
なお、図2では、回転ミラーを用いた分散機構13としたが、その他の分散機構を適用してもよい。例えば、モータレスでミラーをスキャンするスキャンレス光学系としてもよい。
The laser light receiving unit 16 receives the laser reflected light 15 reflected by the reflection target, calculates the distance to the reflection target based on the time difference from light emission to light reception, and sets it as distance data. In the example of FIG. 2, the distance is calculated individually for all irradiation positions distributed in a total of 12 points, 6 points in the X direction of the background 200 and 2 points in the Y direction of the background 200. Further, the laser light receiving unit 16 calculates the reflectance at each point of the reflection target based on the ratio of the irradiated light amount and the received light amount with respect to all the dispersed irradiation positions, and sets it as intensity data. The distance data and intensity data 17 calculated by the laser receiving unit 16 are output to the current data calculation unit 20 and the comparison data calculation unit 30 shown in FIG.
In FIG. 2, the dispersion mechanism 13 using a rotating mirror is used, but other dispersion mechanisms may be applied. For example, a scanless optical system that scans a mirror without a motor may be used.

次に、回転ミラーを用いた分散機構13の詳細について、図3を参照しながら説明を行う。分散機構13は、第1の回転ミラー13a、第1のモータ13b、第2の回転ミラー13cおよび第2のモータ13dで構成されている。第1の回転ミラー13aは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、レーザ光パルス12を第1の回転ミラー13aの面に対して水平方向に分散する。水平方向に分散された水平分散レーザ光パルス13eは、常に同一の角度で分散される。第1のモータ13bは、第1の回転ミラー13aを駆動させる駆動源である。第2の回転ミラー13cは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、水平分散レーザ光パルス13eをさらに垂直方向に分散する。垂直方向に分散された垂直分散レーザ光パルス13fは、常に同一の角度で分散される。第2のモータ13dは、第2の回転ミラー13cを駆動させる駆動源である。   Next, details of the dispersion mechanism 13 using a rotating mirror will be described with reference to FIG. The dispersion mechanism 13 includes a first rotating mirror 13a, a first motor 13b, a second rotating mirror 13c, and a second motor 13d. The first rotating mirror 13a operates in synchronization with the pulse frequency of the incident laser light pulse 12, and disperses the laser light pulse 12 in the horizontal direction with respect to the surface of the first rotating mirror 13a. Horizontally dispersed laser light pulses 13e dispersed in the horizontal direction are always dispersed at the same angle. The first motor 13b is a drive source that drives the first rotating mirror 13a. The second rotating mirror 13c operates in synchronization with the pulse frequency of the incident laser light pulse 12, and further disperses the horizontal dispersion laser light pulse 13e in the vertical direction. The vertically dispersed laser light pulses 13f dispersed in the vertical direction are always dispersed at the same angle. The second motor 13d is a drive source that drives the second rotating mirror 13c.

以上の動作により、3次元レーザスキャナ10は、以下に示すX,Y,Zの3次元情報を得る。
X;水平方向座標(図2の例では、6ポイント)
Y;垂直方向座標(図2の例では、2ポイント)
Z;距離データ(Z軸方向の奥行き情報(以下、Z軸情報と称する))
3次元情報には、Z軸情報が含まれているため、対象物が3次元座標上のZ軸移動(3次元レーザスキャナ10に向かって直進)した場合においても、Z軸方向の移動量を用いて差分を得ることができる。
With the above operation, the three-dimensional laser scanner 10 obtains the following three-dimensional information of X, Y, and Z.
X: horizontal coordinate (6 points in the example of FIG. 2)
Y: vertical coordinate (2 points in the example of FIG. 2)
Z: Distance data (depth information in the Z-axis direction (hereinafter referred to as Z-axis information))
Since the three-dimensional information includes the Z-axis information, the amount of movement in the Z-axis direction can be determined even when the object moves in the Z-axis on the three-dimensional coordinates (goes straight toward the three-dimensional laser scanner 10). To obtain the difference.

現データ演算部20は、3次元レーザスキャナ10から入力される距離データを取得し、監視領域の現在の距離データを現データとして現データ蓄積部21に蓄積する。現データ演算部20は、入力された距離データそのものを現データ蓄積部21に蓄積する場合が多い。比較データ演算部30は、3次元レーザスキャナ10から入力される距離データを取得し、比較データに変換して比較データ蓄積部31に蓄積する。比較データへの変換処理は、例えば入力された距離データから遡って過去50フレーム分の距離データから平均距離データを得て比較データとする、あるいは入力された距離データの直前のフレームの距離データを得て比較データとする。   The current data calculation unit 20 acquires distance data input from the three-dimensional laser scanner 10 and stores the current distance data of the monitoring area in the current data storage unit 21 as current data. The current data calculation unit 20 often stores the input distance data itself in the current data storage unit 21. The comparison data calculation unit 30 acquires distance data input from the three-dimensional laser scanner 10, converts it into comparison data, and stores it in the comparison data storage unit 31. For example, the conversion processing to the comparison data is performed by obtaining the average distance data from the distance data for the past 50 frames from the input distance data and using it as comparison data, or the distance data of the frame immediately before the input distance data. Obtained as comparison data.

第1の変化領域抽出部40は、現データ蓄積部21に蓄積された現データ、および比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとを画素単位で比較して差分値を算出し、算出した差分値があらかじめ設定した閾値以上である画素領域を変化領域として抽出する。一般的に、一定の閾値を設定し、差分値が設定した閾値以上であるか否かで2値化した2値化データに変換して取り扱う。   The first change area extraction unit 40 acquires the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31, and compares the current data and the comparison data in units of pixels. Then, a difference value is calculated, and a pixel area whose calculated difference value is equal to or larger than a preset threshold value is extracted as a change area. Generally, a fixed threshold value is set, and converted into binary data depending on whether or not the difference value is greater than or equal to the set threshold value.

認識処理部50は、第1の変化領域抽出部40が抽出した変化領域の条件があらかじめ定めた条件を満たしているか否かに基づいて、変化領域が報知対象であるか否かの認識処理を行う。報知処理部60は、認識処理部50の認識結果に基づいて報知処理を行う。報知処理としては、上位にあるPCなどに特定の信号を送信する処理、あるいは装置のブザーを鳴らすなどの処理などが挙げられる。   The recognition processing unit 50 recognizes whether or not the change area is a notification target based on whether or not the condition of the change area extracted by the first change area extraction unit 40 satisfies a predetermined condition. Do. The notification processing unit 60 performs notification processing based on the recognition result of the recognition processing unit 50. Examples of the notification process include a process of transmitting a specific signal to a higher-level PC or the like, or a process of sounding a buzzer of the apparatus.

次に、監視装置100の動作について説明する。
図4は、実施の形態1に係る監視装置の動作を示すフローチャートである。
なお、図4のフローチャートでは、3次元レーザスキャナ10の解像度が80×60画素である場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200の範囲をスキャンし(ステップST1)、距離データおよび強度データを取得する(ステップST2)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である80×60に分割してスキャンする。距離データは一般にデジタルデータであり、ここでは80×60画素の1画素あたり8ビットの多値データとする。現データ演算部20は、ステップST2で取得された80×60画素の距離データを現データとして現データ蓄積部21に蓄積する(ステップST3)。比較データ演算部30は、ステップT2で取得された80×60画素の距離データを比較データに変換し、比較データ蓄積部31に蓄積する(ステップST4)。
Next, the operation of the monitoring device 100 will be described.
FIG. 4 is a flowchart showing the operation of the monitoring apparatus according to the first embodiment.
In the flowchart of FIG. 4, the case where the resolution of the three-dimensional laser scanner 10 is 80 × 60 pixels will be described as an example.
First, the three-dimensional laser scanner 10 scans the range of the background 200 (step ST1), and acquires distance data and intensity data (step ST2). Specifically, the range of the background 200 is divided into 80 × 60, which is the resolution of the three-dimensional laser scanner 10, and scanned. The distance data is generally digital data, and here, multi-value data of 8 bits per pixel of 80 × 60 pixels is used. The current data calculation unit 20 accumulates the 80 × 60 pixel distance data acquired in step ST2 in the current data accumulation unit 21 as current data (step ST3). The comparison data calculation unit 30 converts the distance data of 80 × 60 pixels acquired in step T2 into comparison data and stores it in the comparison data storage unit 31 (step ST4).

第1の変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データとを用いて、画素ごとの差分値を算出する(ステップST5)。ステップST5の処理では、現データと比較データが距離データで構成されていることから、得られる差分値は「距離の差」を示している。例えば、現データに背景200および対象物201が含まれ、比較データに背景200のみが含まれている場合、得られる差分値は「背景と対象物との間の距離」を示している。   The first change area extraction unit 40 calculates a difference value for each pixel by using the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31 (step ST5). ). In the process of step ST5, since the current data and the comparison data are constituted by distance data, the obtained difference value indicates “distance difference”. For example, when the background data 200 and the object 201 are included in the current data and only the background 200 is included in the comparison data, the obtained difference value indicates “distance between the background and the object”.

ステップST5で得られた差分値は8bitの多値データであるため、第1の変化領域抽出部40は得られた差分値があらかじめ設定した閾値以上であるか否か判定を行う(ステップST6)。差分値が閾値以上である場合(ステップST6;YES)、当該画素領域を変化領域として抽出する(ステップST7)。一方、差分値が閾値未満である場合(ステップST6;NO)、当該画素領域は変化領域でないと判断し(ステップST8)、ステップST9の処理に進む。その後、第1の変化領域抽出部40は、80×60画素全てについて処理を行ったか否か判定を行う(ステップST9)。80×60画素全てについて処理を行っていない場合(ステップST9;NO)、ステップST5の処理に戻り、上述した処理を繰り返す。   Since the difference value obtained in step ST5 is 8-bit multi-value data, the first change area extraction unit 40 determines whether or not the obtained difference value is equal to or greater than a preset threshold value (step ST6). . If the difference value is greater than or equal to the threshold value (step ST6; YES), the pixel area is extracted as a change area (step ST7). On the other hand, if the difference value is less than the threshold value (step ST6; NO), it is determined that the pixel area is not a change area (step ST8), and the process proceeds to step ST9. Thereafter, the first change area extraction unit 40 determines whether or not processing has been performed for all 80 × 60 pixels (step ST9). When the process is not performed for all 80 × 60 pixels (step ST9; NO), the process returns to step ST5 and the above-described process is repeated.

一方、80×60画素全てについて処理を行った場合(ステップST9;YES)、認識処理部50は、ステップST7で抽出された変化領域が照合条件を満たすか否か判定を行う(ステップST10)。照合条件を満たす場合(ステップST10;YES)、変化領域が報知対象であると認識する(ステップST11)。一方、照合条件を満たさない場合(ステップST10;NO)、変化領域が報知対象でないと判断し(ステップST12)、ステップST1の処理に戻る。報知処理部60は、ステップST11で認識された報知対象について報知処理を行い(ステップST13)、ステップST1の処理に戻る。   On the other hand, when processing has been performed for all 80 × 60 pixels (step ST9; YES), the recognition processing unit 50 determines whether or not the change region extracted in step ST7 satisfies the collation condition (step ST10). If the verification condition is satisfied (step ST10; YES), the change area is recognized as a notification target (step ST11). On the other hand, when the verification condition is not satisfied (step ST10; NO), it is determined that the change area is not a notification target (step ST12), and the process returns to step ST1. The notification processing unit 60 performs notification processing on the notification target recognized in step ST11 (step ST13), and returns to the processing of step ST1.

次に、認識処理部50による判定処理の詳細に示す。
図5は、実施の形態1に係る監視装置の認識処理部の判定処理を示すフローチャートである。
認識処理部50は、変化領域が監視範囲内に存在するか否か判定を行う(ステップST21)。監視範囲内に存在する場合(ステップST21;YES)、さらに変化領域が所定の面積を有しているか否か判定を行う(ステップST22)。所定の面積を有している場合(ステップST22;YES)、さらに変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST23)。所定の縦横寸法を有している場合(ステップST23;YES)、さらに変化領域が所定の移動速度を有しているか否か判定を行う(ステップST24)。所定の移動速度を有している場合(ステップST24;YES)、ステップST11に進み、変化領域が報知対象であると認識される。
Next, details of the determination processing by the recognition processing unit 50 will be described.
FIG. 5 is a flowchart illustrating a determination process of the recognition processing unit of the monitoring apparatus according to the first embodiment.
The recognition processing unit 50 determines whether or not the change area exists within the monitoring range (step ST21). When it exists in the monitoring range (step ST21; YES), it is further determined whether or not the change area has a predetermined area (step ST22). When it has a predetermined area (step ST22; YES), it is further determined whether or not the change area has a predetermined vertical and horizontal dimension (step ST23). If it has predetermined vertical and horizontal dimensions (step ST23; YES), it is further determined whether or not the change area has a predetermined moving speed (step ST24). When it has a predetermined moving speed (step ST24; YES), it progresses to step ST11 and it recognizes that a change area | region is a notification object.

一方、変化領域が、監視範囲内に存在しない場合(ステップST21;NO)、所定の面積を有していない場合(ステップST22;NO)、所定の縦横寸法を有していない場合(ステップST23;NO)、所定の移動速度を有してない場合(ステップST24;NO)、ステップST12に進み、報知対象でないと判断される。   On the other hand, the change area does not exist within the monitoring range (step ST21; NO), does not have a predetermined area (step ST22; NO), or does not have a predetermined vertical / horizontal dimension (step ST23; NO), when it does not have a predetermined movement speed (step ST24; NO), it progresses to step ST12 and it is judged that it is not information object.

以上のように、この実施の形態1によれば、3次元レーザスキャナ10により取得された距離データから現データを取得する現データ演算部20と、3次元レーザスキャナ10により取得された距離データから比較データを取得する比較データ演算部30と、現データと比較データとの差分値から変化領域を抽出する第1の変化領域抽出部40とを備えるように構成したので、差分値として対象物と背景との距離情報を得ることができ、対象物と背景とに十分な輝度差が存在しない場合にも対象物と背景との差異を認識することができる。また、3次元レーザスキャナ10により取得された距離情報に含まれるZ軸情報を用いることにより、対象物の3次元座標上のZ軸方向への移動も認識することができる。これらにより、対象物の認識精度を向上させることができる。   As described above, according to the first embodiment, the current data calculation unit 20 that acquires current data from the distance data acquired by the three-dimensional laser scanner 10 and the distance data acquired by the three-dimensional laser scanner 10 are used. Since it comprised so that the comparison data calculating part 30 which acquires comparison data, and the 1st change area extraction part 40 which extracts a change area from the difference value of present data and comparison data may be provided as a difference value Information on the distance to the background can be obtained, and the difference between the object and the background can be recognized even when there is no sufficient luminance difference between the object and the background. Further, by using the Z-axis information included in the distance information acquired by the three-dimensional laser scanner 10, it is possible to recognize the movement of the object in the Z-axis direction on the three-dimensional coordinates. As a result, the recognition accuracy of the object can be improved.

実施の形態2.
図6は、実施の形態2に係る監視装置の構成を示すブロック図である。
実施の形態2の監視装置100aは、図1で示した実施の形態1の監視装置100の第1の変化領域抽出部40に正負マップ照合部41を追加して設けている。なお、以下では、実施の形態1に係る監視装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
Embodiment 2. FIG.
FIG. 6 is a block diagram illustrating a configuration of the monitoring apparatus according to the second embodiment.
The monitoring device 100a according to the second embodiment is provided with a positive / negative map matching unit 41 in addition to the first change region extraction unit 40 of the monitoring device 100 according to the first embodiment shown in FIG. In the following, the same or corresponding parts as those of the monitoring apparatus 100 according to the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and the description thereof is omitted or simplified.

第1の変化領域抽出部40は、実施の形態1と同様に、現データ蓄積部21に蓄積された現データ、および比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとを画素単位で比較して差分値を算出する。正負マップ照合部41は、第1の変化領域抽出部40が算出した差分値が正の値であるか、負の値であるかを参照し、あらかじめ設定されたマップデータとの照合を行う。差分値の正負は、背景200と対象物201の距離関係に基づくものであり、対象物201が背景200の手前にある場合には差分値が「正」であり、背景200が対象物201の手前にある場合には差分値が「負」となる。   As in the first embodiment, the first change area extraction unit 40 acquires the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31 and compares them with the current data. The difference value is calculated by comparing the data with the pixel unit. The positive / negative map collating unit 41 refers to whether the difference value calculated by the first change region extracting unit 40 is a positive value or a negative value, and collates with map data set in advance. The sign of the difference value is based on the distance relationship between the background 200 and the object 201. When the object 201 is in front of the background 200, the difference value is “positive” and the background 200 is the object 201. If it is in front, the difference value is “negative”.

通常、背景200が壁のように固体の遮蔽物である場合には、対象物201は必ず壁の手前側を通過することとなる。壁の背面側を通過する対象物を視認することはできず、3次元レーザスキャナ10でスキャンされることはない。一方、背景200が例えば網のフェンスの場合、対象物201がフェンスの手前側と背面側のどちらに存在しても視認することができる、3次元レーザスキャナ10によりスキャンされる。   Usually, when the background 200 is a solid shielding object such as a wall, the object 201 always passes the near side of the wall. An object passing through the back side of the wall cannot be visually recognized and is not scanned by the three-dimensional laser scanner 10. On the other hand, when the background 200 is, for example, a net fence, the object 201 is scanned by the three-dimensional laser scanner 10 that can be visually recognized regardless of whether the object 201 exists on the front side or the back side of the fence.

このように、背景200の条件によっては、背景200と対象物201の距離関係、すなわち差分値の正負に基づいて差分値に制限を加える必要が生じる。正負マップ照合部41は、差分値を制限する条件をマップデータとしてあらかじめ記憶し、当該マップデータと差分値との照合を行い、マップデータの条件に拒絶される差分値を修正する。   Thus, depending on the conditions of the background 200, it is necessary to limit the difference value based on the distance relationship between the background 200 and the object 201, that is, the sign of the difference value. The positive / negative map collation unit 41 stores in advance conditions for limiting the difference value as map data, collates the map data with the difference value, and corrects the difference value rejected by the map data condition.

具体的には、画素(x,y)のマップデータが「0」である場合、当該マップデータの条件としては「画素(x,y)の画素の差分値は「正」のみ許可する」となる。この条件において、画素(x,y)の画素の差分値として負の値が算出された場合、当該画素をノイズとみなし、差分値を強制的に「0」に修正する。これにより、背景200の条件によっては発生することのない差分値を排除し、算出した差分値の精度を向上させる。第1の変化領域抽出部40は、正負マップ照合部41により照合された差分値が、あらかじめ設定した閾値以上であるか否か判定を行い、閾値以上である画素領域を変化領域として抽出する。   Specifically, when the map data of the pixel (x, y) is “0”, the condition of the map data is “only the positive value of the pixel difference value of the pixel (x, y) is allowed”. Become. Under this condition, when a negative value is calculated as the difference value of the pixel (x, y), the pixel is regarded as noise, and the difference value is forcibly corrected to “0”. This eliminates a difference value that does not occur depending on the conditions of the background 200, and improves the accuracy of the calculated difference value. The first change region extraction unit 40 determines whether or not the difference value collated by the positive / negative map collation unit 41 is equal to or greater than a preset threshold value, and extracts a pixel region that is equal to or greater than the threshold value as a change region.

次に、実施の形態2に係る監視装置100aの動作について説明する。
図7は、実施の形態2に係る監視装置の動作を示すフローチャートである。
なお、以下では実施の形態1に係る監視装置100と同一のステップには図4で使用した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST5において、第1の変化領域抽出部40が現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データとを用いて、画素ごとの差分値を算出すると、正負マップ照合部41は算出された差分値とマップデータとの照合を行い(ステップST31)、マップデータの条件に拒絶されるか否か判定を行う(ステップST32)。
Next, the operation of the monitoring apparatus 100a according to Embodiment 2 will be described.
FIG. 7 is a flowchart showing the operation of the monitoring apparatus according to the second embodiment.
In the following, the same steps as those of the monitoring apparatus 100 according to the first embodiment are denoted by the same reference numerals as those used in FIG. 4, and the description thereof is omitted or simplified.
In step ST5, when the first change area extraction unit 40 calculates the difference value for each pixel using the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31. The positive / negative map collating unit 41 collates the calculated difference value with the map data (step ST31), and determines whether or not the map data is rejected (step ST32).

マップデータの条件に拒絶される場合(ステップST32;YES)、正負マップ照合部41は当該差分値の値を修正する(ステップST33)。一方、マップデータの条件に拒絶されない場合(ステップST32;NO)、ステップST6の処理に進む。第1の変化領域抽出部40は、ステップST5あるいはステップST33で得られた差分値があらかじめ設定した閾値以上であるか否か判定を行う(ステップST6)。その後、フローチャートは上述したステップST7からステップST13の処理を行う。   When the map data condition is rejected (step ST32; YES), the positive / negative map matching unit 41 corrects the difference value (step ST33). On the other hand, if it is not rejected by the map data condition (step ST32; NO), the process proceeds to step ST6. The first change region extraction unit 40 determines whether or not the difference value obtained in step ST5 or step ST33 is greater than or equal to a preset threshold value (step ST6). Thereafter, the flowchart performs the processing from step ST7 to step ST13 described above.

以上のように、この実施の形態2によれば、第1の変化領域抽出部40が算出した差分値と、あらかじめ条件が設定されたマップデータとの照合を行い、マップデータの条件に拒絶される差分値を修正する正負マップ照合部41を備えるように構成したので、背景の条件によっては発生しえない差分値を排除し、算出された差分値の精度を高めることができる。これにより、対象物の認識精度を向上させることができる。   As described above, according to the second embodiment, the difference value calculated by the first change region extraction unit 40 is collated with the map data in which the condition is set in advance, and the map data condition is rejected. Therefore, the difference value that cannot be generated depending on the background condition can be eliminated, and the accuracy of the calculated difference value can be improved. Thereby, the recognition accuracy of the object can be improved.

実施の形態3.
図8は、実施の形態3に係る監視装置の構成を示すブロック図である。
なお、以下では、実施の形態1に係る監視装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
実施の形態3の監視装置100bは、3次元レーザスキャナ10、距離ヒストグラム作成部71と、対象物距離ピーク点算出部72と、背景距離ピーク点算出部73と、距離差分算出部74とを備えた距離演算部70、距離差分連結処理部75、第2の変化領域抽出部42、認識処理部50および報知処理部60で構成されている。なお、図8において監視装置100b外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201およびレーザ光パルス12の拡散領域202を記載している。対象物201を認識して報知することが本監視装置100bの目的である。
Embodiment 3 FIG.
FIG. 8 is a block diagram illustrating a configuration of the monitoring apparatus according to the third embodiment.
In the following, the same or corresponding parts as those of the monitoring apparatus 100 according to the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and the description thereof is omitted or simplified.
The monitoring apparatus 100b according to the third embodiment includes a three-dimensional laser scanner 10, a distance histogram creation unit 71, an object distance peak point calculation unit 72, a background distance peak point calculation unit 73, and a distance difference calculation unit 74. The distance calculation unit 70, the distance difference connection processing unit 75, the second change area extraction unit 42, the recognition processing unit 50, and the notification processing unit 60. In FIG. 8, the background 200 indicating the scan range of the three-dimensional laser scanner 10, the object 201 standing in front of the background 200, and the diffusion region 202 of the laser light pulse 12 are illustrated outside the monitoring apparatus 100 b. The purpose of the monitoring apparatus 100b is to recognize and notify the object 201.

3次元レーザスキャナ10は、実施の形態1と同様に図2に示すレーザ発光ユニット11、分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。3次元レーザスキャナ10から照射されるレーザ光パルス12は、視野を3次元レーザスキャナ10の解像度に応じたエリアに分割し、分割した1エリアに対して1パルスの照射を行う。   The three-dimensional laser scanner 10 includes the laser light emitting unit 11, the dispersion mechanism 13, and the laser light receiving unit 16 shown in FIG. 2 as in the first embodiment, and scans the range indicated by the background 200 to obtain distance data and intensity data. To get. The laser light pulse 12 emitted from the three-dimensional laser scanner 10 divides the field of view into areas corresponding to the resolution of the three-dimensional laser scanner 10 and irradiates one pulse to the divided area.

レーザ光パルス12は拡散する特性を有し、図8に示した背景200が例えば平面の壁であった場合に、壁面上の拡散領域202にレーザ光パルス12が拡散する。拡散領域202はレーザ光パルス12の拡散範囲を示しており、当該拡散範囲は3次元レーザスキャナ10から背景200までの距離により決定される。例えば、3次元レーザスキャナ10から背景200までの距離が100mである場合に、拡散領域202の直径202aが30cmとなる。拡散領域202に拡散したレーザ光パルス12は背景200あるいは対象物201によって反射され、レーザ反射光15として3次元レーザスキャナ10に入射する。3次元レーザスキャナ10は、受光したレーザ反射光15に基づいて背景200あるいは対象物201までの距離および反射率を算出し、距離データおよび強度データを取得する。取得された距離データは、距離ヒストグラム作成部71に出力される。   The laser light pulse 12 has a characteristic of diffusing. When the background 200 shown in FIG. 8 is a flat wall, for example, the laser light pulse 12 diffuses into the diffusion region 202 on the wall surface. The diffusion region 202 indicates the diffusion range of the laser light pulse 12, and the diffusion range is determined by the distance from the three-dimensional laser scanner 10 to the background 200. For example, when the distance from the three-dimensional laser scanner 10 to the background 200 is 100 m, the diameter 202a of the diffusion region 202 is 30 cm. The laser light pulse 12 diffused in the diffusion region 202 is reflected by the background 200 or the object 201 and enters the three-dimensional laser scanner 10 as the laser reflected light 15. The three-dimensional laser scanner 10 calculates the distance and reflectance to the background 200 or the object 201 based on the received laser reflected light 15, and acquires distance data and intensity data. The acquired distance data is output to the distance histogram creation unit 71.

距離ヒストグラム作成部71は、3次元レーザスキャナ10から入力される距離データに基づいて、画素ごとに距離ヒストグラムを作成する。より詳細に説明すると、距離ヒストグラム作成部71は、3次元レーザスキャナ10の過去10スキャン分の距離データに基づいて、画素(x,y)における第1の距離ヒストグラムを作成する。当該第1の距離ヒストグラムの作成を全ての画素について実施する。さらに、3次元レーザスキャナ10の過去50スキャン分の距離データに基づいて画素(x,y)における第2の距離ヒストグラムを作成する。当該第2の距離ヒストグラムの作成を全ての画素について実施する。   The distance histogram creation unit 71 creates a distance histogram for each pixel based on the distance data input from the three-dimensional laser scanner 10. More specifically, the distance histogram creation unit 71 creates a first distance histogram for the pixel (x, y) based on the distance data for the past 10 scans of the three-dimensional laser scanner 10. The first distance histogram is created for all pixels. Further, a second distance histogram at the pixel (x, y) is created based on distance data for the past 50 scans of the three-dimensional laser scanner 10. The creation of the second distance histogram is performed for all pixels.

図9は実施の形態3に係る監視装置の距離演算部の処理の一例を示す図であり、図9(a)は距離ヒストグラム作成部71が作成する距離ヒストグラムの一例を示している。
図9(a)において、横軸は距離(m)を示し、縦軸は頻度を示している。図9(a)に示す画素(x,y)の距離ヒストグラムは、3次元レーザスキャナ10から100m離れた背景200と、背景200の手前側に対象物201が重なった座標の距離ヒストグラムである。距離100m付近の頻度が高いのは背景200である壁を示すものであり、距離30m付近に頻度が高いのは対象物201を示すものであり、その他の分布は距離ジッタによる誤差である。
FIG. 9 is a diagram illustrating an example of the process of the distance calculation unit of the monitoring apparatus according to the third embodiment, and FIG. 9A illustrates an example of the distance histogram created by the distance histogram creation unit 71.
In FIG. 9A, the horizontal axis indicates the distance (m), and the vertical axis indicates the frequency. The distance histogram of the pixel (x, y) shown in FIG. 9A is a distance histogram of coordinates where the background 200 that is 100 m away from the three-dimensional laser scanner 10 and the object 201 overlap the near side of the background 200. A high frequency in the vicinity of the distance of 100 m indicates a wall that is the background 200, a high frequency in the vicinity of the distance of 30 m indicates the object 201, and the other distributions are errors due to distance jitter.

ここで、距離ジッタについて説明する。上述した画素(x,y)は背景200の手前側に対象物201が重なった座標であり、背景200と対象物201の両方にレーザ光パルス12を照射している。その結果、3次元レーザスキャナ10の算出結果である距離データは、背景200の比率が高い場合には背景200の距離に揺らぎ、対象物201の比率が高い場合には対象物201の距離揺らぐ。これらの距離の揺らぎが距離ジッタである。距離ジッタが発生している場合、対象物201までの距離が揺れ動くため、安定した距離データを取得することが困難であり、変化領域の抽出の精度が低下するが、この実施の形態3の構成を適用することにより、距離ジッタによる誤差を抑制し、変化領域の抽出精度を向上させる。   Here, the distance jitter will be described. The pixel (x, y) described above is a coordinate at which the object 201 overlaps the near side of the background 200, and the background 200 and the object 201 are both irradiated with the laser light pulse 12. As a result, the distance data that is the calculation result of the three-dimensional laser scanner 10 fluctuates to the distance of the background 200 when the ratio of the background 200 is high, and fluctuates the distance of the object 201 when the ratio of the object 201 is high. These distance fluctuations are distance jitter. When distance jitter has occurred, the distance to the object 201 fluctuates, so that it is difficult to acquire stable distance data, and the accuracy of extraction of the change region is reduced. However, the configuration of the third embodiment Is applied to suppress errors due to distance jitter and improve the extraction accuracy of the change region.

対象物距離ピーク点算出部72は、距離ヒストグラム作成部71が作成した第1の距離ヒストグラムを平滑化してピーク点を算出する。図9(b)は、画素(x,y)での対象物距離ピーク点算出を示す図である。
ピーク点の算出例としては、ある距離Pにおける頻度に対して、距離P±10の頻度の平均を算出して距離Pの頻度に置き換える(処理1a)。この置き換え処理を、距離ヒストグラムの距離0mから150mの全てで行う。置き換えられた頻度を線で結ぶとなだらかな曲線が得られる(処理2a)。得られた曲線に対して距離0mの位置から傾斜を測定し、右上がりの傾斜から右下がりの傾斜に移行する点をピーク点として算出する(処理3a、図9(b)の矢印a,b,c参照)。このピーク点の算出処理を距離150mの位置まで行う(処理4a)。得られたピーク点が目的とする対象物距離ピーク点となる。
The object distance peak point calculation unit 72 calculates a peak point by smoothing the first distance histogram created by the distance histogram creation unit 71. FIG. 9B is a diagram illustrating calculation of the object distance peak point at the pixel (x, y).
As an example of calculating the peak point, the average of the frequencies at the distance P ± 10 is calculated for the frequency at a certain distance P and replaced with the frequency at the distance P (processing 1a). This replacement process is performed for all distances 0 m to 150 m in the distance histogram. If the replaced frequencies are connected by a line, a gentle curve is obtained (Process 2a). The slope of the obtained curve is measured from a position at a distance of 0 m, and the point at which the slope changes from a right-up slope to a right-down slope is calculated as a peak point (processing 3a, arrows a and b in FIG. 9B). , C). This peak point calculation process is performed up to a distance of 150 m (process 4a). The obtained peak point becomes the target object distance peak point.

なお、場合によっては複数のピーク点が算出される。例えば、ピーク点が3個以上算出された場合にはピーク点を減らす処理を行う。ピーク点を減らす処理としては、ピーク点が3個程度に収束するまで、上述した処理1aから処理4aを繰り返す。これにより、3個程度のピーク点を含むヒストグラム曲線が得られる。当該ヒストグラム曲線に存在するピーク点が目的とする対象物距離ピーク点となる。   In some cases, a plurality of peak points are calculated. For example, when three or more peak points are calculated, processing for reducing the peak points is performed. As processing for reducing the peak points, the above-described processing 1a to processing 4a are repeated until the peak points converge to about three. Thereby, a histogram curve including about three peak points is obtained. The peak point existing in the histogram curve is the target object distance peak point.

次に、背景距離ピーク点算出部73は、第2の距離ヒストグラムを平滑化してピーク点を算出する。図9(c)は、画素(x,y)での背景距離ピーク点算出を示す図である。ピーク点の算出例としては、ある距離Pにおける頻度に対して、距離P±10の頻度の平均を算出して距離Pの頻度に置き換える(処理1b)。この置き換え処理を、ヒストグラムの距離0mから150mの全てで行う。置き換えられた頻度を線で結ぶとなだらかな曲線が得られる(処理2b)。得られた曲線に対して距離0mの位置から傾斜を測定し、右上がりの傾斜から右下がりの傾斜に移行する点をピーク点として算出する(処理3b)。このピーク点の算出処理を距離150mの位置まで行う(処理4b)。得られたピーク点が目的とする背景距離ピーク点となる。   Next, the background distance peak point calculation unit 73 calculates a peak point by smoothing the second distance histogram. FIG. 9C is a diagram showing calculation of the background distance peak point at the pixel (x, y). As an example of calculating the peak point, the average of the frequency of the distance P ± 10 is calculated with respect to the frequency at a certain distance P and replaced with the frequency of the distance P (processing 1b). This replacement process is performed for all distances from 0 m to 150 m in the histogram. If the replaced frequencies are connected by a line, a gentle curve is obtained (Process 2b). The slope of the obtained curve is measured from a position at a distance of 0 m, and a point at which the slope moves from a right-up slope to a right-down slope is calculated as a peak point (processing 3b). This peak point calculation process is performed up to a distance of 150 m (process 4b). The obtained peak point becomes the target background distance peak point.

なお、場合によっては複数のピーク点が算出される。例えば、ピーク点が2個以上算出された場合にはピーク点を減らす処理を行う。ピーク点を減らす処理としては、ピーク点が1個に収束するまで、上述した処理1bから処理4bを繰り返す。これにより、1個のピーク点を含むヒストグラム曲線が得られる。当該ヒストグラム曲線に存在するピーク点が目的とする背景距離ピーク点となる。   In some cases, a plurality of peak points are calculated. For example, when two or more peak points are calculated, processing for reducing the peak points is performed. As processing for reducing the peak points, the above-described processing 1b to processing 4b are repeated until the peak points converge to one. As a result, a histogram curve including one peak point is obtained. The peak point existing in the histogram curve is the target background distance peak point.

第1の距離ヒストグラムと第2の距離ヒストグラムの違いは、ヒストグラム作成に要した時間である。上述したように、第1の距離ヒストグラムは3次元レーザスキャナ10の過去10スキャン分の距離データに基づいて作成し、第2の距離ヒストグラムは3次元レーザスキャナ10の過去50スキャン分の距離データに基づいて作成している。このように、第2の距離ヒストグラムは、第1の距離ヒストグラムに対して5倍の時間を使用しており、第2の距離ヒストグラムは第1の距離ヒストグラムと比較して短時間の変化に鈍感となり(監視領域の長時間変化を示す)、固定的に存在する背景の距離に強く影響されるヒストグラムとなる。逆に、第1の距離ヒストグラムは、短時間の変化に敏感となり(監視領域の短時間変化を示す)、対象物の距離に強く影響されるヒストグラムとなる。これらにより、対象物距離ピーク点および背景距離ピーク点が算出される。   The difference between the first distance histogram and the second distance histogram is the time required to create the histogram. As described above, the first distance histogram is created based on the distance data for the past 10 scans of the three-dimensional laser scanner 10, and the second distance histogram is the distance data for the past 50 scans of the three-dimensional laser scanner 10. Create based on. Thus, the second distance histogram uses five times as much time as the first distance histogram, and the second distance histogram is insensitive to short-time changes compared to the first distance histogram. (Indicating a long-term change in the monitoring area) and a histogram that is strongly influenced by the distance of the fixed background. On the other hand, the first distance histogram is sensitive to a short-time change (indicating a short-time change in the monitoring area) and is a histogram that is strongly influenced by the distance of the object. Thus, the object distance peak point and the background distance peak point are calculated.

距離差分算出部74は、対象物距離ピーク点を含むヒストグラム曲線(以下、対象物距離ヒストグラム曲線と称する)と、背景距離ピーク点を含むヒストグラム曲線(以下、背景距離ヒストグラム曲線と称する)とから差分ピーク点を算出する。図9(d)は、画素(x,y)での差分ピーク点算出を示す図である。
具体的な算出方法としては、まず図9(c)に示した背景距離ヒストグラム曲線を正規分布曲線とみなし、当該正規分布の標準偏差(平均μから変曲点までの距離)σを用いて、背景距離ピーク点C(正規分布における平均μ)を中心とした範囲3σを決定する(処理1c)。次に、対象物距離ヒストグラム曲線から、範囲3σに位置するピーク点を削除する(処理2c)。処理2cにより図9(d)に示したヒストグラム曲線が得られる。得られたヒストグラム曲線に含まれる最大のピーク点を差分ピーク点Dとして算出する(処理3c)。最後に、差分ピーク点Dを含むヒストグラムを正規分布曲線とみなして差分ピーク点Dを中心とした範囲3σを決定し、差分ピーク点Dの位置および範囲3σの位置を記憶する(処理4c)。
The distance difference calculation unit 74 calculates a difference from a histogram curve including an object distance peak point (hereinafter referred to as an object distance histogram curve) and a histogram curve including a background distance peak point (hereinafter referred to as a background distance histogram curve). Calculate the peak point. FIG. 9D is a diagram illustrating difference peak point calculation at the pixel (x, y).
As a specific calculation method, first, the background distance histogram curve shown in FIG. 9C is regarded as a normal distribution curve, and the standard deviation (distance from the mean μ to the inflection point) σ of the normal distribution is used. A range 3σ a centering on the background distance peak point C (average μ in the normal distribution) is determined (processing 1c). Then, the subject distance histogram curve, deletes the peak point located in the range 3 [sigma] a (processing 2c). The histogram 2 shown in FIG. 9D is obtained by the process 2c. The maximum peak point included in the obtained histogram curve is calculated as the difference peak point D (processing 3c). Finally, the histogram including the difference peak point D is regarded as a normal distribution curve, the range 3σ b centering on the difference peak point D is determined, and the position of the difference peak point D and the position of the range 3σ b are stored (processing 4c). ).

次に、図10を参照しながら、差分ピーク点に基づく変化領域の抽出について説明する。図10は、実施の形態3に係る監視装置の変化領域の抽出を示す図である。図10(a)および図10(b)は距離差分連結処理部による統合領域の作成を示す説明図であり、図10(a)は背景200に対象物201を配置した図、図10(b)は背景200のみを示した図である。図10(c)は第2の変化領域抽出部が抽出した変化領域を示す図である。   Next, extraction of a change region based on the difference peak point will be described with reference to FIG. FIG. 10 is a diagram illustrating extraction of a change region of the monitoring apparatus according to the third embodiment. FIG. 10A and FIG. 10B are explanatory views showing creation of an integrated region by the distance difference connection processing unit, and FIG. 10A is a diagram in which the object 201 is arranged on the background 200, and FIG. ) Is a diagram showing only the background 200. FIG. 10C is a diagram illustrating the change region extracted by the second change region extraction unit.

距離差分連結処理部75は、距離差分算出部74が算出した全ての画素の差分ピーク点が示す距離情報を連結して統合領域を作成する。例えば、80×60画素の各画素について差分ピーク点が算出された場合、距離差分連結処理部75は仮想的に作成した80×60画素のマス目に当該差分ピーク点が示す距離情報を配置して連結し、統合領域を作成する。距離情報の配置とは、図10(a)および図10(b)に示すように、例えば差分ピーク点が存在する画素はグレーに着色し、差分ピーク点が存在しない画素は白に着色するなど視覚的な配置を行う。図10(a)では、対象物201が存在する位置と、統合領域203の画素位置が一致している。なお、画素の着色はグレーに限定されるものではなく、適宜変更可能である。   The distance difference connection processing unit 75 connects the distance information indicated by the difference peak points of all the pixels calculated by the distance difference calculation unit 74 to create an integrated region. For example, when the difference peak point is calculated for each pixel of 80 × 60 pixels, the distance difference connection processing unit 75 places the distance information indicated by the difference peak point in the virtually created 80 × 60 pixel cell. To create an integrated area. As shown in FIGS. 10 (a) and 10 (b), the disposition of distance information is, for example, a pixel where a difference peak point exists is colored gray, and a pixel where no difference peak point exists is colored white. Make visual arrangements. In FIG. 10A, the position where the object 201 exists and the pixel position of the integrated region 203 coincide. Note that the coloring of the pixels is not limited to gray and can be changed as appropriate.

ただし、距離差分算出部74による差分ピーク点算出処理には誤差が存在するため、対象物201が存在しない位置にもグレーに着色された画素が発生する、あるいは存在すべき位置にグレーに着色された画素が発生しない場合もありうる。そこで、第2の変化領域抽出部42において、距離差分連結処理部75が作成した統合領域に対してフィルタ処理を実行して、ノイズによる変化領域を削除して対象物201に該当する変化領域のみを抽出する。具体的には、距離差分算出部74が算出した差分ピーク点の位置、および範囲3σの位置を参照し、ある画素(x,y)を中心とした周囲8画素の中で少なくとも3画素に類似する差分ピーク点が存在するか否か判定を行う。類似する差分ピーク点が存在するか否かは、ある画素(x,y)の差分ピーク点を中心として範囲3σ内にその他の差分ピーク点が存在するか否かで判断する。この処理を全画素について行う。   However, since there is an error in the difference peak point calculation processing by the distance difference calculation unit 74, a pixel colored in gray occurs at a position where the object 201 does not exist, or is colored gray at a position where the object 201 should exist. There may be a case where no pixel is generated. Therefore, in the second change region extraction unit 42, filter processing is executed on the integrated region created by the distance difference connection processing unit 75, and the change region due to noise is deleted to change only the change region corresponding to the object 201. To extract. Specifically, referring to the position of the difference peak point calculated by the distance difference calculation unit 74 and the position of the range 3σ, it is similar to at least 3 pixels among the surrounding 8 pixels centered on a certain pixel (x, y) It is determined whether or not there is a difference peak point. Whether there is a similar difference peak point is determined by whether another difference peak point exists in the range 3σ around the difference peak point of a certain pixel (x, y). This process is performed for all pixels.

画素(x,y)を中心として少なくとも3画素に類似する差分ピークが存在する場合には、当該画素(x,y)は抽出されるべき対象物201の変化領域であると判断する。一方、画素(x,y)を中心として少なくとも3画素に類似する差分ピークが存在しない場合には、当該画素(x,y)はノイズによる変化領域であると判断し、当該画素(x,y)の差分ピークの情報を削除する。全画素について上述したフィルタ処理を行った後、対象物201の変化領域と判断された領域を、再度仮想的に作成した80×60画素のマス目に配置し直して最終的な変化領域を決定する。図10(c)は、第2の変化領域抽出部42によるフィルタ処理後の変化領域204を示している。   If there is a differential peak similar to at least three pixels centered on the pixel (x, y), it is determined that the pixel (x, y) is a change area of the object 201 to be extracted. On the other hand, when there is no difference peak similar to at least three pixels centering on the pixel (x, y), the pixel (x, y) is determined to be a change region due to noise, and the pixel (x, y) is determined. ) Delete the difference peak information. After performing the above-described filtering process for all pixels, the area determined to be the change area of the object 201 is re-arranged in the 80 × 60 pixel cell that is virtually created again to determine the final change area. To do. FIG. 10C shows the change region 204 after the filter processing by the second change region extraction unit 42.

認識処理部50は、第2の変化領域抽出部42が抽出した変化領域の条件があらかじめ定めた条件を満たしているか否かに基づいて、変化領域が報知対象である判定を行う。報知処理部60は、認識処理部50の認識結果に基づいて報知処理を行う。ここで報知処理は、上位にあるPCなどに特定の信号を送信する処理、あるいは装置のブザーを鳴らすなどの処理などである。   The recognition processing unit 50 determines that the change region is a notification target based on whether or not the condition of the change region extracted by the second change region extraction unit 42 satisfies a predetermined condition. The notification processing unit 60 performs notification processing based on the recognition result of the recognition processing unit 50. Here, the notification process is a process of transmitting a specific signal to a higher-level PC or the like, or a process of sounding a buzzer of the apparatus.

次に、実施の形態3の監視装置100bの動作について説明する。
図11は、実施の形態3に係る監視装置の動作を示すフローチャートである。
なお、以下では、実施の形態1に係る監視装置100と同一のステップには図4で使用した符号と同一の符号を付し、説明を省略または簡略化する。また、実施の形態1と同様に3次元レーザスキャナ10の解像度を80×60画素とした場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200の範囲をスキャンし(ステップST1)、距離データおよび強度データを取得する(ステップST2)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である80×60に分割してスキャンする。距離データおよび強度データは一般にデジタルデータであり、ここでは80×60画素の1画素あたり8ビットの多値データとする。
Next, the operation of the monitoring apparatus 100b according to the third embodiment will be described.
FIG. 11 is a flowchart showing the operation of the monitoring apparatus according to the third embodiment.
In the following, the same steps as those of the monitoring apparatus 100 according to the first embodiment are denoted by the same reference numerals as those used in FIG. 4, and the description thereof is omitted or simplified. Further, as in the first embodiment, the case where the resolution of the three-dimensional laser scanner 10 is 80 × 60 pixels will be described as an example.
First, the three-dimensional laser scanner 10 scans the range of the background 200 (step ST1), and acquires distance data and intensity data (step ST2). Specifically, the range of the background 200 is divided into 80 × 60, which is the resolution of the three-dimensional laser scanner 10, and scanned. The distance data and the intensity data are generally digital data, and here, multi-value data of 8 bits per pixel of 80 × 60 pixels is used.

距離ヒストグラム作成部71は、ステップST2で取得された距離データに基づき、第1の距離ヒストグラムおよび第2の距離ヒストグラムを作成する(ステップST41)。対象物距離ピーク点算出部72は、ステップST41で作成された第1の距離ヒストグラムから対象物距離ピーク点を算出し(ステップST42)、対象物距離ヒストグラム曲線を作成する(ステップST43)。背景距離ピーク点算出部73は、ステップST41で作成された第2の距離ヒストグラムから背景距離ピーク点を算出し(ステップST44)、背景距離ヒストグラム曲線を作成する(ステップST45)。   The distance histogram creation unit 71 creates a first distance histogram and a second distance histogram based on the distance data acquired in step ST2 (step ST41). The object distance peak point calculation unit 72 calculates an object distance peak point from the first distance histogram created in step ST41 (step ST42), and creates an object distance histogram curve (step ST43). The background distance peak point calculation unit 73 calculates a background distance peak point from the second distance histogram created in step ST41 (step ST44), and creates a background distance histogram curve (step ST45).

次に、距離差分算出部74は、ステップST43で作成された対象物距離ヒストグラム曲線と、ステップST45で作成された背景距離ヒストグラム曲線との差分ピーク点を算出する(ステップST46)。距離演算部70は、全ての画素についてステップST42からステップ46までの処理を行ったか否か判定を行う(ステップST47)。全ての画素について処理を行っていない場合(ステップST47;NO)、ステップST41の処理に戻り、上述した処理を繰り返す。   Next, the distance difference calculation unit 74 calculates a difference peak point between the object distance histogram curve created in step ST43 and the background distance histogram curve created in step ST45 (step ST46). The distance calculation unit 70 determines whether or not the processing from step ST42 to step 46 has been performed for all the pixels (step ST47). If all the pixels have not been processed (step ST47; NO), the process returns to step ST41 and the above-described processing is repeated.

一方、全ての画素について処理を行った場合(ステップST47;YES)、距離差分連結処理部75はステップST46で得た全画素の差分ピーク点の距離情報を連結し、統合領域を作成する(ステップST48)。第2の変化領域抽出部42は、ステップST48で作成された統合領域に対してフィルタ処理を行い、変化領域を抽出する(ステップST49)。認識処理部50は、ステップST49で抽出された変化領域が照合条件を満たすか否か判定を行う(ステップST50)。照合条件を満たす場合(ステップST50;YES)、変化領域が報知対象であると認識する(ステップST11)。一方、照合条件を満たさない場合(ステップST50;NO)、変化領域が報知対象でないと判断し(ステップST12)、ステップST1の処理に戻る。報知処理部60は、ステップST11で認識された報知対象について報知処理を行い(ステップST13)、ステップST1の処理に戻る。   On the other hand, when the processing is performed for all the pixels (step ST47; YES), the distance difference connection processing unit 75 connects the distance information of the difference peak points of all the pixels obtained in step ST46, and creates an integrated region (step). ST48). The second change area extraction unit 42 performs a filtering process on the integrated area created in step ST48 to extract a change area (step ST49). The recognition processing unit 50 determines whether or not the change area extracted in step ST49 satisfies the verification condition (step ST50). When the verification condition is satisfied (step ST50; YES), the change area is recognized as a notification target (step ST11). On the other hand, if the verification condition is not satisfied (step ST50; NO), it is determined that the change area is not a notification target (step ST12), and the process returns to step ST1. The notification processing unit 60 performs notification processing on the notification target recognized in step ST11 (step ST13), and returns to the processing of step ST1.

次に、認識処理部50の判定処理の詳細を示す。
図12は、実施の形態3に係る監視装置の認識処理部の判定処理を示すフローチャートである。
認識処理部50は、変化領域が所定の面積を有する否か判定を行う(ステップST51)。所定の面積を有している場合(ステップST51;YES)、さらに変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST52)。所定の縦横寸法を有している場合(ステップST52;YES)、さらに変化領域が所定の移動速度を有しているか否か判定を行う(ステップST53)。所定の移動速度を有している場合(ステップST53;YES)、さらに変化領域が所定の存在時間を有しているか否か判定を行う(ステップST54)。所定の存在時間を有している場合(ステップST54;YES)、ステップST11に進み、変化領域が報知対象であると認識される。
Next, details of the determination processing of the recognition processing unit 50 will be described.
FIG. 12 is a flowchart illustrating the determination process of the recognition processing unit of the monitoring apparatus according to the third embodiment.
The recognition processing unit 50 determines whether or not the change area has a predetermined area (step ST51). When it has a predetermined area (step ST51; YES), it is further determined whether or not the change area has a predetermined vertical and horizontal dimension (step ST52). If it has predetermined vertical and horizontal dimensions (step ST52; YES), it is further determined whether or not the change area has a predetermined moving speed (step ST53). If it has a predetermined moving speed (step ST53; YES), it is further determined whether or not the change area has a predetermined existence time (step ST54). When it has the predetermined existence time (step ST54; YES), the process proceeds to step ST11, and the change area is recognized as the notification target.

一方、所定の面積を有していない場合(ステップST51;NO)、所定の縦横寸法を有していない場合(ステップST52;NO)、所定の移動速度を有していない場合(ステップST53;NO)、所定の存在時間を有していない場合(ステップST54;NO)には、ステップST12に進み、変化領域が報知対象でないと判断される。   On the other hand, when it does not have a predetermined area (step ST51; NO), when it does not have a predetermined vertical and horizontal dimension (step ST52; NO), when it does not have a predetermined moving speed (step ST53; NO) ), When it does not have the predetermined existence time (step ST54; NO), the process proceeds to step ST12, and it is determined that the change region is not a notification target.

以上のように、この実施の形態3によれば、3次元レーザスキャナ10により取得された距離データから距離ヒストグラムを作成する距離ヒストグラム作成部71と、距離ヒストグラムから対象物距離ピーク点を含む対象物距離ヒストグラム曲線を作成する対象物距離ピーク点算出部72と、距離ヒストグラムから背景距離ピーク点を含む背景距離ヒストグラム曲線を作成する背景距離ピーク点算出部73と、対象物距離ヒストグラム曲線と背景距離ヒストグラム曲線とから差分ピーク点を算出する距離差分算出部74と、差分ピーク点の距離情報を用いて統合領域を作成する距離差分連結処理部75と、統合領域に対してフィルタ処理を行い、変化領域を抽出する第2の変化領域抽出部42とを備えるように構成したので、背景と対象物との距離関係に基づいた差分ピーク点を得ることができ、対象物と背景とに十分な輝度差が存在しない場合にも対象物と背景との差異を認識することができる。これにより、対象物の認識精度を向上させることができる。
また、背景と対象物が重なった座標において発生する距離ジッタ(距離の揺らぎ)を抑制して対象物の変化領域のみを抽出することができ、対象物の認識精度を向上させることができる。
As described above, according to the third embodiment, the distance histogram creating unit 71 that creates the distance histogram from the distance data acquired by the three-dimensional laser scanner 10 and the object including the object distance peak point from the distance histogram. An object distance peak point calculation unit 72 that creates a distance histogram curve, a background distance peak point calculation unit 73 that creates a background distance histogram curve including a background distance peak point from the distance histogram, an object distance histogram curve and a background distance histogram A difference difference calculation unit 74 that calculates a difference peak point from a curve, a distance difference connection processing unit 75 that creates an integrated region using distance information of the difference peak point, and a filter process for the integrated region, and a change region And a second change region extraction unit 42 for extracting the background, the object, Distance-difference peak point can be obtained based on the relationship, it is possible to recognize the difference also between the object and the background when a sufficient difference in brightness and the object and the background is not present. Thereby, the recognition accuracy of the object can be improved.
In addition, it is possible to extract only the change area of the object while suppressing the distance jitter (distance fluctuation) generated at the coordinates where the background and the object overlap, and improve the recognition accuracy of the object.

実施の形態4.
図13は、実施の形態4に係る監視装置の構成を示すブロック図である。
実施の形態4の監視装置100cは、図8で示した実施の形態3の監視装置100bの背景距離ピーク点算出部73に替えて背景距離ピーク情報蓄積部76を設けている。なお、以下では、実施の形態3に係る監視装置100bの構成要素と同一または相当する部分には、実施の形態3で使用した符号と同一の符号を付して説明を省略または簡略化する。なお、図13において監視装置100c外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、およびレーザ光パルス12の拡散領域202を記載している。
Embodiment 4 FIG.
FIG. 13 is a block diagram illustrating a configuration of the monitoring apparatus according to the fourth embodiment.
The monitoring device 100c according to the fourth embodiment includes a background distance peak information accumulation unit 76 instead of the background distance peak point calculation unit 73 of the monitoring device 100b according to the third embodiment shown in FIG. In the following description, the same or corresponding parts as those of the monitoring apparatus 100b according to the third embodiment are denoted by the same reference numerals as those used in the third embodiment, and the description thereof is omitted or simplified. In FIG. 13, the background 200 indicating the scan range of the three-dimensional laser scanner 10, the object 201 standing in front of the background 200, and the diffusion region 202 of the laser light pulse 12 are illustrated outside the monitoring apparatus 100 c.

距離ヒストグラム作成部71aは、3次元レーザスキャナ10から入力される距離データに基づいて、画素毎に距離ヒストグラムを作成する。ただし、3次元レーザスキャナ10の過去10スキャン分の距離データに基づいて、画素(x,y)における第1の距離ヒストグラムのみを作成する。背景距離ピーク情報蓄積部76は、固定的に存在する背景200に距離に強く影響されたヒストグラム(上述した実施の形態3で示した第2の距離ヒストグラムに相当)に基づいた背景距離ピーク点の位置情報および当該背景距離ピーク点を中心とした範囲3σの位置情報をあらかじめ固定的に定めた背景距離ピーク情報を記憶する。The distance histogram creation unit 71a creates a distance histogram for each pixel based on the distance data input from the three-dimensional laser scanner 10. However, based on the distance data for the past 10 scans of the three-dimensional laser scanner 10, only the first distance histogram for the pixel (x, y) is created. The background distance peak information accumulating unit 76 stores background distance peak points based on a histogram (corresponding to the second distance histogram shown in the third embodiment described above) that is strongly influenced by the distance to the fixedly existing background 200. The position information and the background distance peak information in which the position information of the range 3σ a centered on the background distance peak point is fixed in advance are stored.

距離差分算出部74aは、対象物距離ピーク点算出部72が算出した対象物距離ピーク点を含むヒストグラム曲線(以下、対象物距離ヒストグラム曲線と称する)と、背景距離ピーク情報蓄積部76から取得した背景距離ピーク情報とから差分ピーク点を算出する。上述した実施の形態3の図9を参照しながら具体的に説明すると、対象物距離ヒストグラム曲線から、固定値である範囲3σ内に位置するピーク点を削除し、差分ピーク点を含むヒストグラム曲線を得る(図9(c)および図9(d)参照)。得られたヒストグラム曲線に含まれる最大のピーク点を差分ピーク点として算出し、差分ピーク点を中心とした範囲3σを決定する(図9(d)参照)。得られた差分ピーク点の位置および差分ピーク点を中心とした範囲3σの位置を記憶する。The distance difference calculation unit 74 a acquires the histogram curve including the object distance peak point calculated by the object distance peak point calculation unit 72 (hereinafter referred to as the object distance histogram curve) and the background distance peak information accumulation unit 76. A difference peak point is calculated from the background distance peak information. Specifically, with reference to FIG. 9 of the third embodiment described above, a histogram curve including a difference peak point by deleting a peak point located in the range 3σ a which is a fixed value from the object distance histogram curve. (See FIGS. 9C and 9D). The maximum peak point included in the obtained histogram curve is calculated as a difference peak point, and a range 3σ b around the difference peak point is determined (see FIG. 9D). The position of the obtained difference peak point and the position of the range 3σ b centered on the difference peak point are stored.

次に、実施の形態4に係る監視装置100cの動作について説明する。
図14は、実施の形態4に係る監視装置の動作を示すフローチャートである。
なお、以下では実施の形態3に係る監視装置100bと同一のステップには図11で使用した符号と同一の符号を付し、説明を省略または簡略化する。
距離ヒストグラム作成部71aは、ステップST2で取得された距離データに基づき、第1の距離ヒストグラムを作成する(ステップST61)。対象物距離ピーク点算出部72は、ステップST61で作成された第1の距離ヒストグラムから対象物距離ピーク点を算出し(ステップST42)、対象物距離ヒストグラム曲線を作成する(ステップST43)。
Next, the operation of the monitoring device 100c according to Embodiment 4 will be described.
FIG. 14 is a flowchart showing the operation of the monitoring apparatus according to the fourth embodiment.
In the following, the same steps as those of the monitoring device 100b according to the third embodiment are denoted by the same reference numerals as those used in FIG. 11, and the description thereof is omitted or simplified.
The distance histogram creation unit 71a creates a first distance histogram based on the distance data acquired in step ST2 (step ST61). The object distance peak point calculation unit 72 calculates an object distance peak point from the first distance histogram created in step ST61 (step ST42), and creates an object distance histogram curve (step ST43).

距離差分算出部74aは、背景距離ピーク情報蓄積部76から背景距離ピーク情報を取得し(ステップST62)、ステップST43で作成された対象物距離ヒストグラム曲線と、ステップST62で取得した背景距離ピーク情報とから差分ピーク点を算出する(ステップST63)。距離演算部70aは、全ての画素についてステップST61からステップ63までの処理を行ったか否か判定を行う(ステップST47)。全ての画素について処理を行っていない場合(ステップST47;NO)、ステップST61の処理に戻り、上述した処理を繰り返す。一方、全ての画素について処理を行った場合(ステップST47;YES)、ステップST48の処理に進む。   The distance difference calculation unit 74a acquires background distance peak information from the background distance peak information storage unit 76 (step ST62), the object distance histogram curve created in step ST43, and the background distance peak information acquired in step ST62. The difference peak point is calculated from (step ST63). The distance calculation unit 70a determines whether or not the processing from step ST61 to step 63 has been performed for all the pixels (step ST47). When the process is not performed for all the pixels (step ST47; NO), the process returns to step ST61 and the above-described process is repeated. On the other hand, if all pixels have been processed (step ST47; YES), the process proceeds to step ST48.

以上のように、この実施の形態4によれば、固定的に存在する背景200に距離に強く影響されたヒストグラムに基づいた背景距離ピーク点の位置情報および当該背景距離ピーク点を中心とした範囲3σの位置情報をあらかじめ固定的に定めた背景距離ピーク情報を記憶する背景距離ピーク情報蓄積部76を備えるように構成したので、第2のヒストグラムを作成する処理、および背景距離ピーク点を算出する処理の負荷を削減することができる。また、対象物が一箇所に留まって動かない場合にも、あらかじめ定めた背景距離ピーク情報から背景を認識することができ、動かない対象物を背景と区別することができる。As described above, according to the fourth embodiment, the position information of the background distance peak point based on the histogram that is strongly influenced by the distance to the fixedly existing background 200 and the range centered on the background distance peak point. Since the configuration is provided with the background distance peak information accumulating unit 76 for storing the background distance peak information in which the position information of 3σ a is fixed in advance, the process of creating the second histogram and the background distance peak point are calculated. It is possible to reduce the processing load. Even when the object stays in one place and does not move, the background can be recognized from the predetermined background distance peak information, and the object that does not move can be distinguished from the background.

実施の形態5.
上述した実施の形態3では、3次元レーザスキャナ10の距離データに基づいて変化領域を抽出する構成を示したが、この実施の形態5では3次元レーザスキャナ10の強度データに基づいて変化領域を抽出する構成を示す。
レーザ光パルス12の距離の解像度には限界がある。例えば、レーザ光パルス12の距離解像度が50cmであって、背景200と対象物201とが50cm以下の距離にある場合には背景200と対象物201との区別することができない。これは距離解像度上の問題であり、対象物201が壁などの背景200に沿って移動する場合などに発生し、対象物201の発見は距離解像度上不可能となる。この実施の形態5では、3次元レーザスキャナ10から入力される強度データを用いて、距離解像度上認識不可能な対象物201についても認識可能とする構成を示す。
Embodiment 5. FIG.
In the above-described third embodiment, the configuration in which the change area is extracted based on the distance data of the three-dimensional laser scanner 10 has been described. However, in the fifth embodiment, the change area is determined based on the intensity data of the three-dimensional laser scanner 10. The structure to extract is shown.
The resolution of the distance of the laser light pulse 12 has a limit. For example, when the distance resolution of the laser light pulse 12 is 50 cm and the background 200 and the object 201 are at a distance of 50 cm or less, the background 200 and the object 201 cannot be distinguished. This is a problem in distance resolution, which occurs when the object 201 moves along the background 200 such as a wall, and the object 201 cannot be found in distance resolution. The fifth embodiment shows a configuration in which the object 201 that cannot be recognized in terms of distance resolution can be recognized using the intensity data input from the three-dimensional laser scanner 10.

図15は、実施の形態5に係る監視装置の構成を示すブロック図である。
なお、以下では、実施の形態3に係る監視装置100bの構成要素と同一または相当する部分には、実施の形態3で使用した符号と同一の符号を付して説明を省略または簡略化する。
実施の形態5の監視装置100dは、3次元レーザスキャナ10、強度ヒストグラム作成部81と、対象物強度ピーク点算出部82と、背景強度ピーク点算出部83と、強度差分算出部84とを備えた強度演算部80、強度差分連結処理部85、第3の変化領域抽出部86、認識処理部50および報知処理部60で構成されている。なお、図15において監視装置100d外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、およびレーザ光パルス12の拡散領域202を記載している。
FIG. 15 is a block diagram illustrating a configuration of the monitoring apparatus according to the fifth embodiment.
In the following description, the same or corresponding parts as those of the monitoring apparatus 100b according to the third embodiment are denoted by the same reference numerals as those used in the third embodiment, and the description thereof is omitted or simplified.
The monitoring apparatus 100d according to the fifth embodiment includes a three-dimensional laser scanner 10, an intensity histogram creation unit 81, an object intensity peak point calculation unit 82, a background intensity peak point calculation unit 83, and an intensity difference calculation unit 84. The intensity calculation unit 80, the intensity difference connection processing unit 85, the third change area extraction unit 86, the recognition processing unit 50, and the notification processing unit 60 are included. In FIG. 15, the background 200 indicating the scan range of the three-dimensional laser scanner 10, the object 201 standing in front of the background 200, and the diffusion region 202 of the laser light pulse 12 are shown outside the monitoring apparatus 100 d.

3次元レーザスキャナ10の構成は、実施の形態1から実施の形態4の構成と同一である。強度ヒストグラム作成部81は、3次元レーザスキャナ10から入力される強度データに基づいて、画素ごとに強度ヒストグラムを作成する。より詳細に説明すると、強度ヒストグラム作成部81は、3次元レーザスキャナ10の過去10スキャン分の強度データに基づいて、画素(x,y)における第1の強度ヒストグラムを作成する。当該第1の強度ヒストグラムの作成を全ての画素について実施する。さらに、過去50スキャン分の強度データに基づいて画素(x,y)における第2の強度ヒストグラムを作成する、当該第2の強度ヒストグラムの作成を全ての画素について実施する。   The configuration of the three-dimensional laser scanner 10 is the same as that of the first to fourth embodiments. The intensity histogram creation unit 81 creates an intensity histogram for each pixel based on the intensity data input from the three-dimensional laser scanner 10. More specifically, the intensity histogram creating unit 81 creates a first intensity histogram for the pixel (x, y) based on intensity data for the past 10 scans of the three-dimensional laser scanner 10. The first intensity histogram is created for all pixels. Further, a second intensity histogram for the pixel (x, y) is created based on the intensity data for the past 50 scans, and the second intensity histogram is created for all the pixels.

図16は実施の形態5に係る監視装置の強度演算部の処理の一例を示す図であり、図16(a)は強度ヒストグラム作成部81が作成するヒストグラムの一例を示している。
図16(a)において、横軸は強度(%)を示し、縦軸は頻度を示している。図16(a)に示す画素(x,y)の強度ヒストグラムでは、強度20%付近の頻度が高く、対象物201の反射率を反映している。それ以外の頻度はノイズである。
FIG. 16 is a diagram illustrating an example of processing of the intensity calculation unit of the monitoring apparatus according to the fifth embodiment, and FIG. 16A illustrates an example of a histogram created by the intensity histogram creation unit 81.
In FIG. 16A, the horizontal axis indicates intensity (%), and the vertical axis indicates frequency. In the intensity histogram of the pixel (x, y) shown in FIG. 16A, the frequency around the intensity of 20% is high, and the reflectance of the object 201 is reflected. The other frequency is noise.

次に、対象物強度ピーク点算出部82は、第1の強度ヒストグラムを平滑化してピーク点を算出する。図16(b)は、画素(x,y)での対象物強度ピーク点算出を示す図である。ピーク点の算出例としては、ある強度Qにおける頻度に対して、強度Q±10の頻度の平均を算出して強度Qの頻度に置き換える(処理1d)。この置き換え処理を、強度ヒストグラムの強度0%から100%の全てで行う。置き換えられた頻度を線で結ぶとなだらかな曲線が得られる(処理2d)。得られた曲線に対して強度0%の位置から傾斜を測定し、右上がりの傾斜から右下がりの傾斜に移行する点をピーク点として算出する(処理3d、図16(b)の矢印d,e,f参照)。このピーク点の算出処理を強度100%の位置まで行う(処理4d)。得られたピーク点が目的とする対象物強度ピーク点となる。   Next, the object intensity peak point calculation unit 82 calculates the peak point by smoothing the first intensity histogram. FIG. 16B is a diagram illustrating calculation of the object intensity peak point at the pixel (x, y). As an example of calculating the peak point, the average of the frequencies of the intensity Q ± 10 is calculated for the frequency at a certain intensity Q and replaced with the frequency of the intensity Q (processing 1d). This replacement process is performed for all of the intensity histograms having an intensity of 0% to 100%. If the replaced frequencies are connected by a line, a gentle curve is obtained (Process 2d). A slope is measured from the position where the intensity is 0% with respect to the obtained curve, and a point at which the slope moves from a right-up slope to a right-down slope is calculated as a peak point (Process 3d, arrow d, FIG. 16B). e, f). This peak point calculation process is performed up to the position where the intensity is 100% (process 4d). The obtained peak point becomes the target object strength peak point.

なお、場合によっては複数のピーク点が算出される。例えば、ピーク点が3個以上算出された場合にはピーク点を減らす処理を行う。ピーク点を減らす処理としては、ピーク点が3個程度に収束するまで、上述した処理1dから処理4dを繰り返す。これにより、3個程度のピーク点を含むヒストグラム曲線が得られる。当該ヒストグラム曲線に存在するピーク点が目的とする対象物強度ピーク点となる。   In some cases, a plurality of peak points are calculated. For example, when three or more peak points are calculated, processing for reducing the peak points is performed. As processing for reducing the peak points, the above-described processing 1d to processing 4d are repeated until the peak points converge to about three. Thereby, a histogram curve including about three peak points is obtained. The peak point existing in the histogram curve is the target object intensity peak point.

次に、背景強度ピーク点算出部83は、第2の強度ヒストグラムを平滑化してピーク点を算出する。図16(c)は、画素(x,y)での背景強度ピーク点算出を示す図である。
ピーク点の算出例としては、ある強度Qにおける頻度に対して、強度Q±10の頻度の平均を算出して強度Qの頻度に置き換える(処理1e)。この置き換え処理を、ヒストグラムの強度0%から100%の全てで行う。置き換えられた頻度を線で結ぶとなだらかな曲線が得られる(処理2e)。得られた曲線に対して強度0%の位置から傾斜を測定し、右上がりの傾斜から右下がりの傾斜に移行する点をピーク点として算出する(処理3e)。このピーク点の算出処理を強度100%の位置まで行う(処理4e)。得られたピーク点が目的とする背景強度ピーク点となる。
Next, the background intensity peak point calculation unit 83 calculates the peak point by smoothing the second intensity histogram. FIG. 16C is a diagram showing calculation of the background intensity peak point at the pixel (x, y).
As an example of calculating the peak point, the average of the frequencies of the intensity Q ± 10 is calculated with respect to the frequency at a certain intensity Q and replaced with the frequency of the intensity Q (processing 1e). This replacement process is performed for all the histograms having an intensity of 0% to 100%. When the replaced frequencies are connected with a line, a gentle curve is obtained (Process 2e). The inclination is measured from the position where the intensity is 0% with respect to the obtained curve, and the point at which the slope moves from the upward slope to the downward slope is calculated as a peak point (processing 3e). This peak point calculation process is performed up to the position where the intensity is 100% (process 4e). The obtained peak point becomes the target background intensity peak point.

なお、場合によっては複数のピーク点が算出される。例えば、ピーク点が2個以上算出された場合にはピーク点を減らす処理を行う。ピーク点を減らす処理としては、ピーク点が1個に収束するまで、上述した処理1eから処理4eを繰り返す。これにより、1個のピーク点を含むヒストグラム曲線が得られる。当該ヒストグラム曲線に存在するピーク点が目的とする背景強度ピーク点となる。   In some cases, a plurality of peak points are calculated. For example, when two or more peak points are calculated, processing for reducing the peak points is performed. As processing for reducing the peak points, the above-described processing 1e to processing 4e are repeated until the peak points converge to one. As a result, a histogram curve including one peak point is obtained. The peak point existing in the histogram curve is the target background intensity peak point.

第1の強度ヒストグラムと第2の強度ヒストグラムの違いは、ヒストグラム作成に要した時間である。上述したように、第1の強度ヒストグラムは3次元レーザスキャナ10の過去10スキャン分の強度データに基づいて作成し、第2の強度ヒストグラムは3次元レーザスキャナ10の過去50スキャン分の強度データに基づいて作成している。このように、第2の強度ヒストグラムは、第1の強度ヒストグラムに対して5倍の時間を使用しており、第2の強度ヒストグラムは第1の強度ヒストグラムと比較して短時間の変化に鈍感となり(監視領域の長時間変化を示す)、固定的に存在する背景の強度に強く影響されるヒストグラムとなる。逆に、第1の強度ヒストグラムは、短時間の変化に敏感となり(監視領域の短時間変化を示す)、対象物の強度に強く影響されるヒストグラムとなる。これらにより、対象物強度ピーク点および背景強度ピーク点が算出される。   The difference between the first intensity histogram and the second intensity histogram is the time required to create the histogram. As described above, the first intensity histogram is created based on the intensity data for the past 10 scans of the three-dimensional laser scanner 10, and the second intensity histogram is the intensity data for the past 50 scans of the three-dimensional laser scanner 10. Create based on. Thus, the second intensity histogram uses five times as much time as the first intensity histogram, and the second intensity histogram is insensitive to short-time changes compared to the first intensity histogram. (Indicating a long-term change in the monitoring area), and a histogram that is strongly influenced by the intensity of the background that exists fixedly. On the other hand, the first intensity histogram is sensitive to a short-time change (indicating a short-time change in the monitoring area), and is a histogram that is strongly influenced by the intensity of the object. Thus, the object intensity peak point and the background intensity peak point are calculated.

強度差分算出部84は、対象物強度ピーク点を含むヒストグラム曲線(以下、対象物強度ヒストグラム曲線と称する)と、背景強度ピーク点を含むヒストグラム曲線(以下、背景強度ヒストグラム曲線と称する)とから差分ピーク点を算出する。図16(d)は、画素(x,y)での差分ピーク点算出を示す図である。
具体的な算出方法は、まず図16(c)に示した背景強度ヒストグラム曲線を正規分布曲線とみなし、当該正規分布の標準偏差(平均μから変曲点までの強度)σを用いて、背景強度ピーク点F(正規分布における平均μ)を中心とした範囲3σを決定する(処理1f)。次に、対象物強度ヒストグラム曲線から、範囲3σ内に位置するピーク点を削除する(処理2f)。処理2fにより図16(d)に示したヒストグラム曲線が得られる。得られたヒストグラム曲線に含まれる最大のピーク点を差分ピーク点Gとして算出する(処理3f)。最後に、差分ピーク点Gを含むヒストグラムを正規分布曲線とみなして差分ピーク点Gを中心とした範囲3σを決定し、差分ピーク点Gの位置および範囲3σの位置を記憶する(処理4f)。
The intensity difference calculation unit 84 calculates a difference from a histogram curve including an object intensity peak point (hereinafter referred to as an object intensity histogram curve) and a histogram curve including a background intensity peak point (hereinafter referred to as a background intensity histogram curve). Calculate the peak point. FIG. 16D is a diagram illustrating calculation of a difference peak point at the pixel (x, y).
As a specific calculation method, first, the background intensity histogram curve shown in FIG. 16C is regarded as a normal distribution curve, and the standard deviation (intensity from the mean μ to the inflection point) σ of the normal distribution is used. A range 3σ c centered on the intensity peak point F (average μ in the normal distribution) is determined (processing 1f). Next, the peak point located within the range 3σ c is deleted from the object intensity histogram curve (processing 2f). The histogram 2 shown in FIG. 16D is obtained by the process 2f. The maximum peak point included in the obtained histogram curve is calculated as the difference peak point G (processing 3f). Finally, the histogram including the difference peak point G is regarded as a normal distribution curve, the range 3σ d centered on the difference peak point G is determined, and the position of the difference peak point G and the position of the range 3σ d are stored (processing 4f). ).

次に、図17を参照しながら、差分ピーク点に基づく変化領域の抽出について説明する。図17は、実施の形態5に係る監視装置の変化領域の抽出を示す図である。図17(a)および図17(b)は強度差分連結処理部および第3の変化領域抽出部による変化領域の抽出を示す説明図であり、図17(a)は背景200に対象物201を配置した図、図17(b)は背景200のみを示した図である。   Next, extraction of a change area based on the difference peak point will be described with reference to FIG. FIG. 17 is a diagram illustrating extraction of a change area of the monitoring apparatus according to the fifth embodiment. FIG. 17A and FIG. 17B are explanatory views showing extraction of a change region by the intensity difference connection processing unit and the third change region extraction unit, and FIG. 17A shows the object 201 on the background 200. The arranged diagram and FIG. 17B are diagrams showing only the background 200.

強度差分連結処理部85は、強度差分算出部84が算出した全ての画素の差分ピーク点が示す強度情報を連結する。例えば、80×60画素の各画素について差分ピーク点が算出された場合、強度差分連結処理部85は仮想的に作成した80×60画素のマス目に当該差分ピーク点が示す強度情報を配置して連結する。強度情報の配置とは、例えば図17(a)および図17(b)に示すように、例えば差分ピーク点が存在する画素はグレーに着色し、差分ピーク点が存在しない画素は白に着色するなど視覚的な配置を行うものである。   The intensity difference connection processing unit 85 connects the intensity information indicated by the difference peak points of all the pixels calculated by the intensity difference calculation unit 84. For example, when a difference peak point is calculated for each pixel of 80 × 60 pixels, the intensity difference connection processing unit 85 places the intensity information indicated by the difference peak point in a virtually created 80 × 60 pixel cell. Connect. For example, as shown in FIGS. 17A and 17B, the arrangement of the intensity information is such that a pixel having a difference peak point is colored gray and a pixel having no difference peak point is colored white. And so on.

第3の変化領域抽出部86は、強度差分連結処理部85が連結した強度情報から変化領域を抽出する。変化領域の抽出は、差分ピーク点が存在する画素と、差分ピーク点が存在しない画素との差異に基づいて行われ、上述した例では画素の着色の差異に基づいてグレーに着色された画素の集まる領域を変化領域として抽出する。図17(a)に示すように、対象物201が存在する位置と、変化領域205の画素位置が一致している。   The third change region extraction unit 86 extracts a change region from the intensity information connected by the intensity difference connection processing unit 85. The change area is extracted based on the difference between the pixel where the difference peak point exists and the pixel where the difference peak point does not exist, and in the above-described example, the pixel colored gray based on the difference in pixel coloring is extracted. The gathering area is extracted as a change area. As shown in FIG. 17A, the position where the object 201 exists and the pixel position of the change area 205 coincide.

認識処理部50は、第3の変化領域抽出部86が抽出した変化領域の条件があらかじめ定めた条件を満たしているか否かに基づいて、変化領域が報知対象であるか否か認識処理を行う。報知処理部60は、認識処理部50の認識結果に基づいて報知処理を行う。ここで報知処理は、上位にあるPCなどに特定の信号を送信する処理、あるいは装置のブザーを鳴らすなどの処理などである。   The recognition processing unit 50 recognizes whether or not the change region is a notification target based on whether or not the condition of the change region extracted by the third change region extraction unit 86 satisfies a predetermined condition. . The notification processing unit 60 performs notification processing based on the recognition result of the recognition processing unit 50. Here, the notification process is a process of transmitting a specific signal to a higher-level PC or the like, or a process of sounding a buzzer of the apparatus.

次に、実施の形態5の監視装置100dの動作について説明する。
図18は、実施の形態5に係る監視装置の動作を示すフローチャートである。
なお、以下では実施の形態3に係る監視装置100bと同一のステップには図11で使用した符号と同一の符号を付し、説明を省略または簡略化する。また、実施の形態3と同様に3次元レーザスキャナ10の解像度を80×60画素とした場合を例に説明を行う。
Next, the operation of the monitoring device 100d according to the fifth embodiment will be described.
FIG. 18 is a flowchart showing the operation of the monitoring apparatus according to the fifth embodiment.
In the following, the same steps as those of the monitoring device 100b according to the third embodiment are denoted by the same reference numerals as those used in FIG. 11, and the description thereof is omitted or simplified. Further, as in the third embodiment, the case where the resolution of the three-dimensional laser scanner 10 is 80 × 60 pixels will be described as an example.

強度ヒストグラム作成部81は、ステップST2で取得された強度データに基づき、第1の強度ヒストグラムおよび第2の強度ヒストグラムを作成する(ステップST71)。対象物強度ピーク点算出部82は、ステップST71で作成された第1の強度ヒストグラムから対象物強度ピーク点を算出し(ステップST72)、対象物強度ヒストグラム曲線を作成する(ステップST73)。背景強度ピーク点算出部83は、ステップST72で作成された第2の強度ヒストグラムからピーク点を算出し(ステップST74)、背景強度ヒストグラム曲線を作成する(ステップST75)。   The intensity histogram creation unit 81 creates a first intensity histogram and a second intensity histogram based on the intensity data acquired in step ST2 (step ST71). The object intensity peak point calculation unit 82 calculates an object intensity peak point from the first intensity histogram created in step ST71 (step ST72), and creates an object intensity histogram curve (step ST73). The background intensity peak point calculation unit 83 calculates a peak point from the second intensity histogram created in step ST72 (step ST74), and creates a background intensity histogram curve (step ST75).

次に、強度差分算出部84は、ステップST73で作成された対象物強度ヒストグラム曲線と、ステップST75で作成された背景強度ヒストグラム曲線との差分ピーク点を算出する(ステップST76)。強度演算部80は、全ての画素についてステップST71からステップST76までの処理を行ったか否か判定を行う(ステップST77)。全ての画素について処理を行っていない場合(ステップST77;NO)、ステップST71の処理に戻り、上述した処理を繰り返す。   Next, the intensity difference calculation unit 84 calculates a difference peak point between the object intensity histogram curve created in step ST73 and the background intensity histogram curve created in step ST75 (step ST76). The intensity calculation unit 80 determines whether or not the processing from step ST71 to step ST76 has been performed for all pixels (step ST77). If the process has not been performed for all pixels (step ST77; NO), the process returns to step ST71 and the above-described process is repeated.

一方、全ての画素について処理を行った場合(ステップST77;YES)、強度差分連結処理部85はステップST76で得た全ての画素の差分ピーク点の強度情報を連結し(ステップST78)、第3の変化領域抽出部86は連結された強度情報から変化領域を抽出する(ステップST79)。認識処理部50は、ステップST79で抽出された変化領域が照合条件を満たすか否か判定を行う(ステップST80)。照合条件を満たす場合(ステップST80;YES)、変化領域が報知対象であると認識する(ステップST11)。一方、照合条件を満たさない場合(ステップST80;NO)、変化領域が報知対象でないと判断し(ステップST12)、ステップST1の処理に戻る。報知処理部60は、ステップST11で認識された報知対象について報知処理を行い(ステップST13)、ステップST1の処理に戻る。   On the other hand, when processing has been performed for all the pixels (step ST77; YES), the intensity difference connection processing unit 85 connects the intensity information of the difference peak points of all the pixels obtained in step ST76 (step ST78). The change area extraction unit 86 extracts a change area from the connected intensity information (step ST79). The recognition processing unit 50 determines whether or not the change area extracted in step ST79 satisfies the matching condition (step ST80). If the verification condition is satisfied (step ST80; YES), the change area is recognized as a notification target (step ST11). On the other hand, when the verification condition is not satisfied (step ST80; NO), it is determined that the change area is not a notification target (step ST12), and the process returns to step ST1. The notification processing unit 60 performs notification processing on the notification target recognized in step ST11 (step ST13), and returns to the processing of step ST1.

認識処理部50の判定処理の詳細は、実施の形態3の図12で示したフローチャートと同一であるため説明を省略する。   Details of the determination processing of the recognition processing unit 50 are the same as those in the flowchart shown in FIG.

以上のように、この実施の形態5によれば、3次元レーザスキャナ10により取得された強度データから強度ヒストグラムを作成する強度ヒストグラム作成部81と、強度ヒストグラムから対象物強度ピーク点を含む対象物強度ヒストグラム曲線を作成する対象物強度ピーク点算出部82と、強度ヒストグラムから背景強度ピーク点を含む背景強度ヒストグラム曲線を作成する背景強度ピーク点算出部83と、対象物強度ヒストグラム曲線と背景強度ヒストグラム曲線とから差分ピーク点を算出する強度差分算出部84と、差分ピーク点の強度情報を連結する強度差分連結処理部85と、連結された強度情報から変化領域を抽出する第3の変化領域抽出部86とを備えるように構成したので、背景と対象物との強度関係に基づいた差分ピーク点を得ることができ、対象物と背景とに十分な輝度差が存在しない場合にも対象物と背景との差異を認識することができる。これにより、対象物の認識精度を向上させることができる。
また、対象物と背景との距離が、レーザ光パルス12の距離解像度以下である場合にも、背景および対象物からの反射率に基づく強度データを用いて対象物の変化領域のみを抽出することができる。これにより、対象物の認識精度を向上させることができる。
As described above, according to the fifth embodiment, the intensity histogram creating unit 81 that creates the intensity histogram from the intensity data acquired by the three-dimensional laser scanner 10 and the object including the object intensity peak point from the intensity histogram. An object intensity peak point calculation unit 82 that creates an intensity histogram curve, a background intensity peak point calculation unit 83 that creates a background intensity histogram curve including a background intensity peak point from the intensity histogram, an object intensity histogram curve, and a background intensity histogram An intensity difference calculation unit 84 that calculates a difference peak point from the curve, an intensity difference connection processing unit 85 that connects intensity information of the difference peak points, and a third change area extraction that extracts a change area from the connected intensity information Difference peak based on the intensity relationship between the background and the object. Can be obtained, it is possible to recognize the difference also between the object and the background when a sufficient difference in brightness and the object and the background is not present. Thereby, the recognition accuracy of the object can be improved.
Further, even when the distance between the object and the background is equal to or less than the distance resolution of the laser light pulse 12, only the change region of the object is extracted using the intensity data based on the reflectance from the background and the object. Can do. Thereby, the recognition accuracy of the object can be improved.

実施の形態6.
この実施の形態6では、上述した実施の形態5の構成に加えて、「人」のように移動する対象物と、「看板」のように移動しない対象物とを区別して報知する構成を示す。
図19は、実施の形態6に係る監視装置の構成を示すブロック図である。
実施の形態6の監視装置100eは、図15で示した実施の形態5の監視装置100dに安定度確認部43を追加して設けている。なお、以下では、実施の形態5に係る監視装置100dの構成要素と同一または相当する部分には、実施の形態5で使用した符号と同一の符号を付して説明を省略または簡略化する。なお、図19において監視装置100e外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、およびレーザ光パルス12の拡散領域202を記載している。
Embodiment 6 FIG.
In the sixth embodiment, in addition to the configuration of the fifth embodiment described above, a configuration is shown in which a target object that moves like a “person” and a target object that does not move like a “signboard” are distinguished and notified. .
FIG. 19 is a block diagram illustrating a configuration of the monitoring apparatus according to the sixth embodiment.
The monitoring apparatus 100e of the sixth embodiment is provided with a stability confirmation unit 43 in addition to the monitoring apparatus 100d of the fifth embodiment shown in FIG. In the following description, the same or corresponding parts as those of the monitoring apparatus 100d according to the fifth embodiment are denoted by the same reference numerals as those used in the fifth embodiment, and description thereof is omitted or simplified. In FIG. 19, a background 200 indicating the scanning range of the three-dimensional laser scanner 10, an object 201 standing in front of the background 200, and a diffusion region 202 of the laser light pulse 12 are illustrated outside the monitoring device 100 e.

安定度確認部43は、第3の変化領域抽出部86が抽出した変化領域を蓄積部43aに一時蓄積する。安定度確認部43は、蓄積部43aに蓄積された変化領域を参照して、一定時間経過前後の変化領域を比較し、変化領域の面積変化が閾値以上か否か判定を行う。変化領域の面積変化が閾値以上である場合、当該変化領域が人物であると判断する。一方、変化領域の面積変化が閾値未満である場合、当該変化領域が人物以外、例えば看板、壁のシミ、壁の濡れ、ポスターなどであると判断する。認識処理部50は、安定度確認部43において人物であると判断された変化領域についてのみ、報知対象であるか否か認識処理を行う。   The stability confirmation unit 43 temporarily accumulates the change region extracted by the third change region extraction unit 86 in the accumulation unit 43a. The stability confirmation unit 43 refers to the change region stored in the storage unit 43a, compares the change regions before and after a predetermined time, and determines whether the area change of the change region is equal to or greater than a threshold value. If the area change of the change area is equal to or greater than the threshold value, it is determined that the change area is a person. On the other hand, when the area change of the change area is less than the threshold, it is determined that the change area is other than a person, for example, a signboard, a wall stain, a wall wet, a poster, or the like. The recognition processing unit 50 performs a recognition process as to whether or not only a change area determined to be a person by the stability confirmation unit 43 is a notification target.

図20は、実施の形態6に係る監視装置の安定度確認部の処理を示す説明図である。
図20(a),(b),(c)は、背景200の前に人物206が位置する場合の変化領域を示し、図20(d),(e),(f)は、背景200の前に看板207が位置する場合の変化領域を示している。図20において、強度差分連結処理部85によりグレーに着色され、第3の変化領域抽出部86が抽出した領域が変化領域であることを示している。
FIG. 20 is an explanatory diagram illustrating processing of the stability confirmation unit of the monitoring apparatus according to the sixth embodiment.
20 (a), (b), and (c) show a change area when the person 206 is positioned in front of the background 200. FIGS. 20 (d), (e), and (f) show the background 200. The change area when the signboard 207 is positioned in front is shown. In FIG. 20, the region that is colored gray by the intensity difference connection processing unit 85 and extracted by the third change region extraction unit 86 is a change region.

まず、背景200の前に人物206が位置している場合について説明する。図20(a)は背景200の前に位置する人物206と変化領域208を示している。また、人物206は矢印R方向に移動するものとする。図20(b)は、図20(a)に対して変化領域208のみを示している。さらに図20(c)は、図20(b)の変化領域208を抽出してから所定時間(例えば、1秒)経過した後の変化領域209を示している。人物206は、矢印R方向に移動するため、図20(b)と図20(c)とを比較すると人物206に相当する変化領域208が矢印R方向に移動して変化領域209に変化している。このように、所定時間経過後に変化する変化領域を報知対象と認識する。   First, a case where the person 206 is positioned in front of the background 200 will be described. FIG. 20A shows a person 206 and a change area 208 positioned in front of the background 200. In addition, it is assumed that the person 206 moves in the direction of the arrow R. FIG. 20B shows only the change region 208 with respect to FIG. Further, FIG. 20C shows a change area 209 after a predetermined time (for example, 1 second) has elapsed since the change area 208 of FIG. 20B was extracted. Since the person 206 moves in the direction of the arrow R, when comparing FIG. 20B and FIG. 20C, the change area 208 corresponding to the person 206 moves in the direction of the arrow R and changes to the change area 209. Yes. In this way, a change area that changes after a predetermined time has elapsed is recognized as a notification target.

次に、背景200の前に看板207が位置している場合について説明する、図20(d)は背景200の前に位置する看板207と変化領域210を示している。図20(e)は、図20(d)に対して変化領域210のみを示している。さらに、図20(f)は、図20(e)の変化領域210を抽出してから所定時間(例えば、1秒)経過した後の変化領域211を示している。看板207は移動しないため、図20(e)と図20(f)とを比較すると看板207に相当する変化領域210と変化領域211に変化がない。このように、同一箇所に留まり変化しない変化領域は報知対象でないと認識する。   Next, the case where the signboard 207 is positioned in front of the background 200 will be described. FIG. 20D shows the signboard 207 positioned in front of the background 200 and the change area 210. FIG. 20 (e) shows only the change region 210 with respect to FIG. 20 (d). Further, FIG. 20F shows a change area 211 after a predetermined time (for example, 1 second) has elapsed since the change area 210 of FIG. 20E was extracted. Since the signboard 207 does not move, there is no change in the change area 210 and the change area 211 corresponding to the signboard 207 when comparing FIG. 20E and FIG. Thus, it is recognized that a change area that remains in the same place and does not change is not a notification target.

次に、実施の形態6に係る監視装置100eの動作について説明する。
図21は、実施の形態6に係る監視装置の動作を示すフローチャートである。
なお、以下では実施の形態5に係る監視装置100dと同一のステップには図18で使用した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST79において、第3の変化領域抽出部86が変化領域を抽出すると、安定度確認部43は、抽出された変化領域を蓄積部43aに一時蓄積する(ステップST81)。安定度確認部43は、蓄積部43aに一定時間経過前後の変化領域が蓄積されたか否か判定を行う(ステップST82)。蓄積されていない場合(ステップST82;NO)、ステップST1の処理に戻り、上述した処理を繰り返す。
Next, the operation of the monitoring device 100e according to Embodiment 6 will be described.
FIG. 21 is a flowchart showing the operation of the monitoring apparatus according to the sixth embodiment.
In the following, the same steps as those of the monitoring device 100d according to the fifth embodiment are denoted by the same reference numerals as those used in FIG. 18, and the description thereof is omitted or simplified.
In step ST79, when the third change region extraction unit 86 extracts the change region, the stability confirmation unit 43 temporarily stores the extracted change region in the storage unit 43a (step ST81). The stability confirmation unit 43 determines whether or not the change region before and after the lapse of a certain time has been accumulated in the accumulation unit 43a (step ST82). If not accumulated (step ST82; NO), the process returns to step ST1, and the above-described process is repeated.

一方、蓄積された場合(ステップST82;YES)、安定度確認部43は蓄積部43aに蓄積された一定時間経過前後の変化領域を比較し、変化領域の面積変化が閾値以上か否か判定を行う(ステップST83)。変化領域の面積変化が閾値以上である場合(ステップST83;YES)、変化領域が人物であると判断し(ステップST84)、認識処理部50において当該変化領域が照合条件を満たすか否か判定を行う(ステップST85)。照合条件を満たす場合(ステップST85;YES)、変化領域が報知対象であると認識する(ステップST11)。一方、照合条件を満たさない場合(ステップST85;NO)、変化領域が報知対象でないと判断し(ステップST12)、ステップST1の処理に戻る。   On the other hand, when accumulated (step ST82; YES), the stability confirmation unit 43 compares the change regions accumulated in the accumulation unit 43a before and after the elapse of a predetermined time, and determines whether or not the area change of the change region is equal to or greater than a threshold value. Perform (step ST83). If the area change of the change area is equal to or greater than the threshold (step ST83; YES), it is determined that the change area is a person (step ST84), and the recognition processing unit 50 determines whether the change area satisfies the matching condition. Perform (step ST85). If the verification condition is satisfied (step ST85; YES), the change area is recognized as a notification target (step ST11). On the other hand, when the verification condition is not satisfied (step ST85; NO), it is determined that the change area is not a notification target (step ST12), and the process returns to step ST1.

一方、変化領域の面積変化が閾値未満である場合(ステップST83;NO)、変化領域が人物以外であると判断し(ステップST86)、ステップST12の処理に進む。報知処理部60は、ステップST11で認識された報知対象について報知処理を行い(ステップST13)、ステップST1の処理に戻る。   On the other hand, when the area change of the change region is less than the threshold (step ST83; NO), it is determined that the change region is other than a person (step ST86), and the process proceeds to step ST12. The notification processing unit 60 performs notification processing on the notification target recognized in step ST11 (step ST13), and returns to the processing of step ST1.

次に、認識処理部50の判定処理の詳細を示す。図22は、実施の形態6に係る監視装置の認識処理部の判定処理を示すフローチャートである。なお、実施の形態6の認識処理部50は、実施の形態3の図12で示したフローチャートのステップST53の処理を省略した以下の処理を行う。
認識処理部50は、変化領域が所定の面積を有する否か判定を行う(ステップST51)。所定の面積を有している場合(ステップST51;YES)、さらに変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST52)。所定の縦横寸法を有している場合(ステップST52;YES)、さらに変化領域が所定の存在時間を有しているか否か判定を行う(ステップST54)。所定の存在時間を有している場合(ステップST54;YES)、ステップST11に進み、変化領域が報知対象であると認識される。
Next, details of the determination processing of the recognition processing unit 50 will be described. FIG. 22 is a flowchart illustrating the determination process of the recognition processing unit of the monitoring apparatus according to the sixth embodiment. Note that the recognition processing unit 50 of the sixth embodiment performs the following processing in which the processing of step ST53 in the flowchart shown in FIG. 12 of the third embodiment is omitted.
The recognition processing unit 50 determines whether or not the change area has a predetermined area (step ST51). When it has a predetermined area (step ST51; YES), it is further determined whether or not the change area has a predetermined vertical and horizontal dimension (step ST52). If it has predetermined vertical and horizontal dimensions (step ST52; YES), it is further determined whether or not the change area has a predetermined existence time (step ST54). When it has the predetermined existence time (step ST54; YES), the process proceeds to step ST11, and the change area is recognized as the notification target.

一方、所定の面積を有していない場合(ステップST51;NO)、所定の縦横寸法を有していない場合(ステップST52;NO)、所定の存在時間を有していない場合(ステップST54;NO)には、ステップST12に進み、変化領域が報知対象でないと判断される。   On the other hand, when it does not have a predetermined area (step ST51; NO), when it does not have a predetermined vertical and horizontal dimension (step ST52; NO), when it does not have a predetermined existence time (step ST54; NO) ), The process proceeds to step ST12, where it is determined that the change region is not a notification target.

以上のように、この実施の形態6によれば、一定時間経過前後の変化領域に面積変化があるか否か判定を行い、当該変化領域が人物であるか人物以外を判断する安定度確認部43を備えるように構成したので、例えば看板、壁のシミ、壁の濡れ、ポスターなどを人物と区別することができ、人物以外への誤報知を防止することができる。   As described above, according to the sixth embodiment, it is determined whether or not there is an area change in the change area before and after the elapse of a certain time, and a stability confirmation unit that determines whether the change area is a person or not For example, a signboard, a spot on the wall, wetness on the wall, a poster, and the like can be distinguished from a person, and erroneous notification to a person other than the person can be prevented.

上述した実施の形態1から実施の形態6では、監視装置100,100a,100b,100c,100d,100e内に3次元レーザスキャナ10を配置する構成を示したが、3次元レーザスキャナ10を外部構成とし、当該外部構成から距離データおよび強度データを取得するように構成してもよい。   In the above-described first to sixth embodiments, the configuration in which the three-dimensional laser scanner 10 is arranged in the monitoring devices 100, 100a, 100b, 100c, 100d, and 100e has been described. The distance data and the intensity data may be acquired from the external configuration.

上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
具体的に、各実施の形態の組み合わせ例を図23から図26に示す。
図23は、実施の形態1と実施の形態3の構成を組み合わせて実現した監視装置の構成を示すブロック図である。
図24は、実施の形態1と実施の形態5の構成を組み合わせて実現した監視装置の構成を示すブロック図である。
図25は、実施の形態3と実施の形態5の構成を組み合わせて実現した監視装置の構成を示すブロック図である。
図26は、実施の形態1と実施の形態3と実施の形態5の構成を組み合わせて実現した監視装置の構成を示すブロック図である。
In addition to the above, within the scope of the present invention, the present invention can be freely combined with each embodiment, modified any component of each embodiment, or omitted any component in each embodiment. Is possible.
Specifically, examples of combinations of the embodiments are shown in FIGS.
FIG. 23 is a block diagram illustrating a configuration of a monitoring device realized by combining the configurations of the first embodiment and the third embodiment.
FIG. 24 is a block diagram showing a configuration of a monitoring apparatus realized by combining the configurations of the first embodiment and the fifth embodiment.
FIG. 25 is a block diagram showing a configuration of a monitoring device realized by combining the configurations of the third embodiment and the fifth embodiment.
FIG. 26 is a block diagram illustrating a configuration of a monitoring device realized by combining the configurations of the first embodiment, the third embodiment, and the fifth embodiment.

図示は省略するが、実施の形態1に替えて実施の形態2を適用する、実施の形態3に替えて実施の形態4を適用する、実施の形態5に替えて実施の形態6を適用することも可能である。   Although illustration is omitted, the second embodiment is applied instead of the first embodiment, the fourth embodiment is applied instead of the third embodiment, and the sixth embodiment is applied instead of the fifth embodiment. It is also possible.

実施の形態7.
実施の形態1の図3で示した分散機構13は、一連の動作において回転ミラー13aと回転ミラー13cは常に連携して動作し、且つ同一の相対角度を維持する必要がある。しかし、回転ミラーの駆動など物理的な動作には誤差が内在し、分散機構13の回転ミラー13aおよび回転ミラー13cの動作にも誤差が含まれる。その結果、入射されたレーザ光パルス12が最終的に反射されて到達する背景あるいは対象物上の位置には、回転ミラー13aおよび回転ミラー13cの動作に含まれる誤差の分だけずれが生じる。
Embodiment 7 FIG.
In the dispersion mechanism 13 shown in FIG. 3 of the first embodiment, the rotating mirror 13a and the rotating mirror 13c always operate in cooperation in a series of operations, and it is necessary to maintain the same relative angle. However, errors are inherent in physical operations such as driving of the rotating mirror, and errors are also included in the operations of the rotating mirror 13a and the rotating mirror 13c of the dispersion mechanism 13. As a result, the position where the incident laser light pulse 12 is finally reflected and arrives is shifted by the error included in the operation of the rotating mirror 13a and the rotating mirror 13c.

例えば、背景上の位置で生じた誤差を「±1ポイント」と仮定すると、当該背景に到達したレーザ光パルス12は、上述した誤差を含まない理想的な到達位置に対して上下左右斜め方向に±1ポイント分ずれる可能性がある。即ち、レーザ光パルス12は、理想的な到達位置を中心とした周囲9ポイントの範囲内のいずれかに到達する。
そこで、この実施の形態7では、理想的な到達位置に加えて周囲の画素についても現データとの比較を行う構成を示す。
For example, assuming that an error occurring at a position on the background is “± 1 point”, the laser light pulse 12 that has reached the background is inclined in the vertical and horizontal directions with respect to the ideal arrival position that does not include the error described above. There is a possibility of deviation by ± 1 point. That is, the laser light pulse 12 reaches any one of the 9 points around the ideal arrival position.
Therefore, in the seventh embodiment, a configuration is shown in which the surrounding pixels are compared with the current data in addition to the ideal arrival position.

図27は、実施の形態7に係る監視装置の構成を示すブロック図である。
実施の形態7の監視装置100jは、図1で示した実施の形態1の監視装置100の第1の変化領域抽出部40を第1の変化領域抽出部40aに替えて構成している。なお、以下では、実施の形態1に係る監視装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
FIG. 27 is a block diagram illustrating a configuration of the monitoring apparatus according to the seventh embodiment.
The monitoring device 100j according to the seventh embodiment is configured by replacing the first change region extraction unit 40 of the monitoring device 100 according to the first embodiment shown in FIG. 1 with a first change region extraction unit 40a. In the following, the same or corresponding parts as those of the monitoring apparatus 100 according to the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and the description thereof is omitted or simplified.

実施の形態1と同様に、比較データ演算部30は、3次元レーザスキャナ10から入力される距離データを取得し、比較データに変換して比較データ蓄積部31に蓄積する。比較データへの変換処理は、例えば入力された距離データの直前のフレームの距離データを得て比較データとする。ここで、入力される距離データの座標あるいは画素に対して、蓄積される距離データは当該座標あるいは画素を中心に設定された範囲内のポイントの距離データとなる。
上述のように背景上の位置で生じた誤差を「±1ポイント」と仮定し、入力された距離データの座標が(x,y)である場合、比較データは座標(x,y)を中心として上下左右斜め方向に±1ポイント移動した座標に設定された距離データとなる。具体的には、上下方向の座標(x,y+1),(x,y−1)、左右方向の座標(x+1,y),(x−1)、斜め方向の座標(x+1,y+1),(x+1,y−1),(x−1,y+1),(x−1,y−1)に設定された距離データが蓄積される。
As in the first embodiment, the comparison data calculation unit 30 acquires distance data input from the three-dimensional laser scanner 10, converts it into comparison data, and stores it in the comparison data storage unit 31. In the conversion process to comparison data, for example, distance data of a frame immediately before the input distance data is obtained and used as comparison data. Here, with respect to the coordinates or pixels of the input distance data, the accumulated distance data is the distance data of points within a range set around the coordinates or pixels.
Assuming that the error occurring at the position on the background as described above is “± 1 point” and the coordinates of the input distance data are (x, y), the comparison data is centered on the coordinates (x, y). The distance data is set to coordinates moved by ± 1 point in the diagonal direction. Specifically, vertical coordinate (x, y + 1), (x, y-1), horizontal coordinate (x + 1, y), (x-1), diagonal coordinate (x + 1, y + 1), ( The distance data set in (x + 1, y-1), (x-1, y + 1), (x-1, y-1) is stored.

第1の変化領域抽出部40aは、現データ蓄積部21に蓄積された現データ、および比較データ蓄積部31に蓄積された全ての比較データを取得し、現データと全ての比較データとを座標または画素単位で比較して複数の差分値を算出する。第1の変化領域抽出部40aは、算出した差分値のうち最小の差分値を真の差分値とし、当該真の差分値があらかじめ設定した閾値以上である座標領域または画素領域を変化領域として抽出する。一般的に、一定の閾値を設定し、差分値が設定した閾値以上であるか否かで2値化した2値化データに変換して取り扱う。   The first change area extraction unit 40a acquires the current data accumulated in the current data accumulation unit 21 and all comparison data accumulated in the comparison data accumulation unit 31, and coordinates the current data and all comparison data. Alternatively, a plurality of difference values are calculated by comparison in units of pixels. The first change area extraction unit 40a sets a minimum difference value among the calculated difference values as a true difference value, and extracts a coordinate area or a pixel area in which the true difference value is equal to or greater than a preset threshold as a change area. To do. Generally, a fixed threshold value is set, and converted into binary data depending on whether or not the difference value is greater than or equal to the set threshold value.

次に、実施の形態7に係る監視装置100jの動作について説明する。
図28は、実施の形態7に係る監視装置の動作を示すフローチャートである。
なお、以下では実施の形態1に係る監視装置100と同一のステップには図4で使用した符号と同一の符号を付し、説明を省略または簡略化する。また、背景上の位置で生じる誤差が「±1ポイント」である場合を例に説明を行う。
Next, the operation of the monitoring apparatus 100j according to Embodiment 7 will be described.
FIG. 28 is a flowchart showing the operation of the monitoring apparatus according to the seventh embodiment.
In the following, the same steps as those of the monitoring apparatus 100 according to the first embodiment are denoted by the same reference numerals as those used in FIG. 4, and the description thereof is omitted or simplified. The case where the error occurring at the position on the background is “± 1 point” will be described as an example.

ステップST4において、比較データが比較データ蓄積部31に蓄積されると、第1の変化領域抽出部40aは現データ蓄積部21に蓄積された現データである座標(x,y)を取得する(ステップST91)。さらに、第1の変化領域抽出部40aは、現データの座標(x,y)を中心とした比較データを、比較データ蓄積部31から取得する(ステップST92)。具体的には、第1の変化領域抽出部40aは、比較データとして座標 (x−1,y−1)、座標(x,y−1)、座標(x+1,y−1)、座標(x−1,y)、座標(x,y)、座標(x+1,y)、座標(x−1,y+1)、座標(x,y+1)、座標(x+1,y+1)を取得する。   In step ST4, when the comparison data is accumulated in the comparison data accumulation unit 31, the first change area extraction unit 40a acquires the coordinates (x, y) that is the current data accumulated in the current data accumulation unit 21 ( Step ST91). Furthermore, the first change area extraction unit 40a acquires comparison data centered on the coordinates (x, y) of the current data from the comparison data storage unit 31 (step ST92). Specifically, the first change area extraction unit 40a uses the coordinates (x-1, y-1), coordinates (x, y-1), coordinates (x + 1, y-1), coordinates (x −1, y), coordinates (x, y), coordinates (x + 1, y), coordinates (x−1, y + 1), coordinates (x, y + 1), and coordinates (x + 1, y + 1) are acquired.

第1の変化領域抽出部40aは、ステップST91で取得した現データとステップST92で取得した各比較データとを用いて、座標毎の差分値を算出する(ステップST93)。第1の変化領域抽出部40aは、ステップST93で算出した差分値のうち、最小の差分値を真の差分値とする(ステップST94)。ステップST94で得られた真の差分値は8bitの多値データであるため、第1の変化領域抽出部40aは得られた真の差分値があらかじめ設定した閾値以上であるか否か判定を行う(ステップST95)。真の差分値が閾値以上である場合(ステップST95;YES)、当該画素領域を変化領域として抽出する(ステップST7)。一方、真の差分値が閾値未満である場合(ステップST95;NO)、当該画素領域は変化領域でないと判断し(ステップST8)、ステップST9の処理に進む。   The first change area extraction unit 40a calculates a difference value for each coordinate using the current data acquired in step ST91 and each comparison data acquired in step ST92 (step ST93). The first change area extraction unit 40a sets the smallest difference value among the difference values calculated in step ST93 as a true difference value (step ST94). Since the true difference value obtained in step ST94 is multi-value data of 8 bits, the first change area extraction unit 40a determines whether or not the obtained true difference value is greater than or equal to a preset threshold value. (Step ST95). If the true difference value is greater than or equal to the threshold (step ST95; YES), the pixel area is extracted as a change area (step ST7). On the other hand, when the true difference value is less than the threshold value (step ST95; NO), it is determined that the pixel area is not a change area (step ST8), and the process proceeds to step ST9.

分散機構13の一連の動作により背景上の位置で生じた誤差が「±1ポイント」である場合、座標(x,y)の現データは座標(x,y)の位置を中心に上下左右斜め方向に±1ポイントの範囲内のいずれかのポイントの距離データであることから、現データの座標(x,y)に基づいて同じ座標(x,y)の比較データと比較したとしても、比較データが正しいとは限らない。そのため、分散機構13の一連の動作により誤差が発生する可能性のある現データに対して、誤差が発生する可能性のある範囲の全ての比較データを用意し、用意した全ての比較データと現データとを総当たりで比較して差分値を算出する。上述したステップST93の処理では、用意した9個の比較データと現データとを総当たりで比較して差分値を算出する。   When the error generated at the position on the background by the series of operations of the dispersion mechanism 13 is “± 1 point”, the current data of the coordinates (x, y) is vertically and horizontally inclined around the position of the coordinates (x, y). Since it is the distance data of any point within the range of ± 1 point in the direction, even if compared with the comparison data of the same coordinates (x, y) based on the coordinates (x, y) of the current data, the comparison The data is not always correct. For this reason, all the comparison data in the range where the error may occur is prepared for the current data in which an error may occur due to a series of operations of the dispersion mechanism 13, and all the prepared comparison data and the current data The difference value is calculated by comparing the data with the brute force. In the process of step ST93 described above, the nine comparison data prepared and the current data are compared with each other to calculate a difference value.

算出される複数の差分値から真の差分値を選択するため、差分値が最小であるものを最終的に真の差分値と判断する。これにより、現データが座標(x,y)の位置を中心に上下左右斜め方向の所定の範囲内のいずれかのポイントの距離データとなるような誤差が存在する場合にも、当該誤差による背景上の位置のブレの影響を最小限に抑制することができる。   In order to select the true difference value from the plurality of calculated difference values, the one having the smallest difference value is finally determined as the true difference value. As a result, even when there is an error such that the current data becomes distance data of any point within a predetermined range in the vertical and horizontal directions with the coordinate (x, y) as the center, the background due to the error The influence of the blur of the upper position can be minimized.

以上のように、この実施形態7によれば、3次元レーザスキャナ10により取得された距離データから現データを取得する現データ演算部20と、3次元レーザスキャナ10により取得された距離データの座標あるいは画素を中心に設定された所定の範囲内に位置する比較データを取得する比較データ演算部30と、現データ演算部20が取得した現データと、比較データ演算部30が取得した複数の比較データとの差分値から真の差分値を算出し、算出した真の差分値から変化領域を抽出する第1の変化領域抽出部40aとを備えるように構成したので、レーザ光パルスが到達する位置に誤差が含まれる環境においても、対象物と背景との正確な距離情報を取得することができる。これにより、対象物の認識精度を向上させることができる。   As described above, according to the seventh embodiment, the current data calculation unit 20 that acquires the current data from the distance data acquired by the three-dimensional laser scanner 10 and the coordinates of the distance data acquired by the three-dimensional laser scanner 10. Or the comparison data calculating part 30 which acquires the comparison data located in the predetermined range set centering on the pixel, the current data which the current data calculating part 20 acquired, and the several comparison which the comparison data calculating part 30 acquired Since the true difference value is calculated from the difference value with the data, and the first change area extraction unit 40a that extracts the change area from the calculated true difference value is provided, the position where the laser light pulse reaches Even in an environment that includes an error, accurate distance information between the object and the background can be acquired. Thereby, the recognition accuracy of the object can be improved.

また、この実施の形態7によれば、レーザ光パルスが到達するポイントが分散機構13の誤差により、例えば現データの座標を中心として上下左右斜め方向に±1ポイントの範囲内でずれた場合に、現データを中心として周囲9つの比較データを用いて複数の差分値を算出し、当該複数の差分値から真の差分値を選択するように構成したので、レーザ光パルスが到達するポイントのずれの影響を最小限に抑制した安定した差分値の選択を行うことができる。これにより、距離データの誤差によりレーザ光パルスが到達する位置がブレる場合にも、当該ブレによる影響を最小限に抑制することができる。よって、対象物の認識精度を向上させることができる。   Further, according to the seventh embodiment, when the point at which the laser light pulse arrives is shifted within a range of ± 1 point in the vertical and horizontal directions around the coordinates of the current data due to an error of the dispersion mechanism 13, for example. Since the difference value is calculated using the nine comparison data around the current data and the true difference value is selected from the difference value, the deviation of the point where the laser light pulse reaches It is possible to select a stable difference value that suppresses the influence of. Thereby, even when the position where the laser light pulse reaches due to an error in distance data is blurred, the influence of the blur can be suppressed to the minimum. Therefore, the recognition accuracy of the object can be improved.

なお、上述した実施の形態7では、一例として現データを中心に上下左右斜め方向に±1ポイントの範囲に位置する座標から比較データを取得する構成を示したが、レーザ光パルスが到達する背景上の位置で生じる誤差は「±1ポイント」に限定されるものではなく変化する。よってレーザ光パルスが到達する背景上の位置で生じる誤差によって、取得する比較データの範囲は変動する。また、座標を基準に比較データを取得する構成を示したが、画素を基準に比較データを取得する構成としてもよい。   In the seventh embodiment described above, as an example, the configuration in which the comparison data is acquired from the coordinates located in the range of ± 1 point in the up / down / left / right diagonal direction with the current data as the center has been described. The error occurring at the upper position is not limited to “± 1 point”, but varies. Therefore, the range of the comparison data to be acquired varies depending on the error that occurs at the position on the background where the laser light pulse reaches. Moreover, although the structure which acquires comparison data on the basis of a coordinate was shown, it is good also as a structure which acquires comparison data on the basis of a pixel.

なお、上述した実施の形態7では、実施の形態1で示した構成に第1の変化領域抽出部40aを適用する場合を示したが、当該実施の形態7の構成は実施の形態2で示した構成にも適用可能である。その場合、図6で示した第1の変化領域抽出部40を上述した第1の変化領域抽出部40aに置き換える。また、図7のフローチャートにおいて、ステップST5の処理を、上述したステップST91からステップST94の処理に置き換える。ステップST94で取得した真の差分値についてステップST31以降の処理を行う。   In the above-described seventh embodiment, the case where the first change region extraction unit 40a is applied to the configuration illustrated in the first embodiment has been described. However, the configuration of the seventh embodiment is illustrated in the second embodiment. It is also applicable to other configurations. In that case, the first change region extraction unit 40 shown in FIG. 6 is replaced with the first change region extraction unit 40a described above. Further, in the flowchart of FIG. 7, the process of step ST5 is replaced with the process of step ST91 to step ST94 described above. The processing after step ST31 is performed on the true difference value acquired at step ST94.

実施の形態8.
上述した実施の形態7では、現データと各比較データとの差分値のうち、最小である差分値を真の差分値として取得する構成を示した。ここで、最小である差分値を真の差分値として取得することは、変化領域を抽出する感度が低いことを意味する。仮に、視野に入ってきた対象者が報知対象である場合に、差分値が小さいことによる感度の劣化は報知対象の発見が鈍感になる可能性があり、報知対象に対して失報の危険性が生じる。そこで、この実施の形態8では、視野内に報知対象が現れた場合において、変化領域の抽出感度を向上させる構成を示す。
Embodiment 8 FIG.
In the above-described seventh embodiment, a configuration has been described in which the smallest difference value among the difference values between the current data and each comparison data is acquired as a true difference value. Here, acquiring the minimum difference value as a true difference value means that the sensitivity of extracting the change region is low. If the subject who has entered the field of view is the notification target, the sensitivity degradation due to the small difference value may make the discovery of the notification target insensitive, and the risk of misreporting for the notification target Occurs. In view of this, the eighth embodiment shows a configuration that improves the extraction sensitivity of the change region when a notification target appears in the field of view.

図29は、実施の形態8に係る監視装置の構成を示すブロック図である。
実施の形態8の監視装置100kは、図27で示した実施の形態7の監視装置100jの第1の変化領域抽出部40a内に判定結果蓄積部40bを追加して設けている。なお、以下では、実施の形態7に係る監視装置100jの構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
FIG. 29 is a block diagram showing the configuration of the monitoring apparatus according to the eighth embodiment.
The monitoring device 100k according to the eighth embodiment additionally includes a determination result accumulation unit 40b in the first change area extraction unit 40a of the monitoring device 100j according to the seventh embodiment shown in FIG. In the following description, the same or corresponding parts as those of the monitoring apparatus 100j according to the seventh embodiment are denoted by the same reference numerals as those used in the first embodiment, and the description thereof is omitted or simplified.

比較データ演算部30は、実施の形態7と同様に、3次元レーザスキャナ10から入力される距離データの座標あるいは画素に対して、蓄積される距離データが当該座標あるいは画素を中心に設定された範囲内のポイントの距離データを、比較データに変換し、比較データ蓄積部31に蓄積する。   As in the seventh embodiment, the comparison data calculation unit 30 sets the distance data to be accumulated around the coordinates or pixels of the distance data input from the three-dimensional laser scanner 10. The distance data of the points within the range is converted into comparison data and stored in the comparison data storage unit 31.

判定結果蓄積部40bは、第1の変化領域抽出部40aの過去の判定結果を格納する領域である。第1の変化領域抽出部40aの判定結果とは、真の差分値が閾値以上であるか否かの判定結果であり、ある座標を変化領域として抽出したか、あるいはある座標が変化領域でないと判断したかを示す情報である。判定結果蓄積部40bは、少なくとも1フレーム前の各座標または各画素における判定結果を蓄積する。   The determination result accumulation unit 40b is an area for storing past determination results of the first change area extraction unit 40a. The determination result of the first change area extraction unit 40a is a determination result of whether or not the true difference value is greater than or equal to a threshold value. Either a certain coordinate is extracted as a change area or a certain coordinate is not a change area. It is information indicating whether or not it has been determined. The determination result accumulation unit 40b accumulates the determination result at each coordinate or each pixel at least one frame before.

第1の変化領域抽出部40aは、現データ蓄積部21に蓄積された現データ、および比較データ蓄積部31に蓄積された全ての比較データを取得し、現データと全ての比較データとを座標または画素単位で比較して複数の差分値を算出する。第1の変化領域抽出部40aは判定結果蓄積部40bを参照し、1フレーム前の同一座標における真の差分値が閾値以上と判断され、変化領域として抽出されたか判定を行う。   The first change area extraction unit 40a acquires the current data accumulated in the current data accumulation unit 21 and all comparison data accumulated in the comparison data accumulation unit 31, and coordinates the current data and all comparison data. Alternatively, a plurality of difference values are calculated by comparison in units of pixels. The first change region extraction unit 40a refers to the determination result storage unit 40b and determines whether the true difference value at the same coordinate one frame before is determined to be equal to or greater than the threshold and is extracted as a change region.

真の差分値が閾値以上と判断されていた場合、第1の変化領域抽出部40aは当該座標において算出した差分値のうち最大の差分値を真の差分値として取得する。一方、真の差分値が閾値以上でないと判断されていた場合には、第1の変化領域抽出部40aは、当該座標において算出した差分値のうち最小の差分値を真の差分値として取得する。第1の変化領域抽出部40aは、取得した真の差分値があらかじめ設定した閾値以上である座標領域または画素領域を変化領域として抽出する。   When it is determined that the true difference value is equal to or greater than the threshold value, the first change area extraction unit 40a acquires the maximum difference value among the difference values calculated at the coordinates as the true difference value. On the other hand, when it is determined that the true difference value is not greater than or equal to the threshold value, the first change region extraction unit 40a acquires the smallest difference value among the difference values calculated at the coordinates as the true difference value. . The first change area extraction unit 40a extracts, as a change area, a coordinate area or a pixel area whose acquired true difference value is greater than or equal to a preset threshold value.

次に、実施の形態8に係る監視装置100kの動作について説明する。
図30は、実施の形態8に係る監視装置の動作を示すフローチャートである。
なお、以下では実施の形態7に係る監視装置100jと同一のステップには図28で使用した符号と同一の符号を付し、説明を省略または簡略化する。また、実施の形態7と同様に背景上の位置で生じる誤差が「±1ポイント」である場合を例に説明を行う。
Next, the operation of the monitoring device 100k according to the eighth embodiment will be described.
FIG. 30 is a flowchart showing the operation of the monitoring apparatus according to the eighth embodiment.
In the following, the same steps as those of the monitoring device 100j according to the seventh embodiment are denoted by the same reference numerals as those used in FIG. 28, and the description thereof is omitted or simplified. Further, as in the seventh embodiment, the case where the error occurring at the position on the background is “± 1 point” will be described as an example.

ステップST93において座標毎の差分値が算出されると、第1の変化領域抽出部40aは判定結果蓄積部40bを参照してステップST93で差分値を算出した座標が、1フレーム前の画像において変化領域であると判断されたか否か判定を行う(ステップST101)。1フレーム前の画像において変化領域であると判断されていた場合(ステップST101;YES)、第1の変化領域抽出部40aはステップST93で算出した座標毎の差分値のうち最大の差分値を真の差分値とする(ステップST102)。一方、1フレーム前の画像において変化領域でないと判断されていた場合(ステップST101;NO)、第1の変化領域抽出部40aはステップST93で算出した座標毎の差分値のうち最小の差分値を真の差分値とする(ステップST102)。   When the difference value for each coordinate is calculated in step ST93, the first change area extraction unit 40a refers to the determination result accumulation unit 40b, and the coordinate for which the difference value is calculated in step ST93 changes in the image one frame before. It is determined whether or not the area is determined (step ST101). When it is determined that the region is a change region in the image one frame before (step ST101; YES), the first change region extraction unit 40a sets the maximum difference value among the difference values for each coordinate calculated in step ST93 to be true. (Step ST102). On the other hand, when it is determined that it is not a change area in the image one frame before (step ST101; NO), the first change area extraction unit 40a calculates the minimum difference value among the difference values for each coordinate calculated in step ST93. A true difference value is set (step ST102).

ステップST101またはステップST102で得られた真の差分値は8bitの多値データであるため、第1の変化領域抽出部40aは得られた真の差分値があらかじめ設定した閾値以上であるか否か判定を行う(ステップST95)。真の差分値が閾値以上である場合(ステップST95;YES)、当該画素領域を変化領域として抽出する(ステップST7)。一方、真の差分値が閾値未満である場合(ステップST95;NO)、当該画素領域は変化領域でないと判断し(ステップST8)、ステップST9の処理に進む。   Since the true difference value obtained in step ST101 or step ST102 is 8-bit multi-value data, the first change area extraction unit 40a determines whether or not the obtained true difference value is equal to or greater than a preset threshold value. A determination is made (step ST95). If the true difference value is greater than or equal to the threshold (step ST95; YES), the pixel area is extracted as a change area (step ST7). On the other hand, when the true difference value is less than the threshold value (step ST95; NO), it is determined that the pixel area is not a change area (step ST8), and the process proceeds to step ST9.

上述した構成により、ある座標または画素が変化領域として抽出されている場合には、常に最大の差分値が真の差分値として選択されるため、真の差分値が常に最大の値となる。これは、変化領域を抽出する感度が高いことを意味する。一方、ある座標または画素が変化領域として抽出されていない場合には、当該座標にいずれの対象物も存在していないことから、最小の差分値が真の差分値として選択される。これは、真の差分値が常に最小の値となり、変化領域を抽出する感度が低いことを意味する。
これらの処理により、変化領域として抽出されている場合には、最大の差分値を選択することができ、仮に視野内に報知対象が現れた場合において、変化領域の抽出感度を向上させることができ、報知対象に対する失報を抑制する。
With the above-described configuration, when a certain coordinate or pixel is extracted as a change area, the maximum difference value is always selected as the true difference value, and thus the true difference value is always the maximum value. This means that the sensitivity for extracting the change region is high. On the other hand, when a certain coordinate or pixel is not extracted as the change area, since no object exists at the coordinate, the minimum difference value is selected as the true difference value. This means that the true difference value is always the minimum value, and the sensitivity for extracting the change region is low.
By these processes, the maximum difference value can be selected when it is extracted as a change area, and if the notification target appears in the field of view, the change area extraction sensitivity can be improved. , To suppress the misreporting for the notification target.

以上のように、この実施形態8によれば、3次元レーザスキャナ10により取得された距離データから現データを取得する現データ演算部20と、3次元レーザスキャナ10により取得された距離データの座標あるいは画素を中心に設定された所定の範囲内に位置する比較データを取得する比較データ演算部30と、1フレーム前の画像についての第1の変化領域抽出部40aの判定結果であって、1フレーム前の画像の各座標または各画素が変化領域であるか否かの判定結果を格納した判定結果蓄積部40bと、現データと現データを中心として所定の範囲内に位置する比較データとの差分値を算出し、判定結果蓄積部40bを参照して差分値を算出した座標が、1フレーム前の画像で変化領域であったか否か判定を行い、判定結果に応じて真の差分値を決定する第1の変化領域抽出部40aを備えるように構成したので、1フレーム前の画像において変化領域であった座標または画素について、最大の差分値を真の差分値として取得することができ、変化領域の抽出感度を向上させることができる。これにより、報知対象の検知能力を向上させることができ、失報の危険性を低下させることができる。また、対象物の認識精度を向上させることができる。   As described above, according to the eighth embodiment, the current data calculation unit 20 that acquires current data from the distance data acquired by the three-dimensional laser scanner 10 and the coordinates of the distance data acquired by the three-dimensional laser scanner 10. Alternatively, it is a determination result of the comparison data calculation unit 30 that acquires comparison data located within a predetermined range set around the pixel and the first change region extraction unit 40a for the image one frame before, A determination result storage unit 40b that stores a determination result as to whether or not each coordinate or each pixel of the image before the frame is a change area, and the current data and comparison data positioned within a predetermined range centering on the current data A difference value is calculated, and it is determined whether or not the coordinates for which the difference value has been calculated with reference to the determination result storage unit 40b is a change area in the image one frame before, and according to the determination result Since the first change area extraction unit 40a for determining the true difference value is provided, the maximum difference value is acquired as the true difference value for the coordinate or pixel that was the change area in the image one frame before. It is possible to improve the extraction sensitivity of the change area. Thereby, the detection capability of a report object can be improved and the risk of unreporting can be reduced. Moreover, the recognition accuracy of the object can be improved.

なお、上述した実施の形態8では、一例として現データを中心に上下左右斜め方向に±1ポイントの範囲に位置する座標から比較データを取得する構成を示したが、レーザ光パルスが到達する背景上の位置で生じる誤差は「±1ポイント」に限定されるものではなく変化する。よってレーザ光パルスが到達する背景上の位置で生じる誤差によって、取得する比較データの範囲は変動する。また、座標を基準に比較データを取得する構成を示したが、画素を基準に比較データを取得する構成としてもよい。   In the above-described eighth embodiment, as an example, the configuration in which the comparison data is acquired from the coordinates located in the range of ± 1 point in the vertical, horizontal, and diagonal directions around the current data has been described. The error occurring at the upper position is not limited to “± 1 point”, but varies. Therefore, the range of the comparison data to be acquired varies depending on the error that occurs at the position on the background where the laser light pulse reaches. Moreover, although the structure which acquires comparison data on the basis of a coordinate was shown, it is good also as a structure which acquires comparison data on the basis of a pixel.

なお、上述した実施の形態8では、実施の形態1で示した構成に第1の変化領域抽出部40aおよび判定結果蓄積部40bを適用する場合を示したが、当該実施の形態8の構成は実施の形態2で示した構成にも適用可能である。その場合、図6で示した第1の変化領域抽出部40を上述した第1の変化領域抽出部40aおよび判定結果蓄積部40bに置き換える。また、図7のフローチャートにおいて、ステップST5の処理を、上述したステップST91からステップST103の処理に置き換える。ステップST102またはステップST103で取得した真の差分値についてステップST31以降の処理を行う。   In the above-described eighth embodiment, the case where the first changed region extraction unit 40a and the determination result storage unit 40b are applied to the configuration illustrated in the first embodiment has been described. However, the configuration of the eighth embodiment is as follows. The present invention can also be applied to the configuration shown in Embodiment Mode 2. In that case, the first change region extraction unit 40 shown in FIG. 6 is replaced with the first change region extraction unit 40a and the determination result storage unit 40b described above. Further, in the flowchart of FIG. 7, the process of step ST5 is replaced with the process of step ST91 to step ST103 described above. The processing after step ST31 is performed on the true difference value acquired at step ST102 or step ST103.

上述した実施の形態1から実施の形態8で示した監視装置の各機能は、処理回路により実現される。処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。ソフトウェアおよびファームウェアはプログラムとして記述され、メモリに格納される。処理回路は、メモリに記憶されたプログラムを読み出して実行することにより、各部の機能を実行する。   Each function of the monitoring apparatus described in the first to eighth embodiments is realized by a processing circuit. The processing circuit can realize the functions described above by hardware, software, firmware, or a combination thereof. Software and firmware are described as programs and stored in a memory. The processing circuit executes the function of each unit by reading and executing the program stored in the memory.

この発明に係る監視装置は、精度よく対象物を認識することが可能なため、監視カメラなどに適用し発報対象を的確に認識して警告を行うのに適している。   Since the monitoring apparatus according to the present invention can recognize an object with high accuracy, the monitoring apparatus is suitable for applying to a monitoring camera or the like to accurately recognize a notification target and issue a warning.

10 3次元レーザスキャナ、11 レーザ発光ユニット、12 レーザ光パルス、13 分散機構、14 分散レーザ光パルス、15 レーザ反射光、16 レーザ受光ユニット、20 現データ演算部、21 現データ蓄積部、30 比較データ演算部、31 比較データ蓄積部、40,40a 第1の変化領域抽出部、40b 判定結果蓄積部、41 正負マップ照合部、42 第2の変化領域抽出部、43 安定度確認部、43a 蓄積部、50 認識処理部、60 報知処理部、70,70a 距離演算部、71,71a 距離ヒストグラム作成部、72 対象物距離ピーク点算出部、73 背景距離ピーク点算出部、74,74a 距離差分算出部、75 距離差分連結処理部、80 強度演算部、81 強度ヒストグラム作成部、82 対象物強度ピーク点算出部、83 背景強度ピーク点算出部、84 強度差分算出部、85 強度差分連結処理部、86 第3の変化領域抽出部、100,100a,100b,100c,100d,100e,100f,100g,100h,100i 監視装置、200 背景、201 対象物。   10 Three-dimensional laser scanner, 11 Laser light emitting unit, 12 Laser light pulse, 13 Dispersion mechanism, 14 Dispersed laser light pulse, 15 Laser reflected light, 16 Laser light receiving unit, 20 Current data calculation unit, 21 Current data storage unit, 30 Comparison Data calculation unit, 31 Comparison data storage unit, 40, 40a First change region extraction unit, 40b Determination result storage unit, 41 Positive / negative map matching unit, 42 Second change region extraction unit, 43 Stability confirmation unit, 43a storage Unit, 50 recognition processing unit, 60 notification processing unit, 70, 70a distance calculation unit, 71, 71a distance histogram creation unit, 72 object distance peak point calculation unit, 73 background distance peak point calculation unit, 74, 74a distance difference calculation Part, 75 distance difference connection processing part, 80 intensity calculation part, 81 intensity histogram creation part, 82 object strength Peak point calculation unit, 83 Background intensity peak point calculation unit, 84 Intensity difference calculation unit, 85 Intensity difference connection processing unit, 86 Third change region extraction unit, 100, 100a, 100b, 100c, 100d, 100e, 100f, 100g , 100h, 100i monitoring device, 200 background, 201 object.

Claims (9)

監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域までの距離情報を取得し、現距離データとする現データ演算部と、
前記測定結果から前記監視領域までの距離情報を取得し、比較距離データに変換する比較データ演算部と、
前記現データ演算部が取得した現距離データと、前記比較データ演算部が変換した比較距離データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域として抽出する第1の変化領域抽出部とを備え
前記第1の変化領域抽出部は、前記監視領域における背景と対象物との距離関係に基づいて拒絶すべき差分値を記憶したマップデータと、前記現距離データと前記比較距離データとの差分値とを照合し、前記マップデータにより拒絶される差分値を修正する正負マップ照合部を備えた監視装置。
From the measurement result of the three-dimensional laser scanner that measured the monitoring area, information on the distance to the monitoring area is acquired, and the current data calculation unit is used as the current distance data;
A comparison data calculation unit that obtains distance information from the measurement result to the monitoring region and converts it into comparison distance data;
A difference value between the current distance data acquired by the current data calculation unit and the comparison distance data converted by the comparison data calculation unit is calculated, and a region where the difference value is equal to or greater than a threshold is extracted as a change region. A change area extraction unit ,
The first change area extraction unit includes map data storing a difference value to be rejected based on a distance relationship between the background and the object in the monitoring area, and a difference value between the current distance data and the comparison distance data. And a positive / negative map matching unit that corrects a difference value rejected by the map data .
前記測定結果から前記監視領域までの距離情報を取得し、前記監視領域の短時間変化を示す第1の距離ヒストグラムと、前記第1の距離ヒストグラムより長い時間変化である前記監視領域の長時間変化を示す第2の距離ヒストグラムを作成する距離ヒストグラム作成部と、
前記第1の距離ヒストグラムから対象物距離ピーク点を算出する対象物距離ピーク点算出部と、
前記第2の距離ヒストグラムから背景距離ピーク点を算出する背景距離ピーク点算出部と、
前記対象物距離ピーク点から前記背景距離ピーク点を差し引いて差分ピーク点を算出する距離差分算出部と、
前記距離差分算出部が算出した差分ピーク点の距離情報に基づいた領域から変化領域を抽出する第2の変化領域抽出部とを備えたことを特徴とする請求項1記載の監視装置。
A distance information from the measurement result to the monitoring area is acquired, a first distance histogram indicating a short-time change of the monitoring area, and a long-time change of the monitoring area that is a time change longer than the first distance histogram A distance histogram creation unit for creating a second distance histogram indicating
An object distance peak point calculation unit for calculating an object distance peak point from the first distance histogram;
A background distance peak point calculation unit for calculating a background distance peak point from the second distance histogram;
A distance difference calculation unit that calculates a difference peak point by subtracting the background distance peak point from the object distance peak point;
The monitoring apparatus according to claim 1, further comprising: a second change area extraction unit that extracts a change area from an area based on the distance information of the difference peak point calculated by the distance difference calculation unit.
前記測定結果から前記監視領域の反射率を示す強度情報を取得し、前記監視領域の短時間変化を示す第1の強度ヒストグラムと、前記第1の強度ヒストグラムより長い時間変化である前記監視領域の長時間変化を示す第2の強度ヒストグラムを作成する強度ヒストグラム作成部と、
前記第1の強度ヒストグラムから対象物強度ピーク点を算出する対象物強度ピーク点算出部と、
前記第2の強度ヒストグラムから背景強度ピーク点を算出する背景強度ピーク点算出部と、
前記対象物強度ピーク点から前記背景強度ピーク点を差し引いて得られる差分ピーク点を算出する強度差分算出部と、
前記強度差分算出部が算出した差分ピーク点の強度情報を連結する強度差分連結処理部と、
前記強度差分連結処理部が連結した強度情報から前記変化領域を抽出する第3の変化領域抽出部とを備えたことを特徴とする請求項1記載の監視装置。
Intensity information indicating the reflectance of the monitoring area is acquired from the measurement result, and a first intensity histogram indicating a short-time change of the monitoring area and a time change of the monitoring area that is longer than the first intensity histogram. An intensity histogram creation unit for creating a second intensity histogram showing a long-term change;
An object intensity peak point calculation unit for calculating an object intensity peak point from the first intensity histogram;
A background intensity peak point calculation unit for calculating a background intensity peak point from the second intensity histogram;
An intensity difference calculation unit for calculating a difference peak point obtained by subtracting the background intensity peak point from the object intensity peak point;
An intensity difference connection processing unit that connects the intensity information of the difference peak points calculated by the intensity difference calculation unit;
The monitoring apparatus according to claim 1, further comprising: a third change area extraction unit that extracts the change area from the intensity information connected by the intensity difference connection processing unit.
監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域までの距離情報を取得し、前記監視領域の短時間変化を示す第1の距離ヒストグラムと、前記第1の距離ヒストグラムより長い時間変化である前記監視領域の長時間変化を示す第2の距離ヒストグラムを作成する距離ヒストグラム作成部と、
前記第1の距離ヒストグラムから対象物距離ピーク点を算出する対象物距離ピーク点算出部と、
前記第2の距離ヒストグラムから背景距離ピーク点を算出する背景距離ピーク点算出部と、
前記対象物距離ピーク点から前記背景距離ピーク点を差し引いて差分ピーク点を算出する距離差分算出部と、
前記距離差分算出部が算出した差分ピーク点の距離情報に基づいた領域から変化領域を抽出する第2の変化領域抽出部とを備えた監視装置。
A distance information to the monitoring area is acquired from a measurement result of the three-dimensional laser scanner that measured the monitoring area, and a first distance histogram indicating a short time change of the monitoring area and a time longer than the first distance histogram A distance histogram creating unit that creates a second distance histogram indicating a long-term change in the monitoring area that is a change;
An object distance peak point calculation unit for calculating an object distance peak point from the first distance histogram;
A background distance peak point calculation unit for calculating a background distance peak point from the second distance histogram;
A distance difference calculation unit that calculates a difference peak point by subtracting the background distance peak point from the object distance peak point;
The monitoring apparatus provided with the 2nd change area extraction part which extracts a change area from the area | region based on the distance information of the difference peak point which the said distance difference calculation part calculated.
監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域の反射率を示す強度情報を取得し、前記監視領域の短時間変化を示す第1の強度ヒストグラムと、前記第1の強度ヒストグラムより長い時間変化である前記監視領域の長時間変化を示す第2の強度ヒストグラムを作成する強度ヒストグラム作成部と、
前記第1の強度ヒストグラムから対象物強度ピーク点を算出する対象物強度ピーク点算出部と、
前記第2の強度ヒストグラムから背景強度ピーク点を算出する背景強度ピーク点算出部と、
前記対象物強度ピーク点から前記背景強度ピーク点を差し引いて得られる差分ピーク点を算出する強度差分算出部と、
前記強度差分算出部が算出した差分ピーク点の強度情報を連結する強度差分連結処理部と、
前記強度差分連結処理部が連結した強度情報から変化領域を抽出する第3の変化領域抽出部とを備えた監視装置。
From the measurement result of the three-dimensional laser scanner that measured the monitoring area, the intensity information indicating the reflectance of the monitoring area is acquired, and the first intensity histogram indicating the short-time change of the monitoring area and the first intensity histogram An intensity histogram creating unit for creating a second intensity histogram indicating a long-term change in the monitoring area, which is a longer time change;
An object intensity peak point calculation unit for calculating an object intensity peak point from the first intensity histogram;
A background intensity peak point calculation unit for calculating a background intensity peak point from the second intensity histogram;
An intensity difference calculation unit for calculating a difference peak point obtained by subtracting the background intensity peak point from the object intensity peak point;
An intensity difference connection processing unit that connects the intensity information of the difference peak points calculated by the intensity difference calculation unit;
The monitoring apparatus provided with the 3rd change area extraction part which extracts a change area from the intensity | strength information which the said intensity | strength difference connection process part connected.
監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域までの距離情報を取得し、前記監視領域の短時間変化を示す第1の距離ヒストグラムを作成する距離ヒストグラム作成部と、
前記第1の距離ヒストグラムから対象物距離ピーク点を算出する対象物距離ピーク点算出部と、
前記監視領域内に固定的に存在する物体の距離ピーク点を記憶する背景距離ピーク情報蓄積部と、
前記対象物距離ピーク点から前記背景距離ピーク情報蓄積部に蓄積された距離ピーク点を差し引いて得られる差分ピーク点を算出する距離差分算出部と、
前記距離差分算出部が算出した差分ピーク点の距離情報に基づいた領域から変化領域を抽出する第2の変化領域抽出部とを備えた監視装置。
A distance histogram creation unit that obtains distance information to the monitoring region from a measurement result of the three-dimensional laser scanner that measures the monitoring region, and creates a first distance histogram indicating a short-time change of the monitoring region;
An object distance peak point calculation unit for calculating an object distance peak point from the first distance histogram;
A background distance peak information storage unit that stores a distance peak point of an object that is fixedly present in the monitoring area;
A distance difference calculation unit for calculating a difference peak point obtained by subtracting the distance peak point accumulated in the background distance peak information accumulation unit from the object distance peak point;
The monitoring apparatus provided with the 2nd change area extraction part which extracts a change area from the area | region based on the distance information of the difference peak point which the said distance difference calculation part calculated.
前記第3の変化領域抽出部が抽出した変化領域を蓄積する蓄積部と、
前記蓄積部に蓄積された一定時間経過前後の変化領域の変化量が閾値以上である場合に、前記変化領域が人物であると判断する安定度確認部を備えたことを特徴とする請求項3または請求項5記載の監視装置。
An accumulation unit for accumulating the change region extracted by the third change region extraction unit;
4. The apparatus according to claim 3, further comprising a stability confirmation unit that determines that the change area is a person when the change amount of the change area accumulated in the accumulation unit before and after the elapse of a predetermined time is greater than or equal to a threshold value. Or the monitoring apparatus of Claim 5 .
前記比較データ演算部は、前記測定結果を中心に設定された範囲内の位置から前記監視領域までの距離情報を取得して前記比較距離データに変換し、
前記第1の変化領域抽出部は、前記現データ演算部が取得した現距離データと、前記比較データ演算部が変換した比較距離データとの差分値を算出し、算出した差分値のうち最小の差分値を真の差分値とし、当該真の差分値が閾値以上である領域を変化領域として抽出することを特徴とする請求項1記載の監視装置。
The comparison data calculation unit acquires distance information from a position within a range set around the measurement result to the monitoring area and converts it into the comparison distance data,
The first change area extraction unit calculates a difference value between the current distance data acquired by the current data calculation unit and the comparison distance data converted by the comparison data calculation unit, and the smallest of the calculated difference values The monitoring apparatus according to claim 1, wherein the difference value is a true difference value, and an area where the true difference value is equal to or greater than a threshold is extracted as a change area.
前記比較データ演算部は、前記測定結果を中心に設定された範囲内の位置から前記監視領域までの距離情報を取得して前記比較距離データに変換し、
前記第1の変化領域抽出部は、前記現データ演算部が取得した現距離データと、前記比較データ演算部が変換した比較距離データとの差分値を算出し、過去の前記変化領域の抽出結果に基づいて、前記算出した差分値のうち最大の差分値を真の差分値とするか、あるいは最小の差分値を真の差分値とするかを決定し、決定した真の差分値が閾値以上である領域を変化領域として抽出することを特徴とする請求項1記載の監視装置。
The comparison data calculation unit acquires distance information from a position within a range set around the measurement result to the monitoring area and converts it into the comparison distance data,
The first change area extraction unit calculates a difference value between the current distance data acquired by the current data calculation unit and the comparison distance data converted by the comparison data calculation unit, and the past change area extraction results Based on the above, it is determined whether the maximum difference value among the calculated difference values is a true difference value or the minimum difference value is a true difference value, and the determined true difference value is equal to or greater than a threshold value The monitoring apparatus according to claim 1, wherein an area that is a change area is extracted.
JP2016531393A 2014-07-03 2015-06-30 Monitoring device Active JP6309099B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014137624 2014-07-03
JP2014137624 2014-07-03
PCT/JP2015/068816 WO2016002776A1 (en) 2014-07-03 2015-06-30 Monitoring apparatus

Publications (2)

Publication Number Publication Date
JPWO2016002776A1 JPWO2016002776A1 (en) 2017-04-27
JP6309099B2 true JP6309099B2 (en) 2018-04-11

Family

ID=55019308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531393A Active JP6309099B2 (en) 2014-07-03 2015-06-30 Monitoring device

Country Status (2)

Country Link
JP (1) JP6309099B2 (en)
WO (1) WO2016002776A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017195754A1 (en) * 2016-05-13 2017-11-16 コニカミノルタ株式会社 Surveillance system
WO2017195753A1 (en) * 2016-05-13 2017-11-16 コニカミノルタ株式会社 Surveillance system
JPWO2017195755A1 (en) * 2016-05-13 2019-03-22 コニカミノルタ株式会社 Monitoring system
JP7054989B2 (en) * 2016-06-20 2022-04-15 三菱電機株式会社 Monitoring device
JP6758152B2 (en) * 2016-10-19 2020-09-23 三菱電機株式会社 Surveillance image processing device and monitoring device
JP6756448B2 (en) * 2016-12-22 2020-09-16 三菱電機株式会社 Monitoring device
US10942257B2 (en) * 2016-12-31 2021-03-09 Innovusion Ireland Limited 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices
CN110291557B (en) 2017-02-06 2023-06-06 三菱电机株式会社 Monitoring device
CN110537124B (en) * 2017-03-01 2021-12-07 奥斯特公司 Accurate photodetector measurement for LIDAR
US11105925B2 (en) 2017-03-01 2021-08-31 Ouster, Inc. Accurate photo detector measurements for LIDAR
JP7128568B2 (en) * 2017-09-05 2022-08-31 三菱電機株式会社 monitoring device
US11493601B2 (en) 2017-12-22 2022-11-08 Innovusion, Inc. High density LIDAR scanning
WO2020013890A2 (en) 2018-02-23 2020-01-16 Innovusion Ireland Limited Multi-wavelength pulse steering in lidar systems
JP6939658B2 (en) * 2018-03-12 2021-09-22 株式会社デンソーウェーブ Resting object monitoring device
CN112805594A (en) * 2018-10-29 2021-05-14 古野电气株式会社 Target object measuring device and target object measuring method
CN116324335A (en) * 2020-10-20 2023-06-23 索尼半导体解决方案公司 Distance measuring device and distance measuring method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6316283A (en) * 1986-07-08 1988-01-23 Matsushita Seiko Co Ltd Human body detecting device
JP3614256B2 (en) * 1996-10-01 2005-01-26 三菱電機株式会社 Monitoring image processing device
JP2003202373A (en) * 2002-01-07 2003-07-18 Omron Corp System and method for detecting moving object
JP3941790B2 (en) * 2004-04-08 2007-07-04 石川島播磨重工業株式会社 Moving object detection apparatus and method
JP4901128B2 (en) * 2005-05-19 2012-03-21 株式会社ニコン Distance measuring device and distance measuring method
JP4653207B2 (en) * 2008-10-16 2011-03-16 能美防災株式会社 Smoke detector
JP5718139B2 (en) * 2011-04-21 2015-05-13 日野自動車株式会社 Radar device, bus, passenger movement detection method, and program
GB2520232A (en) * 2013-08-06 2015-05-20 Univ Edinburgh Multiple Event Time to Digital Converter

Also Published As

Publication number Publication date
WO2016002776A1 (en) 2016-01-07
JPWO2016002776A1 (en) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6309099B2 (en) Monitoring device
US8139117B2 (en) Image quality analysis with test pattern
KR20190106765A (en) Camera and method of detecting image data
US9305343B2 (en) Observation device and observation method
US20170124418A1 (en) System and a method for the detection of multiple number-plates of moving cars in a series of 2-d images
KR101281260B1 (en) Method and Apparatus for Recognizing Vehicle
US20050194445A1 (en) Method and apparatus for recognizing code
KR20190088089A (en) Apparatus and method for detecting defects on welding surface
JP6435661B2 (en) Object identification system, information processing apparatus, information processing method, and program
JP4389602B2 (en) Object detection apparatus, object detection method, and program
CN112534474A (en) Depth acquisition device, depth acquisition method, and program
CN110431562B (en) Image recognition apparatus
KR20070117681A (en) Apparatus and process for two-stage decoding of high-density optical symbols
JP5229328B2 (en) Character area extraction device, imaging device having character area extraction function, and character area extraction program
EP1014691A2 (en) An image processing system for reducing vertically disposed patterns on images produced by scanning
CN112699697B (en) Code reader and method for reading optical code
JP7062722B2 (en) Specifying the module size of the optical cord
JPWO2018147059A1 (en) Image processing apparatus, image processing method, and program
CN112770100B (en) Image acquisition method, photographic device and computer readable storage medium
JP2017521011A (en) Symbol optical detection method
JP2010060371A (en) Object detection apparatus
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JPH11306348A (en) Method and device for object detection
JP5228926B2 (en) Pedestrian detection device
KR20240023447A (en) Monitoring the scan volume of a 3d scanner

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180313

R150 Certificate of patent or registration of utility model

Ref document number: 6309099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250