JP6965715B2 - Object monitoring device, control method, and control program - Google Patents

Object monitoring device, control method, and control program Download PDF

Info

Publication number
JP6965715B2
JP6965715B2 JP2017238433A JP2017238433A JP6965715B2 JP 6965715 B2 JP6965715 B2 JP 6965715B2 JP 2017238433 A JP2017238433 A JP 2017238433A JP 2017238433 A JP2017238433 A JP 2017238433A JP 6965715 B2 JP6965715 B2 JP 6965715B2
Authority
JP
Japan
Prior art keywords
background data
distance image
volatile memory
monitoring device
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017238433A
Other languages
Japanese (ja)
Other versions
JP2019105545A (en
Inventor
将則 吉澤
秀樹 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017238433A priority Critical patent/JP6965715B2/en
Publication of JP2019105545A publication Critical patent/JP2019105545A/en
Application granted granted Critical
Publication of JP6965715B2 publication Critical patent/JP6965715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、例えばレーザ光等を走査投光して物体を監視する物体監視装置、制御方法、および制御プログラムに関する。 The present invention relates to an object monitoring device, a control method, and a control program for monitoring an object by scanning and projecting, for example, laser light or the like.

監視空間への侵入者等を検出する物体監視装置として、距離画像(距離マップ)を用いるものが提案されている。ここで距離画像とは、画素値として距離情報を有するものである。具体的には、特許文献1に示すように、レーザ光を監視空間へ向けて送出し、その送出から反射光の受光までの時間等から監視空間内の対象物までの距離を計測する物体監視装置が知られている。かかる物体監視装置では、レーザ光の測定媒体の送出方向を順次変えて監視空間内を二次元的に走査することにより、監視空間を向いた複数の方向に関する距離情報を得ることができ、これにより距離画像を形成する。 As an object monitoring device that detects an intruder or the like in a monitoring space, a device that uses a distance image (distance map) has been proposed. Here, the distance image has distance information as a pixel value. Specifically, as shown in Patent Document 1, object monitoring is performed by transmitting a laser beam toward a monitoring space and measuring the distance from the transmission to the reception of reflected light to an object in the monitoring space. The device is known. In such an object monitoring device, distance information regarding a plurality of directions facing the monitoring space can be obtained by sequentially changing the transmission direction of the measurement medium of the laser beam and scanning the inside of the monitoring space two-dimensionally. Form a distance image.

距離画像を用いた物体監視装置では、移動物体が存在しない背景となる背景データ(背景距離マップ)を予め求め、得られた背景画像と、入力された距離画像(現画像)とを比較し、所定値以上距離が変化した画素を抽出して変化領域を求める、いわゆる背景差分法が用いられる。これにより、変化領域の大きさ・形状及び現画像における距離情報に基づいて、移動物体が目的とする検知対象物であるか否かを判定することができる。 In an object monitoring device using a distance image, background data (background distance map) that is a background in which a moving object does not exist is obtained in advance, and the obtained background image is compared with the input distance image (current image). The so-called background subtraction method is used, in which pixels whose distance has changed by a predetermined value or more are extracted to obtain a change region. Thereby, it is possible to determine whether or not the moving object is the target object to be detected based on the size and shape of the changing region and the distance information in the current image.

また、特許文献2では、監視空間に対象物としての車両が無い状態において、ステレオカメラで距離を計測し、背景データを生成している。 Further, in Patent Document 2, the distance is measured by a stereo camera and background data is generated in a state where there is no vehicle as an object in the monitoring space.

特開2005−300259号公報Japanese Unexamined Patent Publication No. 2005-30259 特開2014−74939号公報Japanese Unexamined Patent Publication No. 2014-74939

監視空間の背景データを生成して、背景差分法により、監視空間内への物体の侵入を検知する物体監視装置においては、物体監視装置本体の電源がオフされた場合には、それまで用いていた背景データが失われてしまう。その後、電源をオンしたときに背景データを再び生成しなくてはならないが、その時点で、背景以外の物体が監視空間内に存在すると、その物体も背景として認識され、背景データに含まれてしまうことになる。このような場合、背景データが正しくないために、正確な物体の検知が行えなくなる虞がある。 In the object monitoring device that generates background data of the monitoring space and detects the intrusion of an object into the monitoring space by the background subtraction method, it has been used until then when the power of the object monitoring device itself is turned off. Background data is lost. After that, when the power is turned on, the background data must be generated again, but if an object other than the background exists in the surveillance space at that point, that object is also recognized as the background and is included in the background data. It will end up. In such a case, since the background data is incorrect, there is a risk that accurate object detection cannot be performed.

本発明は、上記事情に鑑みてなされたものであり、予期せずに物体監視装置の電源がオフされた場合であっても、その後の電源オン時に物体の誤検出や検出漏れを未然に防止することを目的とする。 The present invention has been made in view of the above circumstances, and even when the power of the object monitoring device is unexpectedly turned off, false detection of an object or omission of detection is prevented when the power is turned on thereafter. The purpose is to do.

本発明の上記目的は、下記の手段によって達成される。 The above object of the present invention is achieved by the following means.

(1)光束を監視空間内に出射する出射部、および前記監視空間内の対象物から反射した光束を受光する受光部を備えた投受光ユニットと、
前記投受光ユニットによる出射、および受光タイミングに基づいて対象物までの距離を求め、前記監視空間内の距離値の分布を示す距離画像データを生成する距離画像生成部と、
取得した距離画像データに基づいて生成した背景データを保存する不揮発メモリと、
前記背景データと監視時に前記距離画像生成部が生成した前記監視空間内の距離画像データとを比較することで、前記監視空間内の物体を認識する判定部と、を備え、
前記判定部は、電源オン時に前記不揮発メモリから前記背景データを読み出し、読み出した前記背景データと前記距離画像生成部で生成した距離画像データを比較し、比較結果を通知し、
前記不揮発メモリは、少なくとも2つの領域を有し、複数の前記領域のうち2つの前記領域に前記背景データを交互に保存し、
前記判定部は、前記不揮発メモリの2つの前記領域に保存された前記背景データのうち、更新日時が新しい方の背景データを用いて、前記距離画像データとの比較を行う、物体監視装置。
(1) A light emitting / receiving unit provided with an emitting unit that emits a light beam into the monitoring space and a light receiving unit that receives a light beam reflected from an object in the monitoring space.
A distance image generation unit that obtains the distance to an object based on the emission and reception timings of the light emitting and receiving unit and generates distance image data indicating the distribution of distance values in the monitoring space.
A non-volatile memory that stores the background data generated based on the acquired distance image data,
A determination unit that recognizes an object in the monitoring space by comparing the background data with the distance image data in the monitoring space generated by the distance image generation unit during monitoring is provided.
The determination unit reads the background data from the non-volatile memory when the power is turned on, compares the read background data with the distance image data generated by the distance image generation unit, and notifies the comparison result .
The non-volatile memory has at least two areas, and the background data is alternately stored in two of the plurality of areas.
The determination unit is an object monitoring device that compares the background data stored in the two areas of the non-volatile memory with the distance image data by using the background data having the newer update date and time.

(2) 前記判定部は、電源オン時に前記不揮発メモリから前記背景データを読み出し、読み出した前記背景データと前記距離画像生成部で生成した距離画像データを比較し、両者の差異が所定値以下の場合には、前記不揮発メモリから読み出した前記背景データを用いて、前記監視空間内の物体の認識を行い、
前記差異が前記所定値を超える場合には、前記物体監視装置の設置条件が変更されたと判別し、前記通知として警告を発する、上記(1)に記載の物体監視装置。
(2) The determination unit reads the background data from the non-volatile memory when the power is turned on, compares the read background data with the distance image data generated by the distance image generation unit, and the difference between the two is equal to or less than a predetermined value. In this case, the background data read from the non-volatile memory is used to recognize an object in the monitoring space.
The object monitoring device according to (1) above, wherein when the difference exceeds the predetermined value, it is determined that the installation conditions of the object monitoring device have been changed, and a warning is issued as the notification.

(3)前記判定部は、前記警告として、ユーザーに前記背景データの再取得を促す警告を行う、上記(2)に記載の物体監視装置。 (3) The object monitoring device according to (2) above, wherein the determination unit warns the user to reacquire the background data as the warning.

(4)ユーザーから前記背景データを再取得する指示を受け付けることに応じて、
前記判定部は、前記監視空間から得られた現時点での前記距離画像生成部が生成した前記距離画像データに基づいて新たな背景データを生成し、生成した新たな背景データを前記不揮発メモリに保存する、上記(2)または上記(3)に記載の物体監視装置。
(4) In response to receiving an instruction from the user to reacquire the background data
The determination unit generates new background data based on the distance image data generated by the distance image generation unit at the present time obtained from the monitoring space, and stores the generated new background data in the non-volatile memory. The object monitoring device according to (2) or (3) above.

(5) 前記判定部は、前記不揮発メモリから読み出した前記背景データと、前記距離画像生成部で生成した距離画像データの比較として、対象物までの距離に応じて画素群を抽出し、抽出した画素群のサイズが前記所定値を超える場合に、前記物体監視装置の設置条件が変更されたと判別する、上記(2)から上記(4)のいずれか1つに記載の物体監視装置。 (5) The determination unit extracts and extracts a pixel group according to the distance to the object as a comparison between the background data read from the non-volatile memory and the distance image data generated by the distance image generation unit. The object monitoring device according to any one of (2) to (4) above, which determines that the installation conditions of the object monitoring device have been changed when the size of the pixel group exceeds the predetermined value.

(6)前記不揮発メモリは、フラッシュメモリである、上記(1)から上記(5)のいずれか1つに記載の物体監視装置。 (6) The object monitoring device according to any one of (1) to (5) above, wherein the non-volatile memory is a flash memory.

(7)前記判定部は、作動中において、生成した距離画像データに基づいて新たな背景データを生成するとともに、所定の時間間隔で、複数の前記領域のうち2つの前記領域に生成した新たな前記背景データを交互に保存する、上記(6)に記載の物体監視装置。 (7) pre-Symbol judging unit, during operation, generates a new background data on the basis of the generated range image data, at a predetermined time interval, newly generated in two of the regions among the plurality of regions The object monitoring device according to (6) above , which alternately stores the background data.

(8)1つの前記領域に前記背景データを保存する前記時間間隔は、前記物体監視装置の製品保証期間を、前記フラッシュメモリが製品保証する最大書き換え回数で除した時間よりも長い時間間隔に設定している、上記(7)に記載の物体監視装置。 (8) The time interval for storing the background data in one of the areas is set to be longer than the time obtained by dividing the product warranty period of the object monitoring device by the maximum number of rewrites guaranteed by the flash memory. The object monitoring device according to (7) above.

(9)監視空間内の距離画像データを生成する距離画像生成部と、過去に取得した距離画像データに基づいて生成した背景データを保存する不揮発メモリと、を備える物体監視装置における、制御方法であって、
電源オン時に、前記不揮発メモリから前記背景データを読み出すステップ(a)と、
電源がオンされた時に、前記監視空間内に光束を出射し、前記監視空間内の対象物から反射した光束を受光するステップ(b)と、
前記距離画像生成部によって、前記ステップ(b)の出射、および受光タイミングに基づいて対象物までの距離を求め、前記監視空間内の距離画像データを生成するステップ(c)と、
前記ステップ(a)で読み出した前記背景データと、前記ステップ(c)で生成した距離画像データを比較し、比較結果を通知するステップ(d)と、
を含み、
前記不揮発メモリは、少なくとも2つの領域を有し、複数の前記領域のうち2つの前記領域に前記背景データを交互に保存し、
前記ステップ(a)では、前記不揮発メモリの2つの前記領域に保存された前記背景データのうち、更新日時が新しい方の背景データを読み出す、制御方法。
(9) A control method in an object monitoring device including a distance image generation unit that generates distance image data in the monitoring space and a non-volatile memory that stores background data generated based on the distance image data acquired in the past. There,
The step (a) of reading the background data from the non-volatile memory when the power is turned on,
In step (b), when the power is turned on, a light flux is emitted into the monitoring space and the light flux reflected from the object in the monitoring space is received.
The distance image generation unit obtains the distance to the object based on the emission and reception timings of the step (b), and the distance image data in the monitoring space is generated in the step (c).
A step (d) of comparing the background data read in the step (a) with the distance image data generated in the step (c) and notifying the comparison result.
Only including,
The non-volatile memory has at least two areas, and the background data is alternately stored in two of the plurality of areas.
In the step (a), the control method of reading out the background data whose update date and time is newer than the background data stored in the two areas of the non-volatile memory.

10)前記ステップ(d)で比較した結果、前記背景データと距離画像データの差異が所定値以下の場合には、前記不揮発メモリから読み出した前記背景データを用いて、前記監視空間内の物体の認識を行うステップ(e)と、
前記差異が前記所定値を超える場合には、前記物体監視装置の設置条件が変更されたと判別し、前記通知として警告を発するステップ(f)と、をさらに含む、上記()に記載の制御方法。
( 10 ) As a result of comparison in the step (d), when the difference between the background data and the distance image data is equal to or less than a predetermined value, the background data read from the non-volatile memory is used to display an object in the monitoring space. Step (e) to recognize
The control according to (9 ) above, further including a step (f) of determining that the installation conditions of the object monitoring device have been changed and issuing a warning as the notification when the difference exceeds the predetermined value. Method.

11)前記ステップ(f)では、前記警告として、ユーザーに前記背景データの再取得を促す警告を行う、上記(10)に記載の制御方法。 ( 11 ) The control method according to (10 ) above, wherein in the step (f), as the warning, a warning for prompting the user to reacquire the background data is given.

12)ユーザーから前記背景データを再取得する指示を受け付けるステップ(g)と、
前記監視空間から得られた現時点での前記距離画像生成部が生成した前記距離画像データに基づいて新たな背景データを生成し、生成した新たな背景データを前記不揮発メモリに保存するステップ(h)と、
をさらに含む、上記(10)または上記(11)に記載の制御方法。
( 12 ) Step (g) of receiving an instruction to reacquire the background data from the user, and
Step (h) of generating new background data based on the distance image data generated by the distance image generation unit at the present time obtained from the monitoring space, and storing the generated new background data in the non-volatile memory. When,
The control method according to (10 ) or ( 11 ) above, further comprising.

13)前記ステップ(d)では、前記不揮発メモリから読み出した前記背景データと、前記距離画像生成部で生成した距離画像データの比較として、対象物までの距離に応じて画素群を抽出し、抽出した画素群のサイズが前記所定値を超える場合に、前記物体監視装置の設置条件が変更されたと判別する、上記(10)から上記(12)のいずれか1つに記載の制御方法。 ( 13 ) In the step (d), as a comparison between the background data read from the non-volatile memory and the distance image data generated by the distance image generation unit, a pixel group is extracted according to the distance to the object. The control method according to any one of (10 ) to ( 12 ) above, wherein when the size of the extracted pixel group exceeds the predetermined value, it is determined that the installation conditions of the object monitoring device have been changed.

14)上記()から上記(13)のいずれか1つに記載の制御方法をコンピューターに実行させるための制御プログラム。
( 14 ) A control program for causing a computer to execute the control method according to any one of (9 ) to ( 13) above.

本発明に係る、物体監視装置では、電源オン時に不揮発メモリから背景データを読み出し、読み出した背景データと距離画像生成部で生成した距離画像データを比較し、比較結果を通知する。このようにすることで、予期せずに物体監視装置の電源がオフされた場合であっても、その後の電源オン時に物体の誤検出や検出漏れを未然に防止できる。 The object monitoring device according to the present invention reads background data from the non-volatile memory when the power is turned on, compares the read background data with the distance image data generated by the distance image generation unit, and notifies the comparison result. By doing so, even if the power of the object monitoring device is unexpectedly turned off, it is possible to prevent erroneous detection or omission of detection of the object when the power is turned on thereafter.

本実施形態にかかる物体監視装置の主要構成を示すブロック図である。It is a block diagram which shows the main structure of the object monitoring apparatus which concerns on this embodiment. 物体監視装置の投受光ユニットを示す断面図である。It is sectional drawing which shows the light-receiving unit of an object monitoring device. 物体監視装置によって監視空間内を走査する状態を示す模式図である。It is a schematic diagram which shows the state of scanning in the monitoring space by an object monitoring device. 監視空間を側方から見た状態を示す図である。It is a figure which shows the state which looked at the monitoring space from the side. 物体管理装置の電源オン時の比較処理を示すフローチャートである。It is a flowchart which shows the comparison process at the time of power-on of the object management apparatus. 図5に続いて行われる監視空間の監視処理を示すフローチャートである。It is a flowchart which shows the monitoring process of the monitoring space performed following FIG.

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

図1は、本実施形態に係る物体監視装置MDの主要構成を示すブロック図であり、図2は、主に投受光ユニット10を示す断面図である。 FIG. 1 is a block diagram showing a main configuration of an object monitoring device MD according to the present embodiment, and FIG. 2 is a cross-sectional view mainly showing a light emitting / receiving unit 10.

図1、図2に示すように、物体監視装置MDは、投受光ユニット10、制御部20、不揮発メモリ30、発報部40、および入出力部50を備える。 As shown in FIGS. 1 and 2, the object monitoring device MD includes a light emitting / receiving unit 10, a control unit 20, a non-volatile memory 30, a warning unit 40, and an input / output unit 50.

(投受光ユニット10)
図2を参照すると、物体監視装置MDの投受光ユニット10は、半導体レーザLD、コリメートレンズCL、ミラーユニットMU、レンズLS、フォトダイオードPD、およびモーターMT、ならびにこれらの各構成部材を収容する筐体CSを有する。
(Light emitting / receiving unit 10)
Referring to FIG. 2, the light emitting / receiving unit 10 of the object monitoring device MD includes a semiconductor laser LD, a collimating lens CL, a mirror unit MU, a lens LS, a photodiode PD, a motor MT, and a housing for accommodating each of these components. Has body CS.

半導体レーザLDは、パルス状のレーザ光束を出射する。コリメートレンズCLは、半導体レーザLDからの発散光を平行光に変換する。ミラーユニットMUは、コリメートレンズCLで平行とされたレーザ光を、回転するミラー面により監視空間(監視領域)に向かって走査投光すると共に、対象物からの反射光を反射させる。レンズLSは、ミラーユニットMUで反射された対象物からの反射光を集光する。フォトダイオードPDは、レンズLSにより集光された光を受光し、Z方向に並んだ複数の画素を有する。モーターMTはミラーユニットMUを回転駆動する。制御部20(詳細は後述する)は、これらの半導体レーザLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報(距離画像)を求める。制御部20は、後述するようにプログラムをCPUが実行することによって距離画像を求めるが、距離画像生成用の専用ハードウエア回路を備えてもよい。 The semiconductor laser LD emits a pulsed laser luminous flux. The collimating lens CL converts the divergent light from the semiconductor laser LD into parallel light. The mirror unit MU scans and projects the laser beam parallel to the collimating lens CL toward the monitoring space (monitoring area) by the rotating mirror surface, and reflects the reflected light from the object. The lens LS collects the reflected light from the object reflected by the mirror unit MU. The photodiode PD receives the light focused by the lens LS and has a plurality of pixels arranged in the Z direction. The motor MT rotates and drives the mirror unit MU. The control unit 20 (details will be described later) obtains distance information (distance image) according to the time difference between the emission timing of these semiconductor laser LDs and the light receiving timing of the photodiode PD. The control unit 20 obtains a distance image by executing a program by the CPU as described later, but may include a dedicated hardware circuit for generating the distance image.

本実施形態において、半導体レーザLDとコリメートレンズCLとで出射部LPSを構成し、レンズLSとフォトダイオードPDとで受光部RPSを構成する。出射部LPS、受光部RPSの光軸は、ミラーユニットMUの回転軸ROに対して直交していると好ましい。 In the present embodiment, the semiconductor laser LD and the collimating lens CL constitute the exit portion LPS, and the lens LS and the photodiode PD constitute the light receiving portion RPS. It is preferable that the optical axes of the emitting unit LPS and the light receiving unit RPS are orthogonal to the rotation axis RO of the mirror unit MU.

剛体である壁WL等に固定して設置されたボックス状の筐体CSは、上壁CSaと、これに対向する下壁CSbと、上壁CSaと下壁CSbとを連結する側壁CScとを有する。側壁CScの一部に開口CSdが形成され、開口CSdには透明板TRが取り付けられている。 The box-shaped housing CS fixed to a rigid wall WL or the like has an upper wall CSa, a lower wall CSb facing the upper wall CSa, and a side wall CSc connecting the upper wall CSa and the lower wall CSb. Have. An opening CSd is formed in a part of the side wall CSc, and a transparent plate TR is attached to the opening CSd.

ミラーユニットMUは、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面M1、M2を4対(但し4対に限られない)有している。ミラー面M1、M2は、ミラーユニットの形状をした樹脂素材(例えばPC(ポリカーボネイト))の表面に、反射膜を蒸着することにより形成されていると好ましい。 The mirror unit MU has a shape in which two quadrangular pyramids are joined in opposite directions and integrated, that is, four pairs (but not limited to four pairs) of mirror surfaces M1 and M2 tilted in a pair facing direction. ) Have. The mirror surfaces M1 and M2 are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC (polycarbonate)) in the shape of a mirror unit.

ミラーユニットMUは、筐体CSに固定されたモーターMTの軸MTaに連結され、回転駆動されるようになっている。本実施形態では、例えば、壁WLに設置された状態で、軸MTaの軸線(回転軸線)が鉛直方向であるZ方向に延在しており、Z方向に直交するX方向及びY方向によりなすXY平面が水平面となっているが、軸MTaの軸線を鉛直方向に対して傾けても良い。 The mirror unit MU is connected to the shaft MTa of the motor MT fixed to the housing CS and is rotationally driven. In the present embodiment, for example, in a state of being installed on the wall WL, the axis (rotation axis) of the axis MTa extends in the Z direction which is the vertical direction, and is formed by the X direction and the Y direction orthogonal to the Z direction. Although the XY plane is a horizontal plane, the axis of the axis MTa may be tilted with respect to the vertical direction.

次に、物体監視装置MDの対象物検出原理について説明する。図2において、半導体レーザLDからパルス状に間欠的に出射された発散光は、コリメートレンズCLで平行光束に変換され、回転するミラーユニットMUの第1ミラー面M1に入射する。その後、第1ミラー面M1で反射され、更に第2ミラー面M2で反射した後、透明板TRを透過して外部の監視空間に向けて、例えば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、出射されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向を投受光方向という。同一の投受光方向に進行するレーザースポット光は、同一の画素で検出される。 Next, the object detection principle of the object monitoring device MD will be described. In FIG. 2, the divergent light emitted intermittently in a pulse shape from the semiconductor laser LD is converted into a parallel light flux by the collimating lens CL and incident on the first mirror surface M1 of the rotating mirror unit MU. After that, it is reflected by the first mirror surface M1 and further reflected by the second mirror surface M2, and then is scanned and cast as laser spot light having a vertically long rectangular cross section, for example, through the transparent plate TR and directed toward the external monitoring space. Be lit. The direction in which the emitted laser spot light is reflected by the object and returned as reflected light is called the light emitting / receiving direction. Laser spot light traveling in the same light emitting / receiving direction is detected by the same pixel.

図3は、ミラーユニットMUの回転に応じて、出射するレーザースポット光SB(ハッチングで示す)で、物体監視装置MDの監視空間内を走査する状態を示す図である。ここで、ミラーユニットMUの対のミラー(第1ミラー面M1と第2ミラー面M2)の組み合わせにおいて、4対はそれぞれ交差角が異なっている。レーザ光は、回転する第1ミラー面M1と第2ミラー面M2にて、順次反射される。まず1番対の第1ミラー面M1と第2ミラー面M2にて反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の1番上の領域Ln1を水平方向に左から右へと走査される。次に、2番対の第1ミラー面M1と第2ミラー面M2で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の上から2番目の領域Ln2を水平方向に左から右へと走査される。次に、3番対の第1ミラー面M1と第2ミラー面M2で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の上から3番目の領域Ln3を水平方向に左から右へと走査される。次に、4番対の第1ミラー面M1と第2ミラー面で反射したレーザ光は、ミラーユニットMUの回転に応じて、監視空間の最も下の領域Ln4を水平方向に左から右へと走査される。これにより物体監視装置MDが監視可能な監視空間全体の1回の走査が完了する。この領域Ln1〜Ln4の走査により得られた画像を組み合わせて、1つのフレームFLが得られる。そして、ミラーユニットMUが1回転した後、再び1番対の第1ミラー面M1と第2ミラー面M2に戻り、以降は監視空間の1番上の領域Ln1から最も下の領域Ln4までの走査を繰り返し、次のフレームFLが得られる。 FIG. 3 is a diagram showing a state in which the laser spot light SB (shown by hatching) emitted in response to the rotation of the mirror unit MU scans in the monitoring space of the object monitoring device MD. Here, in the combination of the pair of mirrors (first mirror surface M1 and second mirror surface M2) of the mirror unit MU, the four pairs have different crossing angles. The laser beam is sequentially reflected by the rotating first mirror surface M1 and the second mirror surface M2. First, the laser beam reflected by the first pair of first mirror surfaces M1 and the second mirror surface M2 horizontally moves from left to right in the uppermost region Ln1 of the monitoring space according to the rotation of the mirror unit MU. Is scanned. Next, the laser beam reflected by the second pair of the first mirror surface M1 and the second mirror surface M2 horizontally covers the second region Ln2 from the top of the monitoring space from the left in accordance with the rotation of the mirror unit MU. Scanned to the right. Next, the laser beam reflected by the third pair of the first mirror surface M1 and the second mirror surface M2 horizontally covers the third region Ln3 from the top of the monitoring space from the left in accordance with the rotation of the mirror unit MU. Scanned to the right. Next, the laser beam reflected by the 4th pair of the first mirror surface M1 and the second mirror surface horizontally moves from left to right in the lowermost region Ln4 of the monitoring space according to the rotation of the mirror unit MU. It is scanned. This completes one scan of the entire monitoring space that can be monitored by the object monitoring device MD. The images obtained by scanning the regions Ln1 to Ln4 are combined to obtain one frame FL. Then, after the mirror unit MU makes one rotation, the mirror unit MU returns to the first pair of the first mirror surface M1 and the second mirror surface M2 again, and thereafter, scanning from the uppermost region Ln1 of the monitoring space to the lowermost region Ln4. Is repeated to obtain the next frame FL.

図2において、走査投光された光束のうち対象物に当たって反射したレーザ光の一部は、再び透明板TRを透過して筐体CS内のミラーユニットMUの第2ミラー面M2に入射し、ここで反射され、さらに第1ミラー面M1で反射されて、レンズLSにより集光され、それぞれフォトダイオードPDの受光面で画素毎に検知される。さらに、制御部20の処理回路21(後述)が、半導体レーザLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で対象物の検出を行って、画素毎に距離情報を持つ距離画像としてのフレームFL(図3参照)を得ることができる。かかる距離画像は、不図示のネットワーク等を介して遠方のモニタに送信されて表示されたり、また制御部20内のメモリに保存できる。また、後述するように得られた距離画像を背景画像データとして、不揮発メモリ30に保存してもよい。 In FIG. 2, a part of the laser beam reflected by hitting the object among the light beams scanned and projected is transmitted through the transparent plate TR again and incident on the second mirror surface M2 of the mirror unit MU in the housing CS. Here, it is reflected, further reflected by the first mirror surface M1, collected by the lens LS, and detected pixel by pixel on the light receiving surface of the photodiode PD. Further, the processing circuit 21 (described later) of the control unit 20 obtains the distance information according to the time difference between the emission timing of the semiconductor laser LD and the light receiving timing of the photodiode PD. As a result, the object can be detected in the entire area in the monitoring space, and a frame FL (see FIG. 3) as a distance image having distance information for each pixel can be obtained. Such a distance image can be transmitted and displayed on a distant monitor via a network (not shown) or the like, or can be stored in a memory in the control unit 20. Further, the distance image obtained as described later may be stored in the non-volatile memory 30 as background image data.

次に、背景差分法を用いた、物体監視装置MDの監視対象物の検知アルゴリズムについて説明する。図4は、監視空間を側方から見た状態を示す図である。本実施形態で採用する背景差分法では、予め生成し、保存しておいた背景画像(基準画像ともいう)を用いる。具体的には、監視の前準備(前処理)として、図4(a)に示すように、人間や動物等の移動物体が存在しない状態で、物体監視装置MDからレーザースポット光SBを走査する。これにより背景対象物BGから得られた反射光R1に基づいて、背景画像を得ることができる。背景画像の生成手法の詳細については、後述する。 Next, an algorithm for detecting an object to be monitored by the object monitoring device MD using the background subtraction method will be described. FIG. 4 is a diagram showing a state in which the monitoring space is viewed from the side. In the background subtraction method adopted in this embodiment, a background image (also referred to as a reference image) generated and saved in advance is used. Specifically, as a pre-preparation (pre-processing) for monitoring, as shown in FIG. 4A, the laser spot light SB is scanned from the object monitoring device MD in the absence of moving objects such as humans and animals. .. As a result, a background image can be obtained based on the reflected light R1 obtained from the background object BG. The details of the background image generation method will be described later.

実際の監視時においては、図4(b)に示すように、背景対象物BGの手前に侵入者等の物体OBJ(監視対象物)が現れた場合、物体OBJからの反射光R2が新たに生じる。処理回路21は、図4(a)の背景画像と図4(b)の距離画像とを比較して、差が生じた場合、何らかの物体が監視空間内に現れた旨の注意を喚起することができる。また、物体OBJが移動している場合、走査を繰り返して得られるフレームでその位置が変わることから、処理回路21は物体OBJを追跡して、移動方向や速度を求める(動体検出を行う)ことができる。 During actual monitoring, as shown in FIG. 4B, when an object OBJ (monitoring object) such as an intruder appears in front of the background object BG, the reflected light R2 from the object OBJ is newly generated. Occurs. The processing circuit 21 compares the background image of FIG. 4 (a) with the distance image of FIG. 4 (b), and when a difference occurs, calls attention to the fact that some object has appeared in the surveillance space. Can be done. Further, when the object OBJ is moving, its position changes in the frame obtained by repeating the scanning, so that the processing circuit 21 tracks the object OBJ and obtains the moving direction and the speed (performs moving object detection). Can be done.

(制御部20)
図1に示すように、制御部20は、処理回路21、ROM(Read Only Memory)およびRAM(Random Access Memory)で構成される内部メモリ22を含む。処理回路21はCPU(Central Processing Unit)で構成され、ROMに記憶しているプログラムを実行することにより各種の処理を実行する。処理回路21は、距離画像生成部211、判定部212としても機能する。なお、制御部20は組み込みシステムとして、不揮発メモリ30、発報部40、および入出力部50とともに筐体CS内に配置してもよい。
(Control unit 20)
As shown in FIG. 1, the control unit 20 includes an internal memory 22 composed of a processing circuit 21, a ROM (Read Only Memory), and a RAM (Random Access Memory). The processing circuit 21 is composed of a CPU (Central Processing Unit), and executes various processes by executing a program stored in the ROM. The processing circuit 21 also functions as a distance image generation unit 211 and a determination unit 212. The control unit 20 may be arranged in the housing CS together with the non-volatile memory 30, the alarm unit 40, and the input / output unit 50 as an embedded system.

投受光ユニット10は、上述のようにレーザースポット光SBにより物体監視装置MDの監視空間内を走査することで得られた各画素の受光信号を出力する。距離画像生成部211は、この受光信号に基づいて、監視空間内の対象物までの距離値の分布を示す複数の画素で構成される距離画像データ(距離マップ)を生成する。 The light emitting / receiving unit 10 outputs a light receiving signal of each pixel obtained by scanning the monitoring space of the object monitoring device MD with the laser spot light SB as described above. Based on this received signal, the distance image generation unit 211 generates distance image data (distance map) composed of a plurality of pixels showing the distribution of distance values to an object in the monitoring space.

判定部212は、「背景データ」と監視空間内の距離画像データを比較することで、監視対象物を認識する。具体的には、背景差分法を用いて、背景データと、現時点での距離画像データとを比較することで、前景データを抽出する。そして抽出した前景データの画素(画素群)を、例えば画素の距離値に応じてクラスタに分ける。そして、各クラスタのサイズを算定する。例えば、垂直方向寸法、水平方向寸法、総面積等を算出する。なお、ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。例えば、判定部212は算定したサイズが抽出対象の監視対象の物体を特定するための所定のサイズ閾値以下か否か判定する。サイズ閾値は、監視場所や監視対象等により任意に設定できる。人を追跡して監視するのであれば、通常の人の大きさの最小値を、クラスタリングする場合のサイズ閾値とすればよい。逆にあらゆる物体を追跡するのであれば、サイズ閾値はこれよりも小さな値としてもよく、対象物が車両等の大きな物体に限られるのであればサイズ閾値をこれよりも大きな値としてもよい。 The determination unit 212 recognizes the monitored object by comparing the "background data" with the distance image data in the monitoring space. Specifically, the background subtraction method is used to extract the foreground data by comparing the background data with the distance image data at the present time. Then, the pixels (pixel group) of the extracted foreground data are divided into clusters according to, for example, the distance value of the pixels. Then, the size of each cluster is calculated. For example, the vertical dimension, the horizontal dimension, the total area, and the like are calculated. The "size" referred to here is an actual size, and is different from the apparent size (angle of view, that is, the spread of pixels), and a mass of pixel groups is determined according to the distance to the object. For example, the determination unit 212 determines whether or not the calculated size is equal to or less than a predetermined size threshold value for identifying the monitored object to be extracted. The size threshold can be arbitrarily set depending on the monitoring location, the monitoring target, and the like. If a person is to be tracked and monitored, the minimum value of the size of a normal person may be used as the size threshold value for clustering. On the contrary, if all objects are to be tracked, the size threshold value may be a smaller value, and if the object is limited to a large object such as a vehicle, the size threshold value may be a larger value.

なおこのときに用いる「背景データ」は、内部メモリ22(RAM領域)に保存されている。この内部メモリ22に保存されている「背景データ」は、不揮発メモリ30に予め保存されていた「背景データ」、または、投受光ユニット10が生成した1または複数枚のフレームFLに対応する距離画像データに基づいて生成した「背景データ」である。前者の不揮発メモリ30に予め保存されていた「背景データ」については後述する。 The "background data" used at this time is stored in the internal memory 22 (RAM area). The "background data" stored in the internal memory 22 is the "background data" stored in advance in the non-volatile memory 30, or a distance image corresponding to one or a plurality of frame FLs generated by the light emitting / receiving unit 10. It is "background data" generated based on the data. The former "background data" stored in the non-volatile memory 30 in advance will be described later.

後者の距離画像データに基づいて生成した「背景データ」についての生成方法は、公知の種種の手法を取り得る。例えば、第1の方法として、ユーザーの指示に基づいて、何ら障害物や移動体(動体)がない状態、すなわち背景対象物BGのみが存在する監視空間を走査することによって得られた距離画像データをそのまま用いる。または、第2の方法として、複数のフレームFLによって得られた各画素の距離値のうち最小値を当該画素の最大距離値とし、この最大距離値に基づいて生成した合成の距離画像データを「背景データ」として使用する。このようにすることで、(1)雑多画素、(2)エッジ画素、(3)暗色画素による誤認識を防止できる。この(1)雑多画素とは、例えば、対象物(背景対象物)の表面に凹凸があったり、局所的に色が変わったりする等のため反射条件が安定せず、距離値が比較的ばらつく画素のことである。対象物の例としては例えば樹木がある。(2)エッジ画素とは、その奥に他の対象物がある対象物のエッジを走査する場合に、エッジに反射するか、反射しないかにより、手前側と奥側の対象物に応じて、複数のフレームFLにおいて、距離値に2山の分布が生じる画素である。(3)暗色画素は、黒色の壁面の対象物に対してレーザースポット光SBを走査した場合に、照射具合によっては、反射光量が不足して検出できない場合である。この場合、当該画素は、測定不能点として扱われてしまうので距離値が不明確となる。物体監視装置MDが連続作動中に、第2の方法により生成した「背景データ」は、内部メモリ22(RAM領域)に逐次、例えば数十秒から数分毎に保存され、更新される。なお、この更新された「背景データ」は、時間間隔毎、すなわち後述の所定期間Tx(例えば数十分から数時間)が経過する毎に、不揮発メモリ30に保存される。この不揮発メモリ30に保存する処理については後述する。背景データは、内部メモリ22のRAM領域に保存され、物体監視装置MDの電源がオフされることにより消える。 As the generation method for the "background data" generated based on the latter distance image data, a known kind of method can be adopted. For example, as a first method, distance image data obtained by scanning a monitoring space in which there are no obstacles or moving objects (moving objects), that is, in which only a background object BG exists, based on a user's instruction. Is used as it is. Alternatively, as a second method, the minimum value among the distance values of each pixel obtained by the plurality of frame FLs is set as the maximum distance value of the pixel, and the composite distance image data generated based on the maximum distance value is set to ". Used as "background data". By doing so, it is possible to prevent erroneous recognition by (1) miscellaneous pixels, (2) edge pixels, and (3) dark-colored pixels. With this (1) miscellaneous pixels, for example, the surface of the object (background object) is uneven or the color changes locally, so that the reflection conditions are not stable and the distance value varies relatively. It is a pixel. An example of an object is a tree. (2) Edge pixels are, when scanning the edge of an object with another object behind it, depending on whether it is reflected by the edge or not, depending on the object on the front side and the back side. It is a pixel in which a distribution of two peaks occurs in a distance value in a plurality of frame FLs. (3) The dark-colored pixel is a case where the amount of reflected light is insufficient and cannot be detected depending on the irradiation condition when the laser spot light SB is scanned against an object on a black wall surface. In this case, the pixel is treated as an unmeasurable point, and the distance value becomes unclear. While the object monitoring device MD is continuously operating, the "background data" generated by the second method is sequentially stored and updated in the internal memory 22 (RAM area), for example, every several tens of seconds to several minutes. The updated "background data" is stored in the non-volatile memory 30 at each time interval, that is, every time a predetermined period Tx (for example, several tens of minutes to several hours) described later elapses. The process of saving in the non-volatile memory 30 will be described later. The background data is stored in the RAM area of the internal memory 22, and disappears when the power of the object monitoring device MD is turned off.

判定部212は、投受光ユニット10に対して、その作動を制御する制御信号を発信する。また、判定部212は、監視空間内で侵入者を検知した場合、あるいは後述するように背景データの再取得が必要な場合に、発報部40に警告信号を発信する。 The determination unit 212 transmits a control signal for controlling the operation of the light emitting / receiving unit 10 to the light emitting / receiving unit 10. Further, the determination unit 212 transmits a warning signal to the alarm unit 40 when an intruder is detected in the monitoring space or when the background data needs to be reacquired as described later.

不揮発メモリ30は、物体監視装置MDの電源がオフされた後も、そのメモリ領域に記憶しているデータを保持する。本実施形態においては、背景データを記憶しており、このデータは、電源がオフしている間も保持し続ける。不揮発メモリ30としては、例えばフラッシュメモリを適用できる。例えばこのフラッシュメモリ(フラッシュROMともいう)は、1セクター64KB単位で分割されており、1セクター単位で、データ削除処理を行ってから、書込処理を行う。本実施形態では、図1に示すように背景データを保存する領域として、2つの領域A、領域Bを固定で割り当てている。各領域のサイズは、背景データのサイズ、すなわち、1つのフレームFLのデータ量に対応している。例えば1つのフレームFLは、1画素は2Byteの距離データで、縦24×横1000画素のサイズであり、1個の背景データのデータ量は約48kBである。よって、領域A、領域Bには、それぞれ1セクター(64kB)を割り当てている。 The non-volatile memory 30 retains the data stored in the memory area even after the power of the object monitoring device MD is turned off. In the present embodiment, background data is stored, and this data is retained even while the power is turned off. As the non-volatile memory 30, for example, a flash memory can be applied. For example, this flash memory (also referred to as a flash ROM) is divided in units of 64 KB per sector, and data deletion processing is performed in units of one sector, and then writing processing is performed. In the present embodiment, as shown in FIG. 1, two areas A and B are fixedly assigned as areas for storing background data. The size of each area corresponds to the size of the background data, that is, the amount of data in one frame FL. For example, one frame FL has a distance data of 2 bytes for one pixel, a size of 24 pixels in length and 1000 pixels in width, and the amount of data of one background data is about 48 kB. Therefore, one sector (64 kB) is allocated to each of the area A and the area B.

本実施形態では、上述のとおり、所定期間Tx毎にフラッシュメモリに背景データを保存する。この所定期間Txは、装置の耐久性を考慮して設定される。例えばフラッシュメモリが製品保証する最大書き換え回数が10万回であり、物体監視装置MDの寿命(保証期間)が10年の場合、所定期間Txは、10年間×365日×24時間÷10万回=0.876時間、またはこれよりも長い時間に設定する。すなわち、10年間連続で作動する物体監視装置MDにおいて、0.876時間よりも長い期間毎にフラッシュメモリの特定の領域に背景データを保存したとしても、フラッシュメモリは保証回数内での使用になる。 In the present embodiment, as described above, the background data is stored in the flash memory every Tx for a predetermined period. This predetermined period Tx is set in consideration of the durability of the device. For example, if the maximum number of rewrites guaranteed by the flash memory is 100,000 times and the life (warranty period) of the object monitoring device MD is 10 years, the predetermined period Tx is 10 years x 365 days x 24 hours ÷ 100,000 times. = 0.876 hours, or longer. That is, in the object monitoring device MD that operates continuously for 10 years, even if the background data is stored in a specific area of the flash memory every period longer than 0.876 hours, the flash memory is used within the guaranteed number of times. ..

発報部40は、制御部20の判定部212から受信した警告信号に応じて、ユーザーに対して発報する。例えば発報部40は、LED、および/またはスピーカーを備え、LEDの点灯や、警報を鳴らすことでユーザーに、侵入物(侵入者)を検知したことや、背景データの再取得を促す警告を通知する。 The alarm unit 40 issues a warning signal to the user in response to the warning signal received from the determination unit 212 of the control unit 20. For example, the alarm unit 40 is provided with an LED and / or a speaker, and warns the user that an intruder (intruder) has been detected or reacquires background data by lighting the LED or sounding an alarm. Notice.

入出力部50は、ユーザーインターフェースまたはネットワークインターフェースである。入出力部50は、例えばディスプレイ、キーボード、ボタン等を備える。入出力部50は、ユーザーに対して、物体監視装置MDのステイタス情報等の各種情報を表示したり、ユーザーからの背景データの再取得指示を受け付けたりする。なお、発報部40を省略し、入出力部50のディスプレイに再取得を促す警告や、侵入物の存在を示す警告に関する警報情報を表示してもよい。また、入出力部50にネットワークインターフェース機能を持たせ、有線通信(例えばイーサネット(登録商標)、USB(Universal Serial Bus))、または無線通信(例えばBluetooth(登録商標)、IEEE802.11)を通じてユーザーが使用するPC(パーソナルコンピューター)等の端末と通信するように構成し、このPCにこれらの警報情報を送信してもよい。 The input / output unit 50 is a user interface or a network interface. The input / output unit 50 includes, for example, a display, a keyboard, buttons, and the like. The input / output unit 50 displays various information such as status information of the object monitoring device MD to the user, and receives an instruction to reacquire the background data from the user. The alarm unit 40 may be omitted, and a warning prompting reacquisition or a warning indicating the presence of an intruder may be displayed on the display of the input / output unit 50. Further, the input / output unit 50 is provided with a network interface function, and the user can use it through wired communication (for example, Ethernet (registered trademark), USB (Universal Serial Bus)) or wireless communication (for example, Bluetooth (registered trademark), IEEE802.11). It may be configured to communicate with a terminal such as a PC (personal computer) to be used, and these alarm information may be transmitted to this PC.

(物体監視装置MDの制御方法)
以下、図5、6のフローチャートを参照し、物体監視装置MDでの制御方法について説明する。図5は、電源オン時(電源投入時)に物体監視装置MDの制御部20(判定部212)により行われる背景データの比較処理であり、図6は図5に続いて行われる、監視空間の監視処理である。以下に説明するように比較処理では設置条件が変更されたか否かを判別し、監視処理では、この背景データの更新、および不揮発メモリ30への保存(登録)も行う。
(Control method of object monitoring device MD)
Hereinafter, the control method in the object monitoring device MD will be described with reference to the flowcharts of FIGS. 5 and 6. FIG. 5 is a background data comparison process performed by the control unit 20 (determination unit 212) of the object monitoring device MD when the power is turned on (when the power is turned on), and FIG. 6 is a monitoring space performed following FIG. It is a monitoring process of. As described below, in the comparison process, it is determined whether or not the installation conditions have been changed, and in the monitoring process, the background data is updated and saved (registered) in the non-volatile memory 30.

(背景データの比較処理)
(ステップS101)
最初に物体監視装置MDの電源をオンする。この電源オンは、ユーザーにより入出力部50に備わっているハードスイッチが押された場合、または何らかの事情により停電が回復した場合により電力供給が再開した場合に生じる。なお、この時点では、内部メモリ22には背景データは保存されていない(消失している)。
(Comparison processing of background data)
(Step S101)
First, the power of the object monitoring device MD is turned on. This power-on occurs when the user presses the hard switch provided in the input / output unit 50, or when the power supply is restarted when the power failure is restored for some reason. At this point, the background data is not stored (has disappeared) in the internal memory 22.

(ステップS102)
制御部20は、投受光ユニット10に制御信号を送信することにより投受光ユニット10による監視空間へのレーザースポット光SBによる走査が開始される。
(Step S102)
The control unit 20 transmits a control signal to the light emitting / receiving unit 10 to start scanning the monitoring space by the light receiving / receiving unit 10 with the laser spot light SB.

(ステップS103)
制御部20は、不揮発メモリ30に背景データがあるか否かを判断する。不揮発メモリ30に背景データがなければ処理をステップS104に進め、存在すれば処理をステップS111に進める。
(Step S103)
The control unit 20 determines whether or not the non-volatile memory 30 has background data. If there is no background data in the non-volatile memory 30, the process proceeds to step S104, and if it exists, the process proceeds to step S111.

(ステップS104)
この状態では、物体監視装置MDは、装置の最初の使用に相当する。距離画像生成部211は、投受光ユニット10の走査によって得られた受光信号に基づいて、距離画像データを生成する。このとき、監視空間には背景対象物BGのみが存在することが好ましい。
(Step S104)
In this state, the object monitoring device MD corresponds to the first use of the device. The distance image generation unit 211 generates distance image data based on the light receiving signal obtained by scanning the light emitting / receiving unit 10. At this time, it is preferable that only the background object BG exists in the monitoring space.

(ステップS105)
制御部20は、ステップS104で生成した距離画像データをそのまま背景データとして不揮発メモリ30に保存する(登録)。あるいは、最初の数十秒は、侵入者の監視はせずに、上述の第2の方法により、複数のフレームFLの距離画像データに基づいて背景データを生成し、生成した背景データを不揮発メモリ30に保存してもよい。その後、図5の処理を終了し、処理を図6のステップS201に進める。
(Step S105)
The control unit 20 stores (registers) the distance image data generated in step S104 as background data in the non-volatile memory 30 as it is. Alternatively, for the first few tens of seconds, background data is generated based on the distance image data of a plurality of frame FLs by the above-mentioned second method without monitoring the intruder, and the generated background data is stored in the non-volatile memory. It may be stored in 30. After that, the process of FIG. 5 is completed, and the process proceeds to step S201 of FIG.

(ステップS111)
ここでは、制御部20は、不揮発メモリ30に保存されている背景データを読み出す。このとき、不揮発メモリ30の領域A、領域B(図1参照)にそれぞれ背景データが保存されていれば、このうちタイムスタンプ(更新日時)が新しい、すなわち最後に保存された背景データを読み出し、内部メモリ22に保存する。
(Step S111)
Here, the control unit 20 reads out the background data stored in the non-volatile memory 30. At this time, if the background data is saved in the areas A and B (see FIG. 1) of the non-volatile memory 30, the time stamp (update date and time) is new, that is, the last saved background data is read out. It is saved in the internal memory 22.

(ステップS112)
距離画像生成部211は、投受光ユニット10の受光信号から、現時点での距離画像データを生成する。
(Step S112)
The distance image generation unit 211 generates current distance image data from the light receiving signal of the light emitting / receiving unit 10.

(ステップS113)
判定部212は、ステップS111で内部メモリ22に読み出した背景データと、ステップS112で生成した距離画像データを用いて、背景差分法により前景データを抽出し、物体を認識する。この物体の認識は、上述したクラスタリング処理を用いて判断する。具体的には前景データとして抽出した前景データの画素(画素群)をクラスタに分ける。クラスタリング処理した画素群の塊が所定サイズ以上であれば、物体と認識する。
(Step S113)
The determination unit 212 extracts the foreground data by the background subtraction method using the background data read into the internal memory 22 in step S111 and the distance image data generated in step S112, and recognizes the object. The recognition of this object is determined by using the clustering process described above. Specifically, the pixels (pixel group) of the foreground data extracted as the foreground data are divided into clusters. If the clustered pixel group is larger than a predetermined size, it is recognized as an object.

(ステップS114)
判定部212は、認識した物体のサイズ、すなわち、距離画像データと背景データとの差分が所定値以下であるか否かを判断する。所定値以下(YES)であれば図5の処理を終了し、処理を図6のステップS201に進める。この場合は、不揮発メモリ30に保存されていた背景データを利用できるので、以降の処理では、内部メモリ22に読み出した、この背景データを用いて物体の監視処理を行う。一方で所定値を超えていれば(NO)、処理をステップS115に進める。
(Step S114)
The determination unit 212 determines whether or not the size of the recognized object, that is, the difference between the distance image data and the background data is equal to or less than a predetermined value. If it is equal to or less than a predetermined value (YES), the process of FIG. 5 is terminated, and the process proceeds to step S201 of FIG. In this case, since the background data stored in the non-volatile memory 30 can be used, in the subsequent processing, the object monitoring process is performed using the background data read into the internal memory 22. On the other hand, if it exceeds the predetermined value (NO), the process proceeds to step S115.

ここで、ステップS114での所定値以下であるか否かの判断は、例えばステップS113で認識した物体のサイズが、所定値以下であるか否かにより判断する。ここでいう「サイズ」は、上述のように実寸法により判断することが好ましい。すなわち、見た目上の大きさ(画角、すなわち画素の広がり)ではなく、対象物までの距離を考慮して画素群の塊のサイズを判断する。この所定値としては、例えば監視空間が人間を対象として侵入者を監視するのであれば、所定値は、通常の人間が含まれないような大きなサイズに設定する。 Here, the determination as to whether or not the value is equal to or less than the predetermined value in step S114 is determined by, for example, whether or not the size of the object recognized in step S113 is equal to or less than the predetermined value. The "size" referred to here is preferably determined by the actual dimensions as described above. That is, the size of the pixel group block is determined by considering the distance to the object, not the apparent size (angle of view, that is, the spread of pixels). As the predetermined value, for example, if the monitoring space monitors an intruder for a human being, the predetermined value is set to a large size so as not to include a normal human being.

(ステップS115)
判定部212は、投受光ユニット10、すなわち物体監視装置MDの設置条件の変更があったと判別し、ユーザーに警告を通知する。ここで、「設置条件の変更」とは、物体監視装置MD(投受光ユニット10)が移設されたり、投受光ユニット10の向きが変更されたりすることにより、監視空間が変化した場合である。
(Step S115)
The determination unit 212 determines that the installation conditions of the light receiving / receiving unit 10, that is, the object monitoring device MD have been changed, and notifies the user of a warning. Here, the "change of installation conditions" is a case where the monitoring space is changed by relocating the object monitoring device MD (light emitting / receiving unit 10) or changing the direction of the light receiving / receiving unit 10.

この警告は、通知判断部が発報部40に警告信号を送信することにより、ユーザーに背景データの再取得を促す警告を行う。例えば発報部40は、LEDを点滅させる等によりユーザーに背景データの再取得が必要であることを伝える。なお、この再取得を促す警告として、入出力部50を通じて、ユーザーが使用するPCに送信し、PCのディスプレイに文字やマークを表示するようにしてもよい。 In this warning, the notification determination unit sends a warning signal to the alarm unit 40 to warn the user to reacquire the background data. For example, the alarm unit 40 informs the user that the background data needs to be reacquired by blinking the LED or the like. As a warning for prompting the reacquisition, characters and marks may be displayed on the display of the PC by transmitting the warning to the PC used by the user through the input / output unit 50.

(ステップS116)
判定部212は、ユーザーが、入出力部50のボタンを押すこと等より、ユーザーから再取得指示を受け付けた場合(YES)、処理を次に進める。
(Step S116)
When the user receives a reacquisition instruction from the user by pressing a button of the input / output unit 50 or the like, the determination unit 212 proceeds with the process.

(ステップS117)
ここでは、新たに距離画像生成部211が生成した1または複数の距離画像データに基づいて、判定部212が背景データを生成し、内部メモリ22に保存する。そしてこの再取得した背景データを、不揮発メモリ30にも保存(登録)する。そして、図5の処理を終了し、処理を図6のステップS201に進め、以下に示すように内部メモリ22に存在する再取得した背景データを用いて監視処理を行う。
(Step S117)
Here, the determination unit 212 generates background data based on one or a plurality of distance image data newly generated by the distance image generation unit 211, and stores the background data in the internal memory 22. Then, the reacquired background data is also stored (registered) in the non-volatile memory 30. Then, the process of FIG. 5 is completed, the process proceeds to step S201 of FIG. 6, and the monitoring process is performed using the reacquired background data existing in the internal memory 22 as shown below.

(侵入物の監視処理、および背景データの登録)
(ステップS201)
図6のステップS201では、投受光ユニット10の走査によって得られた受光信号に基づいて、距離画像生成部211は、新たに距離画像データを生成する。
(Intrusion monitoring process and background data registration)
(Step S201)
In step S201 of FIG. 6, the distance image generation unit 211 newly generates distance image data based on the light receiving signal obtained by scanning the light emitting / receiving unit 10.

(ステップS202)
判定部212は、内部メモリ22に保存されている背景データと、ステップS201で生成した距離画像データを用いて、背景差分法により前景データを抽出し、物体を検知する。この物体の検知は、上述したクラスタリング処理を用いて判断する。具体的には前景データとして抽出した前景データの画素(画素群)をクラスタに分ける。クラスタリング処理した画素群の塊が監視対象物に応じた所定サイズ以上であれば、物体と検知する。
(Step S202)
The determination unit 212 extracts the foreground data by the background subtraction method using the background data stored in the internal memory 22 and the distance image data generated in step S201, and detects an object. The detection of this object is determined by using the clustering process described above. Specifically, the pixels (pixel group) of the foreground data extracted as the foreground data are divided into clusters. If the clustered pixel group is larger than a predetermined size according to the object to be monitored, it is detected as an object.

(ステップS203)
判定部212は、ステップS203で監視対象物に応じたサイズの物体が検知された場合、侵入物があると判断し(YES)、処理をステップS204に進める。一方で侵入物がないと判断した場合(NO)、処理をステップS205に進める。
(Step S203)
When the determination unit 212 detects an object of a size corresponding to the monitored object in step S203, it determines that there is an intruder (YES), and proceeds to the process in step S204. On the other hand, if it is determined that there is no intruder (NO), the process proceeds to step S205.

(ステップS204)
判定部212は、監視空間内に侵入物(侵入者)があると判断し、発報部40に警告信号を送信する。発報部40は受信した警告信号に基づいてユーザーに発報する。
(Step S204)
The determination unit 212 determines that there is an intruder (intruder) in the monitoring space, and transmits a warning signal to the alarm unit 40. The alarm unit 40 issues an alarm to the user based on the received warning signal.

(ステップS205)
監視空間内に侵入物がない場合、ステップS201で得られた距離画像データを用いて内部メモリ22に保存されている背景データを更新する。この背景データの更新は、最新の距離画像データで置き換えてもよく、直前の背景データと平均化処理したり、ある重み付け係数を乗じてから加算してもよい。
(Step S205)
When there is no intruder in the monitoring space, the background data stored in the internal memory 22 is updated using the distance image data obtained in step S201. This background data update may be replaced with the latest distance image data, may be averaged with the immediately preceding background data, or may be added after being multiplied by a certain weighting coefficient.

(ステップS206)
直前に不揮発メモリ30に背景データを保存した時刻から、または電源をオンした時刻から所定期間Txが経過していれば(YES)、処理をステップS207に進める。一方で所定期間Txが経過していなければ(NO)、処理を終了し(エンド)、以降はステップS201からの処理を繰り返す。この所定期間Txは、数十分から数時間であり、上述のように物体監視装置MDの保証期間、およびフラッシュメモリで保証された最大書き換え回数に応じた期間である。
(Step S206)
If the predetermined period Tx has elapsed from the time when the background data was saved in the non-volatile memory 30 immediately before or the time when the power was turned on (YES), the process proceeds to step S207. On the other hand, if Tx has not elapsed for a predetermined period (NO), the process is terminated (end), and thereafter, the process from step S201 is repeated. This predetermined period Tx is several tens of minutes to several hours, and is a period corresponding to the warranty period of the object monitoring device MD and the maximum number of rewrites guaranteed by the flash memory as described above.

(ステップS207)
内部メモリ22に保存されている背景データを不揮発メモリ30に保存(更新)する。このとき、不揮発メモリ30の領域A、領域Bに交互に保存する。具体的には不揮発メモリ30の両方の領域に、既に過去の背景データが保存されている場合には、タイムスタンプが古い方の背景データが保存されている領域に、現時点で内部メモリ22に保存されている背景データを上書き保存(更新)する。その後、処理を終了する。監視空間への侵入物の監視を継続するのであれば、ステップS201以降の処理を繰り返す。
(Step S207)
The background data stored in the internal memory 22 is stored (updated) in the non-volatile memory 30. At this time, the non-volatile memory 30 is alternately stored in the areas A and B. Specifically, when the past background data is already saved in both areas of the non-volatile memory 30, it is saved in the internal memory 22 at present in the area where the background data with the older time stamp is saved. Overwrite (update) the background data that has been created. After that, the process ends. If the monitoring of the intruder into the monitoring space is to be continued, the processes after step S201 are repeated.

このように本実施形態においては、予期せずに物体監視装置の電源がオフされた場合であっても、図5に示したように、その後の電源オン時に不揮発メモリ30から前記背景データを読み出し、読み出した背景データと距離画像生成部211で生成した距離画像データを比較し、比較結果を通知する。このようにすることで、物体の誤検出や検出漏れを防止できる。特に、このときの背景データと距離画像データの差異が所定値を超える場合には、ユーザーに警告を通知し、背景データの再取得を促すので、適切でない背景データを用いた、物体の誤検出や検出漏れを生じさせる監視処理が行われるのを未然に防止できる。また差異が所定値以下である場合には、背景データをそのまま用いても問題ないので、特段の操作を必要とせず、ユーザーの手を煩わせずに継続して監視空間内での物体の監視を行える。 As described above, in the present embodiment, even when the power of the object monitoring device is unexpectedly turned off, as shown in FIG. 5, the background data is read from the non-volatile memory 30 when the power is turned on thereafter. , The read background data is compared with the distance image data generated by the distance image generation unit 211, and the comparison result is notified. By doing so, it is possible to prevent erroneous detection of an object and omission of detection. In particular, if the difference between the background data and the distance image data at this time exceeds a predetermined value, a warning is notified to the user and the background data is urged to be reacquired. It is possible to prevent the monitoring process that causes omission of detection from being performed. If the difference is less than or equal to the predetermined value, the background data can be used as it is, so no special operation is required and the object is continuously monitored in the monitoring space without bothering the user. Can be done.

また、図6に示したように、連続して監視処理をする際に、所定期間Txが経過する毎に、背景データを不揮発メモリ30に保存することで、不揮発メモリ30にはある程度新しい背景データを保存し続けることができる。また、所定期間Txを物体監視装置MDの保証期間、およびフラッシュメモリ(不揮発メモリ30)で保証された最大書き換え回数によって、適切に設定することで、不揮発メモリ30に保存した背景データの読み取り不良等の不具合が生じることを未然に防げる。 Further, as shown in FIG. 6, when the continuous monitoring process is performed, the background data is stored in the non-volatile memory 30 every time Tx elapses for a predetermined period, so that the non-volatile memory 30 has some new background data. Can continue to be saved. Further, by appropriately setting the predetermined period Tx according to the warranty period of the object monitoring device MD and the maximum number of rewrites guaranteed by the flash memory (nonvolatile memory 30), the background data stored in the non-volatile memory 30 may not be read properly. It is possible to prevent the trouble of the above from occurring.

以上に説明した物体監視装置の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な物体監視装置が備える構成を排除するものではない。 The configuration of the object monitoring device described above is the main configuration described in explaining the features of the above-described embodiment, and is not limited to the above-mentioned configuration and can be variously modified within the scope of the claims. .. Further, the configuration provided in the general object monitoring device is not excluded.

例えば、図5のステップS113、S114の処理では、認識した物体のサイズが、所定値以下であるか否かにより、投受光ユニットの設置条件が変更され、背景データの再取得が必要か否かを判断した。しかしながらこれに限られず、クラスタリング処理後の画素群の塊が一定以上のサイズである物体の個数または、この物体の総量(総面積)に応じて、設置条件が変更されたか否かを判断してもよい。さらに、また、このステップS113、S114の処理においては、距離値がマイナス、すなわち背景データよりも、より遠くの方に対象物が存在する場合も考慮して判断してもよい。一般に、背景差分法では、マイナスの値となった場合では、誤検知抑制のために、対象物検知アルゴリズム上、その検知結果を無視するが、ここではマイナスの距離値を無視しなくてもよい。例えば、多くの画素で、マイナスの距離値を示し、このマイナスの画素値をクラスタリング処理した塊が一定以上のサイズの場合にも、所定値を超えると判断する。 For example, in the processing of steps S113 and S114 of FIG. 5, the installation condition of the light emitting / receiving unit is changed depending on whether or not the size of the recognized object is equal to or less than a predetermined value, and whether or not the background data needs to be reacquired. Judged. However, the present invention is not limited to this, and it is determined whether or not the installation conditions have been changed according to the number of objects in which the cluster of pixel groups after the clustering process has a certain size or more, or the total amount (total area) of these objects. May be good. Furthermore, in the processing of steps S113 and S114, the determination may be made in consideration of the case where the distance value is negative, that is, the object exists farther than the background data. Generally, in the background subtraction method, when a negative value is obtained, the detection result is ignored in the object detection algorithm in order to suppress false detection, but the negative distance value does not have to be ignored here. .. For example, many pixels show a negative distance value, and even when a mass obtained by clustering the negative pixel values has a size of a certain size or more, it is determined that the value exceeds a predetermined value.

上述した実施形態に係る画像形成装置における各種処理を行う手段および方法は、専用のハードウエア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、たとえば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、物体監視装置の一機能としてその装置のソフトウエアに組み込まれてもよい。 The means and methods for performing various processes in the image forming apparatus according to the above-described embodiment can be realized by either a dedicated hardware circuit or a programmed computer. The program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versail Disc) -ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred and stored in a storage unit such as a hard disk. Further, the above program may be provided as a single application software, or may be incorporated into the software of the device as a function of the object monitoring device.

MD 物体監視装置
10 投受光ユニット
MU ミラーユニット
MT モーター
PD フォトダイオード
LPS 出射部
RPS 受光部
TR 透明板
CS 筐体
20 制御部
21 処理回路
211 距離画像生成部
212 判定部
22 内部メモリ
30 不揮発メモリ
40 発報部
50 入出力部
BG 背景対象物
FL フレーム
WL 壁
OBJ 物体(侵入物)
MD Object monitoring device 10 MU mirror unit MT motor PD photodiode LPS output unit RPS light receiving unit TR transparent plate CS housing 20 Control unit 21 Processing circuit 211 Distance image generator 212 Judgment unit 22 Internal memory 30 Non-volatile memory 40 Information part 50 Input / output part BG Background object FL frame WL wall OBJ Object (intruder)

Claims (14)

光束を監視空間内に出射する出射部、および前記監視空間内の対象物から反射した光束を受光する受光部を備えた投受光ユニットと、
前記投受光ユニットによる出射、および受光タイミングに基づいて対象物までの距離を求め、前記監視空間内の距離値の分布を示す距離画像データを生成する距離画像生成部と、
取得した距離画像データに基づいて生成した背景データを保存する不揮発メモリと、
前記背景データと監視時に前記距離画像生成部が生成した前記監視空間内の距離画像データとを比較することで、前記監視空間内の物体を認識する判定部と、を備え、
前記判定部は、電源オン時に前記不揮発メモリから前記背景データを読み出し、読み出した前記背景データと前記距離画像生成部で生成した距離画像データを比較し、比較結果を通知し、
前記不揮発メモリは、少なくとも2つの領域を有し、複数の前記領域のうち2つの前記領域に前記背景データを交互に保存し、
前記判定部は、前記不揮発メモリの2つの前記領域に保存された前記背景データのうち、更新日時が新しい方の背景データを用いて、前記距離画像データとの比較を行う、物体監視装置。
A light emitting / receiving unit provided with an emitting unit that emits a light beam into the monitoring space and a light receiving unit that receives a light beam reflected from an object in the monitoring space.
A distance image generation unit that obtains the distance to an object based on the emission and reception timings of the light emitting and receiving unit and generates distance image data indicating the distribution of distance values in the monitoring space.
A non-volatile memory that stores the background data generated based on the acquired distance image data,
A determination unit that recognizes an object in the monitoring space by comparing the background data with the distance image data in the monitoring space generated by the distance image generation unit during monitoring is provided.
The determination unit reads the background data from the non-volatile memory when the power is turned on, compares the read background data with the distance image data generated by the distance image generation unit, and notifies the comparison result .
The non-volatile memory has at least two areas, and the background data is alternately stored in two of the plurality of areas.
The determination unit is an object monitoring device that compares the background data stored in the two areas of the non-volatile memory with the distance image data by using the background data having the newer update date and time.
前記判定部は、電源オン時に前記不揮発メモリから前記背景データを読み出し、読み出した前記背景データと前記距離画像生成部で生成した距離画像データを比較し、両者の差異が所定値以下の場合には、前記不揮発メモリから読み出した前記背景データを用いて、前記監視空間内の物体の認識を行い、
前記差異が前記所定値を超える場合には、前記物体監視装置の設置条件が変更されたと判別し、前記通知として警告を発する、請求項1に記載の物体監視装置。
The determination unit reads the background data from the non-volatile memory when the power is turned on, compares the read background data with the distance image data generated by the distance image generation unit, and if the difference between the two is equal to or less than a predetermined value. Using the background data read from the non-volatile memory, the object in the monitoring space is recognized.
The object monitoring device according to claim 1, wherein when the difference exceeds the predetermined value, it is determined that the installation conditions of the object monitoring device have been changed, and a warning is issued as the notification.
前記判定部は、前記警告として、ユーザーに前記背景データの再取得を促す警告を行う、請求項2に記載の物体監視装置。 The object monitoring device according to claim 2, wherein the determination unit warns the user to reacquire the background data as the warning. ユーザーから前記背景データを再取得する指示を受け付けることに応じて、
前記判定部は、前記監視空間から得られた現時点での前記距離画像生成部が生成した前記距離画像データに基づいて新たな背景データを生成し、生成した新たな背景データを前記不揮発メモリに保存する、請求項2または請求項3に記載の物体監視装置。
In response to receiving an instruction from the user to reacquire the background data
The determination unit generates new background data based on the distance image data generated by the distance image generation unit at the present time obtained from the monitoring space, and stores the generated new background data in the non-volatile memory. The object monitoring device according to claim 2 or 3.
前記判定部は、前記不揮発メモリから読み出した前記背景データと、前記距離画像生成部で生成した距離画像データの比較として、対象物までの距離に応じて画素群を抽出し、抽出した画素群のサイズが前記所定値を超える場合に、前記物体監視装置の設置条件が変更されたと判別する、請求項2から請求項4のいずれか1つに記載の物体監視装置。 The determination unit extracts a pixel group according to the distance to the object as a comparison between the background data read from the non-volatile memory and the distance image data generated by the distance image generation unit, and the extracted pixel group The object monitoring device according to any one of claims 2 to 4, wherein it is determined that the installation conditions of the object monitoring device have been changed when the size exceeds the predetermined value. 前記不揮発メモリは、フラッシュメモリである、請求項1から請求項5のいずれか1つに記載の物体監視装置。 The object monitoring device according to any one of claims 1 to 5, wherein the non-volatile memory is a flash memory. 記判定部は、作動中において、生成した距離画像データに基づいて新たな背景データを生成するとともに、所定の時間間隔で、複数の前記領域のうち2つの前記領域に生成した新たな前記背景データを交互に保存する、
請求項6に記載の物体監視装置。
Prior Symbol judging unit, during operation, generates a new background data on the basis of the generated range image data, at a predetermined time interval, a new piece of the background generated in two of the regions among the plurality of regions Save data alternately ,
The object monitoring device according to claim 6.
1つの前記領域に前記背景データを保存する前記時間間隔は、前記物体監視装置の製品保証期間を、前記フラッシュメモリが製品保証する最大書き換え回数で除した時間よりも長い時間間隔に設定している、請求項7に記載の物体監視装置。 The time interval for storing the background data in one of the areas is set to be longer than the time obtained by dividing the product warranty period of the object monitoring device by the maximum number of rewrites guaranteed by the flash memory. , The object monitoring device according to claim 7. 監視空間内の距離画像データを生成する距離画像生成部と、過去に取得した距離画像データに基づいて生成した背景データを保存する不揮発メモリと、を備える物体監視装置における、制御方法であって、
電源オン時に、前記不揮発メモリから前記背景データを読み出すステップ(a)と、
電源がオンされた時に、前記監視空間内に光束を出射し、前記監視空間内の対象物から反射した光束を受光するステップ(b)と、
前記距離画像生成部によって、前記ステップ(b)の出射、および受光タイミングに基づいて対象物までの距離を求め、前記監視空間内の距離画像データを生成するステップ(c)と、
前記ステップ(a)で読み出した前記背景データと、前記ステップ(c)で生成した距離画像データを比較し、比較結果を通知するステップ(d)と、
を含み、
前記不揮発メモリは、少なくとも2つの領域を有し、複数の前記領域のうち2つの前記領域に前記背景データを交互に保存し、
前記ステップ(a)では、前記不揮発メモリの2つの前記領域に保存された前記背景データのうち、更新日時が新しい方の背景データを読み出す、制御方法。
A control method in an object monitoring device including a distance image generator that generates distance image data in a surveillance space and a non-volatile memory that stores background data generated based on distance image data acquired in the past.
The step (a) of reading the background data from the non-volatile memory when the power is turned on,
In step (b), when the power is turned on, a light flux is emitted into the monitoring space and the light flux reflected from the object in the monitoring space is received.
The distance image generation unit obtains the distance to the object based on the emission and reception timings of the step (b), and the distance image data in the monitoring space is generated in the step (c).
A step (d) of comparing the background data read in the step (a) with the distance image data generated in the step (c) and notifying the comparison result.
Only including,
The non-volatile memory has at least two areas, and the background data is alternately stored in two of the plurality of areas.
In the step (a), the control method of reading out the background data whose update date and time is newer than the background data stored in the two areas of the non-volatile memory.
前記ステップ(d)で比較した結果、前記背景データと距離画像データの差異が所定値以下の場合には、前記不揮発メモリから読み出した前記背景データを用いて、前記監視空間内の物体の認識を行うステップ(e)と、
前記差異が前記所定値を超える場合には、前記物体監視装置の設置条件が変更されたと判別し、前記通知として警告を発するステップ(f)と、をさらに含む、請求項に記載の制御方法。
As a result of comparison in step (d), when the difference between the background data and the distance image data is equal to or less than a predetermined value, the background data read from the non-volatile memory is used to recognize an object in the monitoring space. Step (e) to be performed and
The control method according to claim 9 , further comprising a step (f) of determining that the installation conditions of the object monitoring device have been changed and issuing a warning as the notification when the difference exceeds the predetermined value. ..
前記ステップ(f)では、前記警告として、ユーザーに前記背景データの再取得を促す警告を行う、請求項10に記載の制御方法。 The control method according to claim 10 , wherein in step (f), as the warning, a warning is given to the user to reacquire the background data. ユーザーから前記背景データを再取得する指示を受け付けるステップ(g)と、
前記監視空間から得られた現時点での前記距離画像生成部が生成した前記距離画像データに基づいて新たな背景データを生成し、生成した新たな背景データを前記不揮発メモリに保存するステップ(h)と、
をさらに含む、請求項10または請求項11に記載の制御方法。
Step (g) of receiving an instruction to reacquire the background data from the user, and
Step (h) of generating new background data based on the distance image data generated by the distance image generation unit at the present time obtained from the monitoring space, and storing the generated new background data in the non-volatile memory. When,
10. The control method according to claim 10 or 11.
前記ステップ(d)では、前記不揮発メモリから読み出した前記背景データと、前記距離画像生成部で生成した距離画像データの比較として、対象物までの距離に応じて画素群を抽出し、抽出した画素群のサイズが前記所定値を超える場合に、前記物体監視装置の設置条件が変更されたと判別する、請求項10から請求項12のいずれか1つに記載の制御方法。 In the step (d), as a comparison between the background data read from the non-volatile memory and the distance image data generated by the distance image generation unit, a pixel group is extracted according to the distance to the object, and the extracted pixels. The control method according to any one of claims 10 to 12 , wherein when the size of the group exceeds the predetermined value, it is determined that the installation conditions of the object monitoring device have been changed. 請求項から請求項13のいずれか1つに記載の制御方法をコンピューターに実行させるための制御プログラム。 A control program for causing a computer to execute the control method according to any one of claims 9 to 13.
JP2017238433A 2017-12-13 2017-12-13 Object monitoring device, control method, and control program Active JP6965715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017238433A JP6965715B2 (en) 2017-12-13 2017-12-13 Object monitoring device, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238433A JP6965715B2 (en) 2017-12-13 2017-12-13 Object monitoring device, control method, and control program

Publications (2)

Publication Number Publication Date
JP2019105545A JP2019105545A (en) 2019-06-27
JP6965715B2 true JP6965715B2 (en) 2021-11-10

Family

ID=67061139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238433A Active JP6965715B2 (en) 2017-12-13 2017-12-13 Object monitoring device, control method, and control program

Country Status (1)

Country Link
JP (1) JP6965715B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266841A (en) * 1993-03-12 1994-09-22 Matsushita Electric Ind Co Ltd Object recognizing device
JP2742515B2 (en) * 1994-12-28 1998-04-22 株式会社エフ・エム・ティ Image monitoring device
JP5061843B2 (en) * 2007-10-22 2012-10-31 株式会社明電舎 Intruder detection device
JP5781174B2 (en) * 2014-02-17 2015-09-16 セコム株式会社 Monitoring sensor

Also Published As

Publication number Publication date
JP2019105545A (en) 2019-06-27

Similar Documents

Publication Publication Date Title
US10591602B2 (en) Object detector and sensor
US10371817B2 (en) Object detecting apparatus
JP6292534B2 (en) Object detection device and sensing device
JP4460782B2 (en) Intrusion monitoring device
US11380177B2 (en) Monitoring camera and detection method
JP2007533966A5 (en)
CN105306912A (en) Intelligent cat-eye system triggering shooting based on luminous intensity and distance detection
US20220246005A1 (en) Security cameras with thermal imaging sensors
CN104919334A (en) Universal sensor assembly for detecting operator gestures in vehicles
JP7128577B2 (en) monitoring device
JP2017090408A (en) Window contamination discrimination device, window contamination discrimination method and window contamination discrimination program
JP2024072823A (en) Information processing device, control method, program, and storage medium
WO2020105527A1 (en) Image analysis device, image analysis system, and control program
JP5761942B2 (en) Object detection sensor
JP6965715B2 (en) Object monitoring device, control method, and control program
US8791811B2 (en) System and method of changing vehicle color according to risk
EP4232336A1 (en) Enhanced sensor health and regression testing for vehicles
JP6863035B2 (en) Intrusion monitoring methods, intrusion monitoring programs, and intrusion monitoring devices
JP6988797B2 (en) Monitoring system
JP2017215642A (en) Monitoring system
JP5781174B2 (en) Monitoring sensor
JP7020096B2 (en) Object detection device, control method of object detection device, and control program of object detection device
JP6342169B2 (en) Object detection sensor and program
JP2012048382A (en) Complex sensor
JP6694746B2 (en) Object detection sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R150 Certificate of patent or registration of utility model

Ref document number: 6965715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150