JP2005341450A - Sensing apparatus - Google Patents

Sensing apparatus Download PDF

Info

Publication number
JP2005341450A
JP2005341450A JP2004160448A JP2004160448A JP2005341450A JP 2005341450 A JP2005341450 A JP 2005341450A JP 2004160448 A JP2004160448 A JP 2004160448A JP 2004160448 A JP2004160448 A JP 2004160448A JP 2005341450 A JP2005341450 A JP 2005341450A
Authority
JP
Japan
Prior art keywords
image
intruder
area
region
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004160448A
Other languages
Japanese (ja)
Other versions
JP4509654B2 (en
Inventor
Koichi Oza
幸一 尾坐
Kiyoto Fujii
清人 藤井
Masafumi Otsu
全史 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2004160448A priority Critical patent/JP4509654B2/en
Publication of JP2005341450A publication Critical patent/JP2005341450A/en
Application granted granted Critical
Publication of JP4509654B2 publication Critical patent/JP4509654B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sensing apparatus in which certainty in invader detection is improved. <P>SOLUTION: A sensing apparatus comprises an imaging section 10 for acquiring a picked-up image resulting from imaging a monitoring target space; a transmitting/receiving section 14 for sending a sonic wave to the monitoring target space and receiving a sonic wave from the monitoring target space as an acoustic signal; an image processing section 12 for extracting a variable area from a differential image that is a differential between the picked-up image and a reference background image; and an information processing section 20 for dividing the variable area into image areas of size may be obtained if an invader is present at a position of a real space corresponding to the variable area, when a peak corresponding to an object existing at the position of the real space corresponding to the variable area is present in an acoustic signal received by the transmitting/receiving section 14, and for detecting the invader based on a predetermined image feature amount for each of the divided areas. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像情報及び音響情報に基づいて侵入者の検出を行うセンシング装置に関する。   The present invention relates to a sensing device that detects an intruder based on image information and acoustic information.

近年、監視空間に侵入した侵入者等を検出するセキュリティシステムが広く使用されている。このようなセキュリティシステムで使用されるセンシング装置としては、画像センサ等の撮像装置で取得された画像を用いて侵入者等を検出するものがある。このような画像を用いたセンシング装置には、基準となる背景画像を記録しておき、時々刻々と撮像される撮像画像と背景画像との差分画像に基づいて侵入者を検出する方法や、撮像画像間における差分画像に基づいて侵入者を検出する方法がある。   In recent years, security systems that detect intruders or the like that have entered a monitoring space have been widely used. As a sensing device used in such a security system, there is one that detects an intruder or the like using an image acquired by an imaging device such as an image sensor. In a sensing device using such an image, a reference background image is recorded, and a method for detecting an intruder based on a difference image between a captured image and a background image captured every moment, There is a method for detecting an intruder based on a difference image between images.

例えば、特開平3−97080号公報には、撮像画像と背景画像との輝度の差分画像を生成し、その差分値が所定の閾値以上である画素を変動画素として抽出し、連続する変動画素の個数が所定の判定値以上である場合に、変動画素で構成される変動領域を侵入者であると判定し、警報駆動信号を出力する技術が開示されている。さらに、複数の撮像画像間で変動領域を対応付けて、その移動状態を追跡(トラッキング)することによって、物体の移動距離や移動速度を算出し、これらの値に基づいて侵入者を検出する方法も用いられている。   For example, in Japanese Patent Laid-Open No. 3-97080, a difference image of luminance between a captured image and a background image is generated, pixels whose difference values are equal to or greater than a predetermined threshold are extracted as variation pixels, and continuous variation pixels are extracted. A technique is disclosed in which, when the number is equal to or greater than a predetermined determination value, it is determined that a changing area constituted by changing pixels is an intruder and an alarm driving signal is output. Further, a method of calculating a moving distance and a moving speed of an object by associating a fluctuating region between a plurality of captured images and tracking (tracking) the moving state, and detecting an intruder based on these values Are also used.

特開平3−97080号公報Japanese Patent Laid-Open No. 3-97080

従来の画像センサを用いた侵入者検出では、侵入者以外の光や影も撮像画像に写し込まれ、その画像領域が移動した場合にも侵入者として検出してしまい、誤報となることがあった。これを回避するために、基準となる背景画像と撮像画像との相関や変動領域のエッジの保存変化度合い等のテクスチャの類似度や変化度を利用して光や影と侵入者とを区別する方法が用いられている。   With intruder detection using conventional image sensors, light and shadows other than the intruder are also captured in the captured image, and even if the image area moves, it may be detected as an intruder, which may be falsely reported. It was. In order to avoid this, light and shadow are distinguished from intruders using the degree of similarity and change of texture such as the correlation between the reference background image and the captured image and the degree of preservation and change of the edge of the fluctuation region. The method is used.

しかしながら、図14に示すように、侵入者50が光の領域52に含まれて撮像されている場合や、図15に示すように、侵入者50と侵入者の影54とが接触して撮像されている場合には上記方法でも光や影と侵入者とを区別することが困難であるという問題があった。   However, as shown in FIG. 14, when the intruder 50 is captured while being included in the light region 52, or as shown in FIG. 15, the intruder 50 and the intruder's shadow 54 are in contact with each other and imaged. In such a case, there is a problem that it is difficult to distinguish light or shadow from an intruder even by the above method.

本発明は、上記従来技術の問題を鑑み、侵入者の検出確度を高めたセンシング装置を提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to provide a sensing device with improved intruder detection accuracy.

本発明は、監視対象空間を撮像した撮像画像を取得する撮像部と、前記監視対象空間に音波を送出すると共に、前記監視対象空間から音波を音響信号として受信する送受信部と、を備え、前記撮像部で取得された撮像画像と前記送受信部において受信された音響信号とに基づいて前記監視対象空間内の侵入者を検出するセンシング装置であって、撮像画像と基準となる背景画像との差分である差分画像、に基づいて撮像画像に含まれる変動領域を抽出する画像処理部と、前記変動領域に対応する実空間の位置に存在する物体、に対応する信号が前記送受信部において受信された音響信号に存在するか否かを判定し、前記変動領域に対応する実空間の位置に存在する物体、に対応する信号が前記送受信部において受信された音響信号に存在すると判断された場合に、前記変動領域を、前記音響信号に対応する実空間の位置に侵入者が存在している場合に得られるであろうサイズ、の複数の画像領域に区画し、当該区画された領域毎における所定の画像特徴量に基づいて侵入者の検出を行う情報処理部と、を備えることを特徴とする。   The present invention includes: an imaging unit that acquires a captured image obtained by imaging a monitoring target space; and a transmission / reception unit that transmits a sound wave to the monitoring target space and receives a sound wave from the monitoring target space as an acoustic signal, A sensing device that detects an intruder in the monitoring target space based on a captured image acquired by an imaging unit and an acoustic signal received by the transmission / reception unit, the difference between the captured image and a reference background image A signal corresponding to an image processing unit that extracts a fluctuation region included in a captured image based on the difference image, and an object that exists at a position in a real space corresponding to the fluctuation region is received by the transmission / reception unit. It is determined whether or not an acoustic signal exists, and a signal corresponding to an object existing at a position in real space corresponding to the fluctuation region exists in the acoustic signal received by the transmission / reception unit. If determined, the variable region is partitioned into a plurality of image regions of a size that would be obtained when an intruder is present at a position in real space corresponding to the acoustic signal. And an information processing unit for detecting an intruder based on a predetermined image feature amount for each region.

ここで、前記情報処理部は、前記変動領域が所定の画像面積以上であるか否かを判定し、前記変動領域が前記所定の画像面積以上である場合に区画処理を行うことが好適である。   Here, it is preferable that the information processing unit determines whether or not the variation area is greater than or equal to a predetermined image area, and performs partition processing when the variation area is greater than or equal to the predetermined image area. .

また、前記情報処理部は、撮像画像と背景画像とにおける前記区画された領域のテクスチャの変化の度合いを用いて侵入者の検出を行うことが好適である。すなわち、前記情報処理部は、前記区画された領域群のうち、テクスチャの変化の度合いが最大の領域に基づいて侵入者の検出を行うことが好ましい。   In addition, it is preferable that the information processing unit detects an intruder using a degree of change in texture of the partitioned area between the captured image and the background image. That is, it is preferable that the information processing unit detect an intruder based on an area in which the degree of texture change is maximum among the partitioned area group.

本発明によれば、光や影に紛れて特徴が曖昧となった侵入者の画像から侵入者をより確実に検出することができる。   According to the present invention, it is possible to more reliably detect an intruder from an intruder image whose characteristics are ambiguous due to light or shadow.

本発明の実施の形態におけるセンシング装置100は、図1に示すように、撮像部10、画像処理部12、送受信部14、音響処理部16、記憶部18及び情報処理部20を含んで構成される。センシング装置100は、画像センサやカメラなどの撮像装置及び音波の送受信装置等を備えたコンピュータによって構成することができる。   As shown in FIG. 1, the sensing device 100 according to the embodiment of the present invention includes an imaging unit 10, an image processing unit 12, a transmission / reception unit 14, an acoustic processing unit 16, a storage unit 18, and an information processing unit 20. The The sensing device 100 can be configured by a computer including an imaging device such as an image sensor and a camera, a sound wave transmission / reception device, and the like.

撮像部10は、画像センサやカメラなどの撮像装置を含んで構成される。撮像部10は、監視空間の光学的な映像を電気的な画像信号に変換して画像処理部12へ出力する。撮像部10は、画像信号に対して増幅、フィルタ処理、デジタル化処理等の前段処理を行った後に画像処理部12に受け渡す機能を有することも好ましい。本実施の形態では、撮像画像は離散的な画素群からなるデジタル化された画像に変換され、各画素が輝度値で表現された撮像画像Iとして画像処理部12に入力及び記憶部18に格納及び保持される。以下、繰り返し撮像される撮像画像Iのうち第n回目の測定で得られたものを撮像画像I(n)と示す。 The imaging unit 10 includes an imaging device such as an image sensor or a camera. The imaging unit 10 converts an optical image of the monitoring space into an electrical image signal and outputs the electrical image signal to the image processing unit 12. It is also preferable that the imaging unit 10 has a function of delivering the image signal to the image processing unit 12 after performing pre-processing such as amplification, filtering, and digitization on the image signal. In the present embodiment, the captured image is converted into a digitized image including discrete pixel groups, and each pixel is input to the image processing unit 12 and stored in the storage unit 18 as a captured image I expressed by a luminance value. And retained. Hereinafter, a captured image I (n) obtained by the n-th measurement among the captured images I that are repeatedly captured is shown.

送受信部14は、超音波パルス送信器及び超音波センサを含んで構成される。送受信部14は、超音波パルス送信器を用いて所定時間間隔で監視空間に超音波パルスを等方的に送信すると共に、監視空間から超音波を音響信号として受信する。このとき、監視空間に存在する物体や壁等によって反射された超音波パルスが時間変動する音響信号S(t)として受信される。監視距離が十分に短い場合、超音波の送信から受信までの時間は無視でき、超音波の送信タイミングと撮像部10での撮像タイミングとを一致させることによって、略同時刻における同一の監視空間の状況をセンシングすることができる。以下、繰り返し測定される音響信号S(t)のうち第n回目の撮像と同期して得られたものを信号S(n)(t)と示す。 The transmission / reception unit 14 includes an ultrasonic pulse transmitter and an ultrasonic sensor. The transmission / reception unit 14 isotropically transmits ultrasonic pulses to the monitoring space at predetermined time intervals using an ultrasonic pulse transmitter, and receives ultrasonic waves as acoustic signals from the monitoring space. At this time, an ultrasonic pulse reflected by an object or wall existing in the monitoring space is received as an acoustic signal S (t) that varies with time. When the monitoring distance is sufficiently short, the time from transmission to reception of ultrasonic waves can be ignored, and by matching the transmission timing of ultrasonic waves with the imaging timing of the imaging unit 10, the same monitoring space at approximately the same time The situation can be sensed. Hereinafter, the acoustic signal S (t) repeatedly measured and obtained in synchronization with the n-th imaging is indicated as a signal S (n) (t).

受信された音響信号S(t)は音響処理部16に送信されると共に、記憶部18に格納及び保持される。また、送受信部14は、音響信号S(t)に対して増幅、フィルタ処理、デジタル化処理等の前段処理を行った後に音響処理部16に受け渡す機能を有することも好ましい。   The received acoustic signal S (t) is transmitted to the acoustic processing unit 16 and is stored and held in the storage unit 18. Moreover, it is also preferable that the transmission / reception unit 14 has a function of passing the acoustic signal S (t) to the acoustic processing unit 16 after performing pre-stage processing such as amplification, filter processing, and digitization processing.

なお、本実施の形態では、超音波を測定用の信号として用いた場合を例として説明するが、これに限定されるものでなく、可聴範囲の音波を用いても良い。但し、超音波は人間に聞こえないという利点を有する。また、音響信号S(t)の観測時間は監視したい距離に応じて変更することが好ましい。例えば、監視したい距離をL(m)、音速をC(m/s)とすると、監視に必要な音響信号S(t)の観測時間t(秒)はt=2L/Cで算出することができる。   In this embodiment, a case where ultrasonic waves are used as measurement signals will be described as an example. However, the present invention is not limited to this, and sound waves in an audible range may be used. However, ultrasonic waves have the advantage that they cannot be heard by humans. The observation time of the acoustic signal S (t) is preferably changed according to the distance to be monitored. For example, if the distance to be monitored is L (m) and the sound speed is C (m / s), the observation time t (second) of the acoustic signal S (t) necessary for monitoring can be calculated by t = 2L / C. it can.

以下、撮像部10において取得された撮像画像Iと送受信部14において取得された超音波の音響信号S(t)とを用いて、監視空間から侵入者を検出する処理ついて説明を行う。センシング装置100の各部の機能は、図2に示すフローチャートの各工程をコンピュータで実行可能な制御プログラムとすることによって、コンピュータの処理装置によって実行させることができる。   Hereinafter, a process of detecting an intruder from the monitoring space using the captured image I acquired by the imaging unit 10 and the ultrasonic acoustic signal S (t) acquired by the transmission / reception unit 14 will be described. The function of each part of the sensing device 100 can be executed by a processing device of a computer by making each step of the flowchart shown in FIG. 2 a control program that can be executed by the computer.

ステップS10では、監視空間の画像が取得される。撮像部10により所定の時間間隔で1フレームの撮像画像Iが取得される。ここでは、n回目の撮像タイミングで撮像画像I(n)が取得されたものとする。撮像画像I(n)は画像処理部12へ転送される。 In step S10, an image of the monitoring space is acquired. The imaging unit 10 acquires a captured image I of one frame at a predetermined time interval. Here, it is assumed that the captured image I (n) is acquired at the n-th imaging timing. The captured image I (n) is transferred to the image processing unit 12.

ステップS12では、画像処理部12における変動領域抽出部22において、撮像画像I(n)から変動領域の抽出が行われ、変動領域が含まれるか否かが判断される。ここで、画像処理部12は、図1に示すように、変動領域抽出部22、トラッキング部24及び画像特徴量算出部26を含んで構成される。画像処理部12は、デジタル化された撮像画像を受けて、背景差分処理、2値化処理、トラッキング処理及び画像特徴量算出処理を行う。 In step S12, the variable region extraction unit 22 in the image processing unit 12 extracts the variable region from the captured image I (n), and determines whether or not the variable region is included. Here, as shown in FIG. 1, the image processing unit 12 includes a variable region extraction unit 22, a tracking unit 24, and an image feature amount calculation unit 26. The image processing unit 12 receives the digitized captured image and performs background difference processing, binarization processing, tracking processing, and image feature amount calculation processing.

変動領域抽出部22では、撮像画像I(n)と基準となる背景画像Bとにおける互いに対応する画素同士の差分値をとって差分画像D(n)が生成される。背景画像Bは、監視空間に侵入者等が存在しない状態で撮像された画像であり、侵入者の検出処理を開始する前に予め取得され、記憶部18に格納及び保持されているものとする。次に、得られた差分画像D(n)に含まれる各画素の輝度(特性値)と所定の閾値との大小関係に基づいて差分画像を2値化する。すなわち、撮像画像I(n)に含まれる各画像をI(n)(i,j)で表し、背景画像Bに含まれる各画素をB(i,j)で表し、閾値がThvであるとすると、差分画像D(n)に含まれる各画素D(n)(i,j)の値を数式(1)で決定することができる。

Figure 2005341450
In the fluctuation region extraction unit 22, a difference image D (n) is generated by taking a difference value between pixels corresponding to each other in the captured image I (n) and the reference background image B. The background image B is an image captured in a state where no intruder or the like exists in the monitoring space, and is acquired in advance before starting the intruder detection process, and is stored and held in the storage unit 18. . Next, the difference image is binarized based on the magnitude relationship between the luminance (characteristic value) of each pixel included in the obtained difference image D (n ) and a predetermined threshold value. That represents each image included in the captured image I (n) by I (n) (i, j ), represents each pixel contained in the background image B by B (i, j), the threshold is a T hv Then, the value of each pixel D (n) (i, j) included in the difference image D (n) can be determined by Equation (1).
Figure 2005341450

これによって、図3に示すように、特性値の変動が閾値Thv以上の変動であった変動画素(1)と閾値Thvより小さい変動であった非変動画素(0)とに2値化された差分画像D(n)として表現される。算出された差分画像D(n)は、次回の撮像画像に対するトラッキング処理の基準とするために記憶部18に格納及び保持される。 As a result, as shown in FIG. 3, binarization is performed into a fluctuation pixel (1) whose characteristic value fluctuates more than the threshold value Thv and a non-fluctuation pixel (0) whose fluctuation is smaller than the threshold value Thv. Is represented as a difference image D (n) . The calculated difference image D (n) is stored and held in the storage unit 18 to be a reference for tracking processing for the next captured image.

なお、本実施の形態では、背景画像Bは侵入者がいない状況において監視空間を予め撮像した画像としたが、所定時間毎に撮像された画像で更新することも好適である。また、前回取得された撮像画像を背景画像Bとして用いることにより、連続するフレーム間における差分画像D(n)を求めて処理に供しても良い。 In the present embodiment, the background image B is an image obtained by capturing the surveillance space in advance in a situation where there is no intruder, but it is also preferable to update the background image B with an image captured every predetermined time. Further, by using the captured image acquired last time as the background image B, a difference image D (n) between consecutive frames may be obtained and used for processing.

ここで、撮像画像I(n)に変動領域が含まれていればステップS14に処理を移行させる。一方、撮像画像I(n)に変動領域が含まれていなければステップS18に処理を移行させる。以下では、撮像画像I(n)に変動領域が含まれていた場合について説明を行う。 Here, if the captured image I (n) includes a variable region, the process proceeds to step S14. On the other hand, if the fluctuation area is not included in the captured image I (n) , the process proceeds to step S18. Below, the case where the fluctuation area is included in the captured image I (n) will be described.

ステップS14では、今回の撮像で取得された差分画像D(n)と過去に取得された差分画像との比較により変動領域のトラッキング処理が行われる。トラッキング部24では、2値化された差分画像D(n)に含まれる略連続した変動画素群が1つの変動領域としてグループ化され、各変動領域が固有のラベル(番号)でラベリングされる。続いて、記憶部18に保持されている過去の差分画像が読み出され、差分画像D(n)に含まれる各変動領域の周囲に設定されたトラッキングの検索範囲に対応する過去の差分画像における領域に変動領域が存在すれば、その領域のサイズ、形状等の特徴量の類似度に基づいて互いに同一の被写体を撮像した領域であると推定される変動領域同士が対応付けられる。差分画像D(n)及びラベリングの情報は画像特徴量算出部26へ送られる。 In step S14, the tracking process of the fluctuation region is performed by comparing the difference image D (n) acquired by the current imaging with the difference image acquired in the past. In the tracking unit 24, substantially continuous variable pixel groups included in the binarized difference image D (n) are grouped as one variable region, and each variable region is labeled with a unique label (number). Subsequently, the past difference image held in the storage unit 18 is read, and the past difference image corresponding to the tracking search range set around each variable region included in the difference image D (n) If a variable region exists in the region, the variable regions estimated to be regions in which the same subject is imaged based on the similarity of the feature amount such as the size and shape of the region are associated with each other. The difference image D (n) and the labeling information are sent to the image feature quantity calculation unit 26.

ステップS16では、画像特徴量算出部26において、差分画像D(n)及びラベリングの情報に基づいて画像に関する各種の特徴量が算出される。画像特徴量算出部26は、例えば、画像距離算出部、領域サイズ算出部及び移動ベクトル算出部を含んで構成される。 In step S16, the image feature amount calculation unit 26 calculates various feature amounts related to the image based on the difference image D (n) and the labeling information. The image feature amount calculation unit 26 includes, for example, an image distance calculation unit, a region size calculation unit, and a movement vector calculation unit.

画像距離算出部では、撮像部10に含まれる撮像装置から各変動領域に撮像された物体までの距離が算出される。監視空間の床面が平坦であり、変動領域に写し込まれた物体が床面に接地しているものと仮定することによって、撮像部10の撮像装置の俯角、設置高及び変動領域の画像内位置に基づいて撮像装置から変動領域に写し込まれた物体までの直線距離を推定することができる。   The image distance calculation unit calculates the distance from the imaging device included in the imaging unit 10 to the object imaged in each variable region. By assuming that the floor surface of the monitoring space is flat and the object imaged in the fluctuation region is in contact with the floor surface, the depression angle, the installation height, and the fluctuation region of the image pickup unit 10 in the image of the fluctuation region Based on the position, it is possible to estimate a linear distance from the imaging device to the object imaged in the fluctuation region.

簡単の為、図4に示すように、撮像部10の正面に変動領域が抽出された場合を説明する。差分画像Dの垂直方向のサイズがY、画像における変動領域の上端までの長さがyh、画像における変動領域の下端まで長さがyf、1画素間の距離がpであり、図5に示すように、撮像装置の俯角がθ、設置高がH、焦点距離がFとすると、数式(2)を用いて撮像装置から変動領域に写し込まれた物体の上端までの実空間における画像距離Rhを算出することができ、数式(3)を用いて撮像装置から変動領域に写し込まれた物体の下端までの実空間における画像距離Rfを算出することができる。より精度が必要とされる場合には、撮像部10の特性(レンズ、CCD)を考慮した補正を行っても良い。

Figure 2005341450
For simplicity, a case will be described in which a variable region is extracted in front of the imaging unit 10 as shown in FIG. The vertical size of the difference image D is Y, the length to the upper end of the fluctuation area in the image is y h , the length to the lower end of the fluctuation area in the image is y f , and the distance between the pixels is p. As shown in FIG. 5, when the depression angle of the imaging device is θ, the installation height is H, and the focal length is F, an image in real space from the imaging device to the upper end of the object imaged in the fluctuation region using Equation (2) The distance R h can be calculated, and the image distance R f in the real space from the imaging device to the lower end of the object imaged in the fluctuation region can be calculated using Equation (3). When higher accuracy is required, correction may be performed in consideration of the characteristics (lens, CCD) of the imaging unit 10.
Figure 2005341450

以下では、n回目の測定の差分画像D(n)に含まれる第i番目の変動領域に対して求められた画像距離Rfを画像距離RVif (n)、画像距離Rhを画像距離RVih (n)、と表す。iは、変動領域のラベリング番号である。また、実空間における撮像装置から各変動領域に対応する位置までの位置ベクトルPVi (n)も算出する。 In the following, the image distance R f obtained for the i-th fluctuation region included in the difference image D (n) of the n-th measurement is the image distance R Vif (n) , and the image distance R h is the image distance R. Vih (n) . i is the labeling number of the variable region. Further, a position vector P Vi (n) from the imaging device in the real space to the position corresponding to each fluctuation region is also calculated.

領域サイズ算出部では、差分画像D(n)に含まれる各変動領域の画像のサイズが算出される。例えば、各変動領域に外接する矩形領域を求め、その矩形領域の大きさを各変動領域のサイズとする。 The area size calculation unit calculates the size of the image of each variable area included in the difference image D (n) . For example, a rectangular area circumscribing each variable area is obtained, and the size of the rectangular area is set as the size of each variable area.

移動ベクトル算出部では、トラッキング部24で同一の被写体の画像であるとラベリングされた変動領域の移動ベクトルが算出される。移動ベクトルは、実空間における物体の移動の速さ及び方向であり、異なる時刻に撮影された撮像画像から得られた複数の差分画像間において、画像距離算出部において推定された位置ベクトルPVi (n)の変動から算出することができる。 In the movement vector calculation unit, the movement vector of the fluctuation region labeled as the same subject image by the tracking unit 24 is calculated. The movement vector is the speed and direction of movement of the object in real space, and the position vector P Vi ( estimated by the image distance calculation unit between a plurality of difference images obtained from captured images taken at different times. It can be calculated from the fluctuation of n) .

なお、上記画像距離算出部、領域サイズ算出部及び移動ベクトル算出部における処理は一例であり、同様の特徴量を算出できる方法であれば本実施の形態の処理方法に限定されるものではない。   Note that the processing in the image distance calculation unit, region size calculation unit, and movement vector calculation unit is an example, and the method is not limited to the processing method of the present embodiment as long as the same feature amount can be calculated.

ステップS18では、受信波変動抽出部28において、音響信号S(n)(t)から差分波形が求められる。音響信号S(n)(t)には、図6(a)に示すように、監視空間に存在する物体によって反射されたパルス信号が重畳されている。そこで、受信波変動抽出部28では、前回の測定時に取得された音響信号S(n-1)(t)(図6(b))を記憶部18から読み出し、前回の測定時に取得された音響信号S(n-1)(t)と今回取得された音響信号S(n)(t)の包絡信号を各々求める。包絡信号は既存の処理によって求めることができる。これらの差分を、数式(4)を用いてとることによって差分波形d(n)(t)(図6(c))を求める。監視空間に新たに現れた物体がある場合や物体が移動した場合には差分波形d(n)(t)にピークが現れる。

Figure 2005341450
In step S18, the received wave fluctuation extraction unit 28 obtains a differential waveform from the acoustic signal S (n) (t). On the acoustic signal S (n) (t), as shown in FIG. 6A, a pulse signal reflected by an object existing in the monitoring space is superimposed. Therefore, the received wave fluctuation extraction unit 28 reads out the acoustic signal S (n-1) (t) (FIG. 6B) acquired at the previous measurement from the storage unit 18 and acquires the acoustic signal acquired at the previous measurement. Envelope signals of the signal S (n-1) (t) and the acoustic signal S (n) (t) acquired this time are respectively obtained. The envelope signal can be obtained by existing processing. The difference waveform d (n) (t) (FIG. 6C ) is obtained by taking these differences using Equation (4). A peak appears in the differential waveform d (n) (t) when there is an object that has newly appeared in the monitoring space or when the object has moved.
Figure 2005341450

ステップS20では、差分波形d(n)(t)に含まれているピークが抽出され、ピークが含まれている場合にはピークに対応する位置までの距離が算出される。このステップS20はサブルーチン化されており、受信波変動抽出部28及び音響特徴量算出部30において、図7に示すフローチャートに沿って実行される。 In step S20, the peak included in the differential waveform d (n) (t) is extracted, and when the peak is included, the distance to the position corresponding to the peak is calculated. This step S20 is made into a subroutine, and is executed by the received wave fluctuation extracting unit 28 and the acoustic feature quantity calculating unit 30 according to the flowchart shown in FIG.

ステップS20−1では、差分波形d(n)(t)のうち閾値Thを超える領域をピークとして抽出する。ここで、送受信部14からの超音波を反射してからの時間tの関数として表される閾値Th(t)を用いてピークの検出を行うことも好適である。閾値Th(t)は、音波の距離減衰に基づいて遠くの距離にある物体の反射波ほど、すなわち時間tが大きくなるほど小さな値に設定することが好ましい。さらには、閾値Th(t)は、ステップS16で求めた画像特徴量に基づいて設定することもできる。 In step S20-1, it extracts a region exceeding the threshold T h of the difference waveform d (n) (t) as a peak. Here, it is also preferable to detect a peak using a threshold value T h (t) expressed as a function of time t after reflection of the ultrasonic wave from the transmission / reception unit 14. The threshold value Th (t) is preferably set to a smaller value as the reflected wave of an object at a farther distance based on the attenuation of the sound wave distance, that is, as the time t increases. Further, the threshold value Th (t) can be set based on the image feature amount obtained in step S16.

例えば、図8に示すように、差分波形d(n)(t)及び閾値Th(t)が表される場合、閾値Th(t)以上の振幅を有する領域tS0 (n)<t<tE0 (n),tS1 (n)<t<tE1 (n),・・・がピークの領域として抽出される。 For example, as shown in FIG. 8, when a differential waveform d (n) (t) and a threshold value T h (t) are represented, a region t S0 (n) <t having an amplitude equal to or greater than the threshold value Th (t). <T E0 (n) , t S1 (n) <t <t E1 (n) ,... Are extracted as peak regions.

ステップS20−2では、各ピークの領域において最大値を有するピーク位置が抽出される。例えば、tS0 (n)<t<tE0 (n)では最大値を有する時刻t0 (n)がピーク位置となる。同様に、tS1 (n)<t<tE1 (n)に対してはt1 (n)、・・・と各ピーク領域からピーク位置が決定される。 In step S20-2, the peak position having the maximum value in each peak region is extracted. For example, at t S0 (n) <t <t E0 (n) , the time t 0 (n) having the maximum value is the peak position. Similarly, for t S1 (n) <t <t E1 (n) , the peak position is determined from t 1 (n) ,.

ステップS20−3では、各ピーク位置に対応する物体までの距離が算出される。以下、画像信号に基づいて算出された画像距離RVif (n),RVih (n)と区別するために、ピーク位置ti (n)に対応する距離を音響距離RAi (n)と示す。音響距離RAi (n)は数式(5)を用いて算出することができる。ここで、C(m/s)は音速である。

Figure 2005341450
In step S20-3, the distance to the object corresponding to each peak position is calculated. Hereinafter, the image distance has been calculated on the basis of the image signal R Vif (n), shown in order to distinguish the R Vih (n), a distance corresponding to the peak position t i (n) and the acoustic distance R Ai (n) . The acoustic distance R Ai (n) can be calculated using Equation (5). Here, C (m / s) is the speed of sound.
Figure 2005341450

ステップS22では、カウンタmが1に初期化される。カウンタmは、以下の処理において、差分画像D(n)に含まれる各変動領域を順次特定して処理するためのラベルとして用いられる。ステップS22〜ステップS32までの処理は、情報処理部20の代表領域抽出部32において行われる。 In step S22, the counter m is initialized to 1. The counter m is used as a label for sequentially specifying and processing each variable region included in the difference image D (n) in the following processing. The processing from step S22 to step S32 is performed in the representative region extraction unit 32 of the information processing unit 20.

ステップS24では、第m番目の変動領域の画像距離と音響距離とのマッチングが行われる。具体的には、差分画像D(n)上における第m番目の変動領域の最小距離RVmf (n)と最大距離RVmh (n)との間にのピークが存在するか否かが調査され、そのピークまでの音響距離RAj (n)が求められる。この処理は、図9に示すように、ステップS20において抽出された音響信号のピーク群の中から、第m番目の変動領域の最小距離RVmf (n)と最大距離RVmh (n)とに対応する領域(図9中、ハッチング示した領域)に対応するピークが差分波形S(n)(t)に存在しているか否かを確認するものである。もし、いずれかの変動領域に対応するピークが存在した場合は変動領域と対応する音響距離RAj (n)を抽出してステップS26へ処理を移行させ、変動領域に対応するピークが存在しなかった場合にはステップS38に処理を移行させる。変動領域に対応するピークが複数存在した場合は、音響距離の代表値を求める。代表値は、例えば、最大ピークを持つものとしても良いし、複数の音響距離の平均値としても良い。 In step S24, matching between the image distance of the mth fluctuation region and the acoustic distance is performed. Specifically, it is investigated whether or not a peak exists between the minimum distance R Vmf (n) and the maximum distance R Vmh (n) of the mth fluctuation region on the difference image D (n). The acoustic distance R Aj (n) to the peak is obtained. As shown in FIG. 9, this processing is performed by setting the minimum distance R Vmf (n) and the maximum distance R Vmh (n) of the mth fluctuation region from the peak group of the acoustic signals extracted in step S20. It is confirmed whether or not a peak corresponding to the corresponding region (the hatched region in FIG. 9) exists in the differential waveform S (n) (t). If there is a peak corresponding to any fluctuation region, the acoustic distance R Aj (n) corresponding to the fluctuation region is extracted and the process proceeds to step S26, and no peak corresponding to the fluctuation region exists. If YES, the process proceeds to step S38. When there are a plurality of peaks corresponding to the fluctuation region, a representative value of the acoustic distance is obtained. The representative value may have a maximum peak, for example, or may be an average value of a plurality of acoustic distances.

ステップS26では、面積領域サイズ算出部において求められた第m番目の変動領域の画像サイズが予め定められた閾値よりも大きいか否かが判定される。第m番目の変動領域が所定の閾値よりも大きい場合には侵入者等の画像が光や影に重なり合ったり、接触した状態で撮像されている可能性が高いと判断できる。一方、第m番目の変動領域が所定の閾値以下である場合には侵入者等の画像は光や影と重畳したり、接触したりしていないと判断できる。第m番目の変動領域が、所定の閾値以下の面積である場合にはステップS32に処理を移行させ、所定の閾値よりも大きい面積である場合にはその変動領域を抽出してステップS28に処理を移行させる。   In step S26, it is determined whether or not the image size of the mth fluctuation region obtained by the area region size calculation unit is larger than a predetermined threshold value. When the m-th fluctuation region is larger than the predetermined threshold, it can be determined that there is a high possibility that an image of an intruder or the like is captured in a state where the image overlaps with or is in contact with light. On the other hand, when the mth fluctuation region is equal to or less than the predetermined threshold, it can be determined that the image of the intruder or the like is not superimposed or touched with light or shadow. If the m-th variable region has an area equal to or smaller than the predetermined threshold, the process proceeds to step S32. If the area is larger than the predetermined threshold, the variable region is extracted and processed in step S28. To migrate.

ステップS28では、ステップS24において抽出された各音響距離RAj (n)に一般的な人間のサイズの侵入者がいたとした場合に、侵入者として得られるであろう画像サイズが算出される。図10に示すように、同一の大きさの人物を撮像した場合においても撮像部10からの距離に応じて撮像領域のサイズは変化する。そこで、音響距離RAj (n)に一般的な体格の人間(例えば、身長160cm、幅50cmの体格)が存在すると仮定し、その人間が撮像された場合の画像領域のサイズを求める。 In step S28, if there is an intruder of general human size at each acoustic distance R Aj (n) extracted in step S24, the image size that would be obtained as an intruder is calculated. As shown in FIG. 10, the size of the imaging region changes according to the distance from the imaging unit 10 even when people of the same size are imaged. Therefore, it is assumed that a human having a general physique (for example, a physique having a height of 160 cm and a width of 50 cm) exists at the acoustic distance R Aj (n) , and the size of the image region when the human is imaged is obtained.

このとき、音響距離RAj (n)の方が画像距離RVmf (n),RVmh (n)よりも物体までの距離を正しく示している可能性が高いので、一般的な人物に対応する画像領域のサイズを見積もる際には、音響距離RAj (n)を用いて計算を行うことが好適である。 At this time, the acoustic distance R Aj (n) is more likely to correctly indicate the distance to the object than the image distances R Vmf (n) and R Vmh (n), and thus corresponds to a general person. When estimating the size of the image area, it is preferable to perform calculation using the acoustic distance R Aj (n) .

例えば、図10に示すように、音響センサの正面に居る人物が映し出された変動領域の幅を算出する場合、一般的な人物の幅として考えられる実寸をWmin、音響距離をRAj (n)、撮像画像I(n)の横幅をHx、画像センサの水平方向の画角をφとすると、音響距離RAj (n)に居る人間の画像領域の幅wは数式(6)によって簡易的に算出することができる。また、撮像部10の特性等を考慮に入れた補正をすることにより、変動領域を正確に求めることができる。

Figure 2005341450
For example, as shown in FIG. 10, when calculating the width of the fluctuation region in which the person in front of the acoustic sensor is projected, the actual size considered as the width of a general person is W min , and the acoustic distance is R Aj (n ) When the horizontal width of the captured image I (n) is H x and the horizontal angle of view of the image sensor is φ, the width w of the human image region at the acoustic distance R Aj (n) is simply expressed by Equation (6). Can be calculated automatically. In addition, the fluctuation region can be accurately obtained by performing correction in consideration of the characteristics of the imaging unit 10 and the like.
Figure 2005341450

同様に、人間の高さとして考えられる実寸をHminとして、最小の人間が画像に映し出されたときの高さhを求めることものできる。また、角度方向に補正を行うことによって、画像上の総ての領域における最小の人間のサイズを求めることもできる。 Similarly, it is possible to obtain the height h when the smallest person is projected on the image, where H min is the actual size considered as the height of the person. Further, by correcting in the angular direction, the minimum human size in all areas on the image can be obtained.

ステップS30では、第m番目の変動領域の領域において、最も侵入者を撮像した画像領域である可能性が高い画像領域が抽出され、侵入者の画像が撮像されているか否かが判定される。図11に示すように、記憶部18に記憶してある撮像画像I(n)及び背景画像Bにおける変動領域42に対応する領域を、ステップS28で算出された侵入者として得られるであろうサイズの区画領域40に区画する。そして、撮像画像I(n)と背景画像Bとにおける各区画領域40の画像のテクスチャの変化の度合いを求める。そして、テクスチャの変化の度合いが最も大きい区画領域を侵入者が撮像された代表領域として決定する。ここで、テクスチャの変化の度合いとは、撮像画像I(n)の区画領域40とそれに対応する背景画像Bの区画領域40との正規化相関値やエッジの増減度を用いることができる。 In step S30, an image area that is most likely to be an image area in which an intruder is imaged is extracted from the m-th fluctuation area, and it is determined whether an intruder image is captured. As shown in FIG. 11, the size corresponding to the fluctuation region 42 in the captured image I (n) and the background image B stored in the storage unit 18 is the size that can be obtained as the intruder calculated in step S28. It divides into the following division area 40 Then, the degree of change in the texture of the image of each partition area 40 in the captured image I (n) and the background image B is obtained. Then, the partition area having the largest degree of texture change is determined as the representative area in which the intruder has been imaged. Here, as the degree of change in texture, the normalized correlation value between the partitioned area 40 of the captured image I (n) and the corresponding partitioned area 40 of the background image B, or the degree of increase or decrease of the edge can be used.

また、変動領域42を区画する際に、図11に示すように、音響距離RAj (n)を中心として区画領域40を所定量だけ重ね合わせて画像領域を区画することが好適である。侵入者を撮像した画像を含む画像領域をより確実に検出するためには、区画領域40を重ね合わせる量をできるだけ多くすることが望ましい。しかしながら、処理速度を考慮すると重ね合わせる量はできるだけ少なくすることが望ましい。これらの兼ね合いから、重ね合わせる幅は、侵入者として得られるであろう画像サイズの幅の1/4以上2/3以下とすることが好適である。特に、重ね合わせる幅を侵入者として得られるであろう画像サイズの幅の1/2程度にすることがより好適である。 Further, when the variable region 42 is partitioned, it is preferable that the image region is partitioned by overlapping a predetermined amount of the partitioned region 40 with the acoustic distance R Aj (n) as the center, as shown in FIG. In order to more reliably detect an image area including an image obtained by capturing an intruder, it is desirable to increase the amount of overlapping of the partitioned areas 40 as much as possible. However, considering the processing speed, it is desirable to minimize the amount of overlapping. From these balances, it is preferable that the overlapping width is ¼ or more and / or less of the width of the image size that will be obtained as an intruder. In particular, it is more preferable that the overlapping width is about ½ of the width of the image size that would be obtained as an intruder.

このように、画像距離と音響距離とのマッチングを行ったうえで、変動領域が大きい場合には複数の区画領域に区画して侵入者が撮像されたであろう領域を抽出することによって、侵入者を確実かつ高速に検出することを可能とする。   In this way, after matching between the image distance and the acoustic distance, if the fluctuation area is large, the area where the intruder may have been imaged is extracted by dividing it into a plurality of divided areas. A person can be detected reliably and at high speed.

撮像画像I(n)と背景画像Bとにおける代表領域のテクスチャの変化の度合いが所定の閾値以上であればステップS34に処理が移行される。所定の閾値より小さければステップS36に処理が移行される。 If the degree of texture change in the representative area between the captured image I (n) and the background image B is equal to or greater than a predetermined threshold, the process proceeds to step S34. If it is smaller than the predetermined threshold, the process proceeds to step S36.

ステップS32では、第m番目の変動領域が人間として最も小さいと考えられる人物を撮像した場合のサイズと比較される。人間として最も小さいと考えられる人物(例えば、身長100cm、幅30cmの体格)を撮像した画像領域のサイズは、数式(6)において人物の幅Wminの値を変更することによって同様に求めることができる。第m番目の変動領域が人間として最も小さいと考えられる人物を撮像した場合のサイズよりも大きければ、ステップS34に処理が移行される。それ以外はステップS36に処理が移行される。 In step S <b> 32, the size is compared with the size in the case where a person who is considered to have the smallest mth fluctuation region is captured as a human. The size of the image area in which a person considered to be the smallest person (for example, a physique having a height of 100 cm and a width of 30 cm) is obtained in the same manner by changing the value of the person's width W min in Equation (6). it can. If the m-th fluctuation region is larger than the size when a person considered to be the smallest as a human is captured, the process proceeds to step S34. Otherwise, the process proceeds to step S36.

ステップS34では、瞬時属性度設定部34においてその変動画像は人間に相当するものであるとして、瞬時人属性度が増加される。瞬時人属性度とは、1回の測定毎の撮像画像に人間が撮像されている確からしさを示すパラメータであり、パラメータ値が高いほど撮像画像に人間が撮像されている確からしさが高いことを示すものである。一方、ステップS36では、撮像された物体が小動物(犬、猫、ねずみ等)であると判定されて、瞬時小動物属性度が増加される。瞬時小動物属性度とは、1回の測定毎の撮像画像に小動物が撮像されている確からしさを示すパラメータであり、パラメータ値が高いほど撮像画像に小動物が撮像されている確からしさが高いことを示すものである。   In step S34, the instantaneous attribute level is increased in the instantaneous attribute level setting unit 34, assuming that the variation image corresponds to a human. The instantaneous human attribute is a parameter indicating the probability that a person is captured in a captured image for each measurement, and the higher the parameter value, the higher the probability that a person is captured in the captured image. It is shown. On the other hand, in step S36, it is determined that the imaged object is a small animal (dog, cat, mouse, etc.), and the instantaneous small animal attribute level is increased. The instantaneous small animal attribute is a parameter indicating the probability that a small animal is captured in a captured image for each measurement. The higher the parameter value, the higher the probability that a small animal is captured in the captured image. It is shown.

一方、画像距離と音響距離とのマッチングが失敗した場合、ステップS38において、最小距離RVmf (n)〜最大距離RVmh (n)よりも小さい距離に対応する音響距離RAj (n)が存在するか否かが判断される。図12に示すように、最小距離RVmf (n)〜最大距離RVmh (n)の距離範囲よりも近い距離に音響距離RAj (n)が存在する場合、図13に示すように、画像センサの近傍にいる小鳥や虫などの小動物が撮像され、見かけ上は差分画像Dの画像距離RVj (n)に物体が撮像されているように見えているに過ぎない可能性が高い。最小距離RVmf (n)〜最大距離RVmh (n)の距離範囲よりも近い距離に音響距離RAj (n)が存在する場合にはステップS40に処理を移行させ、存在しない場合にはステップS42に処理を移行させる。 On the other hand, if the matching between the image distance and the acoustic distance fails, an acoustic distance R Aj (n) corresponding to a distance smaller than the minimum distance R Vmf (n) to the maximum distance R Vmh (n) exists in step S38. It is determined whether or not to do so. As shown in FIG. 12, when the acoustic distance R Aj (n) exists at a distance closer to the distance range from the minimum distance R Vmf (n) to the maximum distance R Vmh (n) , as shown in FIG. There is a high possibility that small animals such as small birds and insects in the vicinity of the sensor are imaged, and seemingly appear as if an object is imaged at the image distance R Vj (n) of the difference image D. If the acoustic distance R Aj (n) is present at a distance shorter than the distance range from the minimum distance R Vmf (n) to the maximum distance R Vmh (n) , the process proceeds to step S40. The process proceeds to S42.

ステップS40では、第m番目の変動領域のサイズに基づいて、鳥や虫などの小動物を撮像したものであるか否かが調査される。音響距離RAj (n)に小動物として考えられる最大の大きさの小動物が存在する場合に差分画像D(n)に現れるべき変動画像のサイズを求め、実際に差分画像Dに含まれる変動画像のサイズと比較することにより被写体が小動物であるか人間であるかを判定する。最大の小動物の画像上のサイズと変動領域のサイズとを比較し、変動領域のサイズが最大の小動物のサイズ以上であればステップS44に処理が移行され、変動領域のサイズが最大の小動物のサイズよりも小さければステップS46に処理が移行される。 In step S40, it is investigated whether a small animal such as a bird or an insect is imaged based on the size of the mth fluctuation region. The size of the variation image that should appear in the difference image D (n) when a small animal of the maximum size that can be considered as a small animal exists at the acoustic distance R Aj (n) is obtained, and the variation image actually included in the difference image D is obtained. It is determined whether the subject is a small animal or a human by comparing with the size. The size on the image of the largest small animal is compared with the size of the fluctuation region. If the size of the fluctuation region is equal to or larger than the size of the largest small animal, the process proceeds to step S44, and the size of the small animal having the largest fluctuation region size. If smaller, the process proceeds to step S46.

一方、ステップS42では、第m番目の変動領域の輝度が調査される。変動領域の輝度(平均輝度)が所定の閾値以上である場合には実体のない光に起因する変動領域であるものとしてステップS48に処理が移行され、変動領域の輝度(平均輝度)が所定の閾値より小さい場合には実体のない影に起因する変動領域であるものとしてステップS50に処理が移行される。   On the other hand, in step S42, the luminance of the mth fluctuation region is examined. If the luminance (average luminance) of the variable region is equal to or greater than a predetermined threshold, the process proceeds to step S48 as a variable region caused by intangible light, and the luminance (average luminance) of the variable region is predetermined. If it is smaller than the threshold value, the process proceeds to step S50 assuming that the region is a fluctuation region caused by an intangible shadow.

ステップS46では、瞬時属性度設定部34において、瞬時小動物属性度が増加される。一方、ステップS44では、撮像された物体が人間である可能性が高いとして、瞬時属性度設定部34において、瞬時人属性度が増加される。ステップS48では、瞬時属性度設定部34において、瞬時光属性度が増加される。瞬時光属性度とは、1回の測定毎の撮像画像に実体のない光が撮像されている確からしさを示すパラメータであり、パラメータ値が高いほど撮像画像に実体のない光が撮像されている確からしさが高いことを示すものである。一方、ステップS50では、瞬時属性度設定部34において、瞬時影属性度が増加される。瞬時影属性度とは、1回の測定毎の撮像画像に実体のない影が撮像されている確からしさを示すパラメータであり、パラメータ値が高いほど撮像画像に実体のない影が撮像されている確からしさが高いことを示すものである。   In step S46, the instantaneous attribute level setting unit 34 increases the instantaneous small animal attribute level. On the other hand, in step S44, the instantaneous attribute level setting unit 34 increases the instantaneous attribute level, assuming that the imaged object is likely to be a human. In step S48, the instantaneous light attribute setting unit 34 increases the instantaneous light attribute level. The instantaneous light attribute is a parameter indicating the probability that intangible light is captured in the captured image for each measurement, and the higher the parameter value, the more invisible light is captured in the captured image. This indicates that the probability is high. On the other hand, in step S50, the instantaneous shadow attribute setting unit 34 increases the instantaneous shadow attribute setting. The instantaneous shadow attribute is a parameter indicating the probability that an intangible shadow is captured in a captured image for each measurement. The higher the parameter value, the more invisible shadow is captured in the captured image. This indicates that the probability is high.

ステップS52では、差分画像D(n)に含まれる総ての変動領域について処理が行われたか否かが確認される。総ての変動領域に対してステップS24〜S50までの処理が行われていればステップS56に処理を移行させ、いずれかの変動領域が残っていればステップS54に処理を移行させる。ステップS54ではカウンタmの値が1だけ増加され、次の変動領域についてステップS24からの処理が繰り返される。   In step S52, it is confirmed whether or not processing has been performed for all the variable regions included in the difference image D (n). If the process from step S24 to S50 is performed for all the variable areas, the process proceeds to step S56, and if any variable area remains, the process proceeds to step S54. In step S54, the value of the counter m is incremented by 1, and the processing from step S24 is repeated for the next fluctuation region.

ステップS56では、蓄積属性度算出部36において、蓄積属性度が算出される。蓄積属性度とは、複数回の測定で求められた瞬時属性度及び音響特徴量に基づいて算出されるパラメータであり、変動領域が人物、小動物、光又は影であるか否かを示すものである。例えば、瞬時人属性度を所定の測定回数だけ足し合わせて蓄積人属性度として算出することができる。このように、瞬時人属性度を複数回分積算して求めた蓄積人属性度を用いることによって変動領域が人であるか否かをより正確に判定することができる。同様に、他の瞬時属性度を所定の測定回数分だけ積算することによって各瞬時属性度に対応する蓄積属性度を算出することもできる。   In step S <b> 56, the accumulated attribute level calculation unit 36 calculates the accumulated attribute level. The accumulated attribute level is a parameter calculated based on the instantaneous attribute level and the acoustic feature amount obtained by a plurality of measurements, and indicates whether the fluctuation region is a person, a small animal, light, or a shadow. is there. For example, it is possible to calculate the accumulated person attribute level by adding the instantaneous person attribute level a predetermined number of times. In this way, it is possible to more accurately determine whether or not the fluctuation region is a person by using the accumulated person attribute degree obtained by integrating the instantaneous person attribute degree a plurality of times. Similarly, the accumulated attribute level corresponding to each instantaneous attribute level can be calculated by integrating the other instantaneous attribute levels for a predetermined number of times of measurement.

ステップS58では、総合判定部38において、瞬時属性度及び蓄積属性度の少なくとも1つを用いて監視空間に侵入者がいるか否かが判定される。例えば、蓄積人属性度が所定の閾値以上の値を有する場合に監視空間に侵入者がいるものと判断する。また、他の蓄積属性度、画像特徴量及び音響特徴量を組み合わせ判定を行うことも好ましい。侵入者が存在すると判断された場合にはステップS60に処理を移行させて警報の発報等の処理を行い、侵入者が存在しないと判断された場合には処理を終了する。また、ステップS10から処理を繰り返しても良い。   In step S58, the overall determination unit 38 determines whether there is an intruder in the monitoring space using at least one of the instantaneous attribute level and the accumulated attribute level. For example, it is determined that there is an intruder in the monitoring space when the accumulated person attribute level has a value equal to or greater than a predetermined threshold. In addition, it is also preferable to perform a combination determination with other accumulation attribute levels, image feature amounts, and acoustic feature amounts. If it is determined that there is an intruder, the process proceeds to step S60 to perform processing such as issuing an alarm, and if it is determined that there is no intruder, the process ends. Further, the processing may be repeated from step S10.

以上のように、本実施の形態によれば、監視空間に存在する物体を確実に検出できると共に、その物体が侵入者であるか否かを特定することができる。   As described above, according to the present embodiment, it is possible to reliably detect an object existing in the monitoring space and to specify whether or not the object is an intruder.

本発明の実施の形態におけるセンシング装置を示すブロック図である。It is a block diagram which shows the sensing apparatus in embodiment of this invention. 本発明の実施の形態における侵入者検出のフローチャートを示す図である。It is a figure which shows the flowchart of intruder detection in embodiment of this invention. 本発明の実施の形態における差分画像の生成方法を説明する図である。It is a figure explaining the production | generation method of the difference image in embodiment of this invention. 本発明の実施の形態における画像距離を算出する方法を説明する図である。It is a figure explaining the method to calculate the image distance in embodiment of this invention. 本発明の実施の形態における画像距離を算出する方法を説明する図である。It is a figure explaining the method to calculate the image distance in embodiment of this invention. 本発明の実施の形態における音響信号の差分波形の生成方法を説明する図である。It is a figure explaining the production | generation method of the differential waveform of the acoustic signal in embodiment of this invention. 本発明の実施の形態におけるステップS20のサブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the subroutine of step S20 in embodiment of this invention. 本発明の実施の形態におけるピーク検出の方法を説明する図である。It is a figure explaining the method of peak detection in an embodiment of the invention. 差分画像における最大距離と最小距離との関係を示す図である。It is a figure which shows the relationship between the maximum distance in a difference image, and the minimum distance. 撮像部からの距離に対する人物のサイズの変化の例を示す図である。It is a figure which shows the example of the change of the size of the person with respect to the distance from an imaging part. 本発明の実施の形態において変動領域を区画した区画領域群の例を示す図である。It is a figure which shows the example of the division area group which divided the fluctuation area in embodiment of this invention. 本発明の実施の形態において画像距離と音響距離とのマッチングがとれなかった場合を示す図である。It is a figure which shows the case where matching with image distance and acoustic distance was not able to be taken in embodiment of this invention. 本発明の実施の形態において画像距離と音響距離とのマッチングがとれなかった状況を示す図である。It is a figure which shows the condition where the image distance and the acoustic distance were not able to be taken in embodiment of this invention. 侵入者の画像と光とが重なり合って撮像された撮像画像の例を示す図である。It is a figure which shows the example of the captured image imaged by the intruder's image and light overlapping. 侵入者の画像と侵入者の影とが接触して撮像された撮像画像の例を示す図である。It is a figure which shows the example of the captured image imaged in contact with the image of the intruder, and the shadow of the intruder.

符号の説明Explanation of symbols

10 撮像部、12 画像処理部、14 送受信部、16 音響処理部、18 記憶部、20 情報処理部、22 変動領域抽出部、24 トラッキング部、26 画像特徴量算出部、28 受信波変動抽出部、30 音響特徴量算出部、32 代表領域抽出部、34 瞬時属性度設定部、36 蓄積属性度算出部、38 総合判定部、100 センシング装置。   DESCRIPTION OF SYMBOLS 10 Imaging part, 12 Image processing part, 14 Transmission / reception part, 16 Sound processing part, 18 Storage part, 20 Information processing part, 22 Fluctuation area extraction part, 24 Tracking part, 26 Image feature-value calculation part, 28 Received wave fluctuation extraction part , 30 acoustic feature amount calculation unit, 32 representative region extraction unit, 34 instantaneous attribute level setting unit, 36 accumulated attribute level calculation unit, 38 comprehensive determination unit, 100 sensing device.

Claims (4)

監視対象空間を撮像した撮像画像を取得する撮像部と、
前記監視対象空間に音波を送出すると共に、前記監視対象空間から音波を音響信号として受信する送受信部と、を備え、
前記撮像部で取得された撮像画像と前記送受信部において受信された音響信号とに基づいて前記監視対象空間内の侵入者を検出するセンシング装置であって、
撮像画像と基準となる背景画像との差分である差分画像、に基づいて撮像画像に含まれる変動領域を抽出する画像処理部と、
前記変動領域に対応する実空間の位置に存在する物体、に対応する信号が前記送受信部において受信された音響信号に存在するか否かを判定し、
前記変動領域に対応する実空間の位置に存在する物体、に対応する信号が前記送受信部において受信された音響信号に存在すると判断された場合に、
前記変動領域を、前記音響信号に対応する実空間の位置に侵入者が存在している場合に得られるであろうサイズ、の複数の画像領域に区画し、当該区画された領域毎における所定の画像特徴量に基づいて侵入者の検出を行う情報処理部と、
を備えることを特徴とするセンシング装置。
An imaging unit that acquires a captured image obtained by imaging the monitoring target space;
A transmission / reception unit for transmitting sound waves to the monitoring target space and receiving sound waves as acoustic signals from the monitoring target space;
A sensing device that detects an intruder in the monitoring target space based on a captured image acquired by the imaging unit and an acoustic signal received by the transmission / reception unit,
An image processing unit that extracts a variation area included in the captured image based on a difference image that is a difference between the captured image and a reference background image;
Determining whether a signal corresponding to an object existing at a position in real space corresponding to the fluctuation region is present in the acoustic signal received by the transceiver;
When it is determined that a signal corresponding to an object existing at a position in real space corresponding to the fluctuation region is present in the acoustic signal received by the transmission / reception unit,
The variable region is divided into a plurality of image regions of a size that would be obtained when an intruder exists at a position in the real space corresponding to the acoustic signal, and a predetermined value for each of the divided regions is obtained. An information processing unit for detecting an intruder based on the image feature amount;
A sensing device comprising:
請求項1に記載のセンシング装置において、
前記情報処理部は、前記変動領域が所定の画像面積以上であるか否かを判定し、
前記変動領域が前記所定の画像面積以上である場合に区画処理を行うことを特徴とするセンシング装置。
The sensing device according to claim 1,
The information processing unit determines whether or not the fluctuation region is a predetermined image area or more,
A sensing apparatus that performs partition processing when the variation area is greater than or equal to the predetermined image area.
請求項1又は2に記載のセンシング装置において、
前記情報処理部は、撮像画像と背景画像とにおける前記区画された領域のテクスチャの変化の度合いを用いて侵入者の検出を行うことを特徴とするセンシング装置。
The sensing device according to claim 1 or 2,
The information processing unit detects an intruder using a degree of change in texture of the partitioned area between a captured image and a background image.
請求項3に記載のセンシング装置において、
前記情報処理部は、前記区画された領域群のうち、テクスチャの変化の度合いが最大の領域に基づいて侵入者の検出を行うことを特徴とするセンシング装置。

The sensing device according to claim 3,
The said information processing part detects an intruder based on the area | region where the degree of change of a texture is the maximum among the divided area groups.

JP2004160448A 2004-05-31 2004-05-31 Sensing device Expired - Fee Related JP4509654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004160448A JP4509654B2 (en) 2004-05-31 2004-05-31 Sensing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004160448A JP4509654B2 (en) 2004-05-31 2004-05-31 Sensing device

Publications (2)

Publication Number Publication Date
JP2005341450A true JP2005341450A (en) 2005-12-08
JP4509654B2 JP4509654B2 (en) 2010-07-21

Family

ID=35494464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004160448A Expired - Fee Related JP4509654B2 (en) 2004-05-31 2004-05-31 Sensing device

Country Status (1)

Country Link
JP (1) JP4509654B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250444A (en) * 2007-03-29 2008-10-16 Omron Corp Face detection device, face detection method, and face detection program
JP2012198821A (en) * 2011-03-22 2012-10-18 Fujitsu Ltd Intruder detection system and intruder detection method
CN103620995A (en) * 2011-07-01 2014-03-05 日本电气株式会社 Cross-polarized wave interference cancellation system, wireless station device, wireless communication method
JP2018155597A (en) * 2017-03-17 2018-10-04 シャープ株式会社 Obstacle detector, traveling device, obstacle detection system, and method for detecting obstacle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737063A (en) * 1993-07-22 1995-02-07 Fuji Electric Co Ltd Object monitoring device
JP2001148011A (en) * 1999-11-19 2001-05-29 Fujitsu General Ltd Method and device for identifying small animal by image recognition
JP2001195700A (en) * 2000-01-14 2001-07-19 Matsushita Electric Ind Co Ltd Device for detecting vehicle information
JP2002208073A (en) * 2001-01-10 2002-07-26 Secom Co Ltd Intrusion monitor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737063A (en) * 1993-07-22 1995-02-07 Fuji Electric Co Ltd Object monitoring device
JP2001148011A (en) * 1999-11-19 2001-05-29 Fujitsu General Ltd Method and device for identifying small animal by image recognition
JP2001195700A (en) * 2000-01-14 2001-07-19 Matsushita Electric Ind Co Ltd Device for detecting vehicle information
JP2002208073A (en) * 2001-01-10 2002-07-26 Secom Co Ltd Intrusion monitor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250444A (en) * 2007-03-29 2008-10-16 Omron Corp Face detection device, face detection method, and face detection program
JP2012198821A (en) * 2011-03-22 2012-10-18 Fujitsu Ltd Intruder detection system and intruder detection method
CN103620995A (en) * 2011-07-01 2014-03-05 日本电气株式会社 Cross-polarized wave interference cancellation system, wireless station device, wireless communication method
JP2018155597A (en) * 2017-03-17 2018-10-04 シャープ株式会社 Obstacle detector, traveling device, obstacle detection system, and method for detecting obstacle
US10830893B2 (en) 2017-03-17 2020-11-10 Sharp Kabushiki Kaisha Obstacle detection device, traveling apparatus, obstacle detection system, and obstacle detection method

Also Published As

Publication number Publication date
JP4509654B2 (en) 2010-07-21

Similar Documents

Publication Publication Date Title
JP4359710B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4832894B2 (en) Image sensor
JP4727388B2 (en) Intrusion detection device
JP2007122508A (en) Intrusion detection apparatus
JP2003083742A (en) Distance correction apparatus and method of monitoring system
CN110609281B (en) Region detection method and device
CN111753609A (en) Target identification method and device and camera
JP4815190B2 (en) Intrusion detection device
JP4389602B2 (en) Object detection apparatus, object detection method, and program
JP2001338302A (en) Monitoring device
JP2009026223A (en) Object detector and program
JP4580189B2 (en) Sensing device
JP6070306B2 (en) Image processing apparatus, object detection method, and object detection program
JP4509654B2 (en) Sensing device
JP2011209794A (en) Object recognition system, monitoring system using the same, and watching system
CN113099120B (en) Depth information acquisition method and device, readable storage medium and depth camera
JP4493395B2 (en) Sensing device
JP2002367077A (en) Device and method for deciding traffic congestion
CN111062313A (en) Image identification method, image identification device, monitoring system and storage medium
JPH03242592A (en) Monitoring device for image
JP6412032B2 (en) Space recognition device
JP7243372B2 (en) Object tracking device and object tracking method
JP4528103B2 (en) Image recognition device
JP2001249008A (en) Monitor
JPWO2020175085A1 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100428

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4509654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees