JP2016038686A - Monitoring apparatus and program - Google Patents
Monitoring apparatus and program Download PDFInfo
- Publication number
- JP2016038686A JP2016038686A JP2014160861A JP2014160861A JP2016038686A JP 2016038686 A JP2016038686 A JP 2016038686A JP 2014160861 A JP2014160861 A JP 2014160861A JP 2014160861 A JP2014160861 A JP 2014160861A JP 2016038686 A JP2016038686 A JP 2016038686A
- Authority
- JP
- Japan
- Prior art keywords
- heat source
- source region
- far
- person
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、監視装置及びプログラムに係り、特に、遠赤外画像を用いた監視装置及びプログラムに関する。 The present invention relates to a monitoring device and a program, and more particularly to a monitoring device and a program using a far infrared image.
従来より、赤外線カメラ等で撮影された赤外画像から人物を検出する手法が提案され、防犯及び防災等、様々な分野へ適用されている。例えば、夜間等の低温環境下だけでなく夏の昼間等の高温環境下で撮影された赤外画像から人物を検出する手法が提案されている。 Conventionally, a method for detecting a person from an infrared image taken by an infrared camera or the like has been proposed and applied to various fields such as crime prevention and disaster prevention. For example, a method for detecting a person from an infrared image taken not only in a low-temperature environment such as nighttime but also in a high-temperature environment such as summer daytime has been proposed.
しかしながら、上記特許文献1に記載の技術では、赤外線カメラに、物体までの距離を測るための距離測定手段であるレーザレンジファインダが必要であり、赤外線カメラのコストが増大する、という問題がある。 However, the technique described in Patent Document 1 requires a laser range finder, which is a distance measuring unit for measuring the distance to an object, in the infrared camera, which increases the cost of the infrared camera.
本発明は、上記に示した問題点を鑑みてなされたものであり、遠赤外カメラのみを用いた場合であっても、遠赤外画像から精度よく人物を検出することができる監視装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the problems described above, and a monitoring device capable of accurately detecting a person from a far-infrared image even when only a far-infrared camera is used. The purpose is to provide a program.
上記の目的を達成するために第1の発明に係る監視装置は、予め定めた範囲を撮影する遠赤外カメラによって撮影された遠赤外画像の時系列データを受け付ける受付手段と、受付手段によって受け付けた時系列データの遠赤外画像の各々について、遠赤外画像に基づいて予め生成された背景画像と比較することにより、遠赤外画像から熱源領域を抽出する抽出手段と、抽出手段により抽出された熱源領域の属性情報に基づいて、人物らしさを判定する第1の判定手段と、時系列データの遠赤外画像の各々について抽出された熱源領域について第1の判定手段により判定された判定結果に基づいて、熱源領域が、人物を表すか否かを判定する第2の判定手段と、を備えている。 In order to achieve the above object, a monitoring apparatus according to the first invention includes: a receiving unit that receives time-series data of a far infrared image captured by a far infrared camera that captures a predetermined range; Each of the received far-infrared images of the time-series data is compared with a background image generated in advance based on the far-infrared image, thereby extracting the heat source region from the far-infrared image, and by the extracting means Based on the extracted attribute information of the heat source area, the first determination means for determining the character of the person and the heat source area extracted for each of the far-infrared images of the time-series data are determined by the first determination means. And a second determination unit that determines whether the heat source region represents a person based on the determination result.
第2の発明に係るプログラムは、コンピュータを、予め定めた範囲を撮影する遠赤外カメラによって撮影された遠赤外画像の時系列データを受け付ける受付手段、受付手段によって受け付けた時系列データの遠赤外画像の各々について、遠赤外画像に基づいて予め生成された背景画像と比較することにより、遠赤外画像から熱源領域を抽出する抽出手段、抽出手段により抽出された熱源領域の属性情報に基づいて、人物らしさを判定する第1の判定手段、及び時系列データの遠赤外画像の各々について抽出された熱源領域について第1の判定手段により判定された判定結果に基づいて、熱源領域が、人物を表すか否かを判定する第2の判定手段、として機能させるためのプログラムである。 According to a second aspect of the present invention, there is provided a program for receiving a time series data of a far infrared image captured by a far infrared camera that captures a predetermined range, and a time series data received by the receiving means. Extraction means for extracting the heat source area from the far infrared image by comparing with each of the infrared images with a background image generated in advance based on the far infrared image, and attribute information of the heat source area extracted by the extraction means Based on the determination result determined by the first determination unit for the heat source region extracted for each of the far-infrared images of the time series data, Is a program for functioning as second determination means for determining whether or not a person is represented.
第1の発明及び第2の発明によれば、予め定めた範囲を撮影する遠赤外カメラによって撮影された遠赤外画像の時系列データを受け付け、受け付けた時系列データの遠赤外画像の各々について、遠赤外画像に基づいて予め生成された背景画像と比較することにより、遠赤外画像から熱源領域を抽出する。 According to the first invention and the second invention, the time-series data of the far-infrared image captured by the far-infrared camera that captures a predetermined range is received, and the far-infrared image of the received time-series data is received. For each, a heat source region is extracted from the far-infrared image by comparing with a background image generated in advance based on the far-infrared image.
そして、抽出された熱源領域の属性情報に基づいて、人物らしさを判定し、時系列データの遠赤外画像の各々について抽出された熱源領域について人物らしさの判定結果に基づいて、熱源領域が、人物を表すか否かを判定する。 Then, based on the extracted attribute information of the heat source region, the person likeness is determined, and based on the person likeness determination result for each heat source region extracted for each far-infrared image of the time series data, the heat source region is It is determined whether or not a person is represented.
このように、遠赤外画像であっても、時系列データの遠赤外画像の各々に対して人物らしさを判定することで、遠赤外画像から人物を精度よく検出することができる。 Thus, even in the case of a far-infrared image, it is possible to accurately detect a person from the far-infrared image by determining the person-likeness for each of the far-infrared images of the time-series data.
また、第1の発明に係る第1の判定手段は、抽出された熱源領域の属性情報に基づいて、形状が上下方向に長い縦長形状であると共に、熱源領域の大きさが予め定めた範囲内であり、かつ、熱源領域の温度が予め定められた範囲内である場合に、熱源領域が人物らしいと判定する。これによって、遠赤外画像に人物が含まれるか否か予め絞り込むことができる。 Further, the first determination means according to the first invention is a vertically long shape whose shape is long in the vertical direction based on the extracted attribute information of the heat source region, and the size of the heat source region is within a predetermined range. When the temperature of the heat source region is within a predetermined range, it is determined that the heat source region is likely to be a person. Accordingly, it is possible to narrow down in advance whether or not a person is included in the far-infrared image.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域に対して第1の判定手段により判定された判定結果に基づいて、一定時間の範囲内で、熱源領域が人物らしいと判定された回数が閾値より大きい場合で、かつ、時系列データのうちの最新の遠赤外画像から抽出された熱源領域が人物らしいと判定された場合に、熱源領域が人物を表すと判定する。これによって、遠赤外画像から人物を検出する検出精度を更に向上させることができる。 Further, the second determination means according to the first invention is based on the determination result determined by the first determination means for the heat source region extracted for each of the far-infrared images of the time series data. Within the time range, the number of times that the heat source area was determined to be human was larger than the threshold, and the heat source area extracted from the latest far-infrared image in the time series data was determined to be human. In this case, it is determined that the heat source region represents a person. Thereby, the detection accuracy for detecting a person from a far-infrared image can be further improved.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域に対して第1の判定手段により判定された判定結果に基づいて、一定時間の範囲内で、熱源領域が人物らしいと複数回連続して判定された回数が閾値より大きい場合で、かつ、時系列データのうちの最新の遠赤外画像から抽出された熱源領域が人物らしいと判定された場合に、熱源領域が人物を表すと判定する。これによって、遠赤外画像から人物を検出する検出精度を更に向上させることができる。 Further, the second determination means according to the first invention is based on the determination result determined by the first determination means for the heat source region extracted for each of the far-infrared images of the time series data. Within the time range, if the number of times that the heat source region is likely to be a person is determined more than once as a threshold, and the heat source region extracted from the latest far-infrared image in the time-series data is a person When it is determined that it is likely, the heat source region is determined to represent a person. Thereby, the detection accuracy for detecting a person from a far-infrared image can be further improved.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域に対して第1の判定手段により判定された判定結果に基づいて、時系列データのうちの最新の所定枚数の遠赤外画像の各々から抽出された熱源領域の各々が人物らしいと連続して判定された場合に、熱源領域が人物を表すと判定する。これによって、遠赤外画像から人物を検出する検出精度を更に向上させることができる。 Further, the second determining means according to the first invention is based on the determination result determined by the first determining means for the heat source region extracted for each of the far-infrared images of the time series data. When it is continuously determined that each of the heat source regions extracted from each of the latest predetermined number of far-infrared images in the series data is likely to be a person, it is determined that the heat source region represents a person. Thereby, the detection accuracy for detecting a person from a far-infrared image can be further improved.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域の属性情報に基づいて、形状が、縦横比が1となる形状又は左右方向に長い横長形状であり、熱源領域が、遠赤外画像の下部に位置し、熱源領域の位置の変動量が、閾値より大きく、かつ、熱源領域の温度が、予め定められた範囲内であり、かつ、熱源領域の大きさが、閾値より小さい場合に、熱源領域がペットを表すと判定する。これによって、遠赤外画像からペットを検出することができる。 Further, the second determination means according to the first aspect of the invention is based on the attribute information of the heat source region extracted for each of the far-infrared images of the time series data, and the shape is a shape having an aspect ratio of 1 or left and right. The heat source area is located at the bottom of the far-infrared image, the fluctuation amount of the position of the heat source area is larger than a threshold value, and the temperature of the heat source area is within a predetermined range. If it is present and the size of the heat source area is smaller than the threshold, it is determined that the heat source area represents a pet. Thereby, a pet can be detected from a far-infrared image.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域の属性情報に基づいて、熱源領域が、遠赤外画像の上部に位置し、かつ、熱源領域の位置の変動量が、閾値未満であると共に、夏期において熱源領域の温度が、閾値未満である場合、又は、冬期において熱源領域の温度が、閾値より高い場合に、熱源領域がエアコンを表すと判定する。これによって、遠赤外画像からエアコンを検出することができる。 Further, the second determination means according to the first invention is configured such that the heat source region is positioned above the far infrared image based on the attribute information of the heat source region extracted for each far infrared image of the time series data. When the amount of variation in the position of the heat source region is less than the threshold value and the temperature of the heat source region is lower than the threshold value in summer, or when the temperature of the heat source region is higher than the threshold value in winter Determine that the area represents an air conditioner. Thereby, the air conditioner can be detected from the far-infrared image.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域の属性情報に基づいて、熱源領域が、遠赤外画像の下部に位置し、かつ、熱源領域の位置の変動量が、閾値未満であり、かつ、熱源領域の温度が、閾値より高く、かつ、熱源領域の大きさが、閾値未満である場合に、熱源領域が暖房器具を表すと判定する。これによって、遠赤外画像から暖房器具を検出することができる。 Further, the second determination means according to the first invention is configured such that the heat source region is positioned below the far infrared image based on the attribute information of the heat source region extracted for each of the far infrared images of the time series data. And the heat source region is heated when the variation in the position of the heat source region is less than the threshold, the temperature of the heat source region is higher than the threshold, and the size of the heat source region is less than the threshold. Determined to represent an appliance. Thereby, a heating appliance can be detected from a far-infrared image.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域の属性情報に基づいて、熱源領域の位置の変動量が、閾値未満であり、かつ、昼間の熱源領域の温度が、夜間の熱源領域の温度より高く、かつ、熱源領域の大きさが、閾値より大きい場合に、熱源領域が窓を表すと判定する。これによって、遠赤外画像から窓を検出することができる。 Further, the second determination means according to the first invention is based on the attribute information of the heat source region extracted for each of the far-infrared images of the time series data, and the variation amount of the position of the heat source region is less than the threshold value. If the temperature of the heat source area is higher than the temperature of the heat source area at night and the size of the heat source area is larger than the threshold, it is determined that the heat source area represents a window. Thereby, the window can be detected from the far-infrared image.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域の属性情報に基づいて、熱源領域の位置の変動量が、閾値未満であり、かつ、熱源領域の大きさが、閾値より大きく、かつ、熱源領域が含まれる同じ時刻の遠赤外画像に第1の判定手段によって人物らしい物体が存在すると判定された際、熱源領域の温度が、閾値より高くなる場合に、熱源領域がテレビを表すと判定する。これによって、遠赤外画像からテレビを検出することができる。 Further, the second determination means according to the first invention is based on the attribute information of the heat source region extracted for each of the far-infrared images of the time series data, and the variation amount of the position of the heat source region is less than the threshold value. When the first determination unit determines that there is a human-like object in the far-infrared image at the same time including the heat source area and the size of the heat source area is greater than the threshold value, If the temperature is higher than the threshold, it is determined that the heat source area represents a television. Thereby, the television can be detected from the far-infrared image.
また、第1の発明に係る第2の判定手段は、時系列データの遠赤外画像の各々について抽出された熱源領域の属性情報に基づいて、熱源領域の位置の変動量が、閾値未満であり、かつ、熱源領域の大きさが、閾値より小さく、かつ、熱源領域が含まれる同じ時刻の遠赤外画像に第1の判定手段によって人物らしい物体が存在すると判定された際、熱源領域の温度が、閾値より高くなる場合に、熱源領域が灰皿を表すと判定する。これによって、遠赤外画像から灰皿を検出することができる。 Further, the second determination means according to the first invention is based on the attribute information of the heat source region extracted for each of the far-infrared images of the time series data, and the variation amount of the position of the heat source region is less than the threshold value. When the first determination unit determines that there is a human-like object in the far-infrared image at the same time including the heat source area and the size of the heat source area is smaller than the threshold value, If the temperature is higher than the threshold, it is determined that the heat source region represents an ashtray. Thereby, the ashtray can be detected from the far-infrared image.
更に、第1の発明に係る監視装置は、第2の判定手段により熱源領域が人物を表すと判定された場合、警報を出力する出力手段を更に含む。これによって、留守中であっても不審者の存在を外部に通報することができる。 Furthermore, the monitoring apparatus according to the first invention further includes an output means for outputting an alarm when the second determination means determines that the heat source region represents a person. This makes it possible to report the presence of a suspicious person to the outside even when the user is away.
また、第1の発明に係る背景画像は、受付手段により遠赤外画像を受け付ける度に更新される。これによって、遠赤外画像から人物を検出する検出精度を更に向上させることができる。 The background image according to the first invention is updated every time a far-infrared image is received by the receiving means. Thereby, the detection accuracy for detecting a person from a far-infrared image can be further improved.
以上説明したように、本発明の監視装置及びプログラムによれば、遠赤外カメラのみを用いた場合であっても、遠赤外画像から人物を精度よく検出することができ、更には遠赤外画像の解像度が高くない場合においても、遠赤外画像から人物を精度よく検出することができる、という効果が得られる。 As described above, according to the monitoring apparatus and program of the present invention, even when only a far-infrared camera is used, a person can be accurately detected from a far-infrared image, and further, far-red Even when the resolution of the outside image is not high, it is possible to obtain an effect that a person can be accurately detected from the far-infrared image.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1に示すように、本実施の形態に係る監視システム5は、遠赤外カメラ90及び監視装置10を備えている。 As shown in FIG. 1, the monitoring system 5 according to the present embodiment includes a far-infrared camera 90 and a monitoring device 10.
遠赤外カメラ90は、例えば、遠赤外線領域に相当する3μm〜1000μmの波長を捉えるカメラである。本発明に従えば、数万ピクセルの高解像度な遠赤外カメラを用いてもよいが、数百〜数千ピクセル程度の低解像度の遠赤外カメラを用いても効果を得られる。ここでは一例として、遠赤外カメラ90は、数百〜数千ピクセル程度の低解像度の遠赤外カメラであるものとして説明する。 The far infrared camera 90 is, for example, a camera that captures a wavelength of 3 μm to 1000 μm corresponding to the far infrared region. According to the present invention, a high-infrared far-infrared camera having tens of thousands of pixels may be used, but an effect can be obtained even when a low-resolution far-infrared camera having several hundred to several thousand pixels is used. Here, as an example, the far-infrared camera 90 will be described as being a low-resolution far-infrared camera of about several hundred to several thousand pixels.
遠赤外カメラ90は図2に示すように、例えば、住宅の部屋等の予め定めた箇所に固定して取り付けられ、予め定めた範囲内の遠赤外画像を撮影する。図2の例では、遠赤外カメラ90の撮影範囲内に、エアコン100、暖房器具102、窓104、テレビ106、ペット108、及び人物110が存在している。 As shown in FIG. 2, the far-infrared camera 90 is fixedly attached to a predetermined location such as a house room, for example, and takes a far-infrared image within a predetermined range. In the example of FIG. 2, an air conditioner 100, a heating device 102, a window 104, a television 106, a pet 108, and a person 110 exist within the imaging range of the far infrared camera 90.
図3は、図2に示した部屋の様子を遠赤外カメラ90で撮影した際の遠赤外画像の一例を示した図である。 FIG. 3 is a diagram showing an example of a far-infrared image when the state of the room shown in FIG.
遠赤外カメラ90は、遠赤外線領域の波長を捉える低解像度のカメラであるため可視光カメラや高解像度の遠赤外カメラとは異なり、図3に示すように、撮影した遠赤外画像に含まれる物体の輪郭はぼやけ、遠赤外画像を目視しただけでは、遠赤外画像に含まれる物体の種別を特定することができない。一方、物体の温度に応じて物体から放射される遠赤外線量が異なるため、遠赤外カメラ90の各画素は、この遠赤外線量から物体の温度を検知し、検知した温度に応じた画素値を出力することで遠赤外画像から物体の温度情報を出力する。なお、一例として、物体の温度が高くなるに従って遠赤外カメラ90の画素が出力する画素値が大きくなる。また、遠赤外カメラ90の各画素は、撮影した遠赤外画像の水平方向の画素数がWimage、垂直方向の画素数がHimageとなるように、矩形に配置されているものとする。 Since the far-infrared camera 90 is a low-resolution camera that captures wavelengths in the far-infrared region, unlike a visible light camera or a high-resolution far-infrared camera, as shown in FIG. The outline of the included object is blurred, and the type of the object included in the far-infrared image cannot be specified only by viewing the far-infrared image. On the other hand, since the amount of far infrared rays emitted from the object differs according to the temperature of the object, each pixel of the far infrared camera 90 detects the temperature of the object from the amount of far infrared rays, and the pixel value corresponding to the detected temperature Is output from the far-infrared image. As an example, the pixel value output by the pixel of the far-infrared camera 90 increases as the temperature of the object increases. In addition, each pixel of the far-infrared camera 90 is arranged in a rectangle so that the number of pixels in the horizontal direction of the captured far-infrared image is W image and the number of pixels in the vertical direction is H image. .
なお、遠赤外カメラ90によって撮影される遠赤外画像は、静止画又は動画の何れであってもよい。 Note that the far-infrared image captured by the far-infrared camera 90 may be either a still image or a moving image.
一方、図1における監視装置10は、CPUと、RAMと、後述する背景画像算出ルーチン及び人物判定ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。 On the other hand, the monitoring apparatus 10 in FIG. 1 is configured by a computer including a CPU, a RAM, and a ROM that stores a program for executing a background image calculation routine and a person determination routine described later. As shown in FIG.
監視装置10は、受付部20と、演算部25と、出力部70と、記憶部80とを備えている。また、演算部25は、抽出部30と、取得部40と、蓄積部50、判定部60とを備えている。 The monitoring device 10 includes a reception unit 20, a calculation unit 25, an output unit 70, and a storage unit 80. The calculation unit 25 includes an extraction unit 30, an acquisition unit 40, an accumulation unit 50, and a determination unit 60.
受付部20は、遠赤外カメラ90により撮影された遠赤外画像を受け付ける。既に説明したように、遠赤外画像の各画素値は温度を表すため、図4に示すように、遠赤外カメラ90の撮影範囲内の温度分布を示した遠赤外画像が取得できる。なお、図4に示した遠赤外画像の例では、遠赤外画像中央部に周囲の温度とは異なる25℃〜35℃の範囲の温度を有する何らかの物体が認められる。また、図4に示した遠赤外画像の例は、遠赤外画像に含まれる物体の1つに注目したものであり、実際の遠赤外画像には図3に示したように複数の物体が含まれる。 The accepting unit 20 accepts a far infrared image captured by the far infrared camera 90. As already described, since each pixel value of the far infrared image represents temperature, as shown in FIG. 4, a far infrared image showing the temperature distribution within the imaging range of the far infrared camera 90 can be acquired. In the example of the far infrared image shown in FIG. 4, some object having a temperature in the range of 25 ° C. to 35 ° C. different from the ambient temperature is recognized at the center of the far infrared image. In addition, the example of the far-infrared image shown in FIG. 4 focuses on one of the objects included in the far-infrared image, and an actual far-infrared image includes a plurality of objects as shown in FIG. Contains objects.
また、受付部20は、例えば監視装置10の起動又は停止等の、監視装置10の動作に関する指示を更に受け付ける。 In addition, the reception unit 20 further receives an instruction regarding the operation of the monitoring device 10 such as activation or stop of the monitoring device 10.
抽出部30は、受付部20で受け付けた遠赤外画像から背景画像14を生成し、生成した背景画像14と、背景画像生成後に受付部20で受け付けた遠赤外画像である入力画像12とを比較して、入力画像12から背景画像14の温度分布と異なる領域、すなわち、背景画像14の温度より高い或いは低い領域が一定の大きさでまとまっている領域である熱源領域16を抽出する。図5はこの処理を模式的に説明した図であり、背景画像14を用いて入力画像12から熱源領域16を抽出する様子を示している。 The extraction unit 30 generates a background image 14 from the far-infrared image received by the reception unit 20, the generated background image 14, and the input image 12 that is a far-infrared image received by the reception unit 20 after the background image is generated. Are extracted from the input image 12 a region different from the temperature distribution of the background image 14, that is, a region where regions having higher or lower temperatures than the background image 14 are gathered with a certain size. FIG. 5 is a diagram schematically illustrating this process, and shows how the heat source region 16 is extracted from the input image 12 using the background image 14.
ここで背景画像14とは、受付部20で受け付けた、予め定めた枚数Nの遠赤外画像から算出される画像である。 Here, the background image 14 is an image calculated from a predetermined number N of far-infrared images received by the receiving unit 20.
具体的には、遠赤外画像の各画素の配置を、図4に示すように遠赤外画像の左上の頂点に位置する画素を原点とした、遠赤外画像の水平方向をX軸、遠赤外画像の垂直方向をY軸とする(x、y)座標で表した場合、背景画像14は(1)式及び(2)式によって算出される。 Specifically, the arrangement of each pixel of the far-infrared image is as follows. As shown in FIG. When the vertical direction of the far-infrared image is represented by (x, y) coordinates with the Y axis as the background, the background image 14 is calculated by the equations (1) and (2).
ここで、In(x,y)は、N枚の遠赤外画像のうちn枚目(n=1,・・・,N)の遠赤外画像の座標(x,y)における画素の画素値、I^(x,y)は、背景画像14の座標(x,y)における画素の平均値、σ(x,y)は背景画像14の座標(x,y)における画素の標準偏差を表す。 Here, I n (x, y) is the pixel in the coordinates (x, y) of the n-th (n = 1,..., N) far-infrared image among the N far-infrared images. The pixel value, I ^ (x, y) is the average value of the pixels at the coordinates (x, y) of the background image 14, and σ (x, y) is the standard deviation of the pixels at the coordinates (x, y) of the background image 14. Represents.
そして、抽出部30は、入力画像12と背景画像14との差分を(3)式に従って計算し、入力画像12から熱源領域16を抽出するためのフィルタF(x,y)を算出する。 Then, the extraction unit 30 calculates the difference between the input image 12 and the background image 14 according to the equation (3), and calculates a filter F (x, y) for extracting the heat source region 16 from the input image 12.
ここで、I(x,y)は入力画像12の座標(x,y)における画素の画素値、Mは熱源領域16を抽出するための画素値マージンを表す。これはすなわち、画素の値は温度情報を示すため、画素値マージンは温度マージンを表しているとも言うことができる。 Here, I (x, y) represents the pixel value of the pixel at the coordinates (x, y) of the input image 12, and M represents the pixel value margin for extracting the heat source region 16. In other words, since the pixel value indicates temperature information, the pixel value margin can also be said to represent the temperature margin.
抽出部30は、フィルタF(x,y)の値に基づいて、入力画像12からF(x,y)=1となる領域を熱源領域16として抽出する。そして、抽出部30は、背景画像14及び熱源領域16を記憶部80に記憶する。 The extraction unit 30 extracts a region where F (x, y) = 1 from the input image 12 as the heat source region 16 based on the value of the filter F (x, y). Then, the extraction unit 30 stores the background image 14 and the heat source region 16 in the storage unit 80.
取得部40は、抽出部30で抽出された熱源領域16毎に属性情報を取得する。ここで、熱源領域16の属性情報とは、各熱源領域16の温度分布から得られる定量的な値をいう。図6は、熱源領域16の属性情報の一例を示した図であり、取得部40は、熱源領域16から例えば位置、寸法、面積、及び温度に関する情報を属性情報として取得する。 The acquisition unit 40 acquires attribute information for each heat source region 16 extracted by the extraction unit 30. Here, the attribute information of the heat source region 16 refers to a quantitative value obtained from the temperature distribution of each heat source region 16. FIG. 6 is a diagram illustrating an example of attribute information of the heat source region 16, and the acquisition unit 40 acquires information about, for example, position, size, area, and temperature from the heat source region 16 as attribute information.
熱源領域16の位置に関する属性情報として、例えば、熱源領域16の中央点PC及び重心点PGがある。熱源領域16の中央点PCとは、図7に示すように、4辺が熱源領域16に接する長方形の対角線が交差する位置における入力画像12上の座標点をいう。また、熱源領域16の重心点PGとは、熱源領域16の質量中心における入力画像12上の座標点をいう。 As attribute information relating to the position of the heat source region 16, for example, there is a central point P C and the center of gravity P G of the heat source region 16. The central point P C of the heat source regions 16, as shown in FIG. 7, four sides diagonal of the rectangle contacting the heat source region 16 refers to a coordinate point on the input image 12 at a position intersecting. Further, the center of gravity P G heat source region 16 refers to a coordinate point on the input image 12 in the center of mass of heat sources region 16.
そして、熱源領域16の寸法に関する属性情報として、例えば、熱源領域16の幅W及び高さHがある。熱源領域16の幅Wとは、図7に示すように、4辺が熱源領域16に接する長方形の水平方向の画素数をいう。また、熱源領域16の高さHとは、当該長方形の垂直方向の画素数をいう。 The attribute information related to the dimensions of the heat source region 16 includes, for example, the width W and the height H of the heat source region 16. As shown in FIG. 7, the width W of the heat source region 16 refers to the number of pixels in the horizontal direction of a rectangle whose four sides are in contact with the heat source region 16. The height H of the heat source region 16 refers to the number of pixels in the vertical direction of the rectangle.
そして、熱源領域16の面積に関する属性情報として、例えば、熱源領域16の画素数Sがある。なお、熱源領域16の画素数Sは、入力画像12から熱源領域16を抽出する際に算出したフィルタF(x,y)において、F(x,y)=1である画素数を計測することで取得することができる。 The attribute information related to the area of the heat source region 16 includes, for example, the number of pixels S of the heat source region 16. The number S of pixels in the heat source region 16 is obtained by measuring the number of pixels in which F (x, y) = 1 in the filter F (x, y) calculated when the heat source region 16 is extracted from the input image 12. Can be obtained at.
そして、熱源領域16の温度に関する属性情報として、例えば、熱源領域16の平均温度Tave、最高温度Tmax、及び最低温度Tminがある。熱源領域16の平均温度Taveは、熱源領域16に含まれる各画素における画素値の平均値、熱源領域16の最高温度Tmaxは、熱源領域16に含まれる画素のうち最大の画素値、熱源領域16の最低温度Tminは、熱源領域16に含まれる画素のうち最小の画素値として取得することができる。 The attribute information regarding the temperature of the heat source region 16 includes, for example, the average temperature T ave , the maximum temperature T max , and the minimum temperature T min of the heat source region 16. The average temperature T ave of the heat source region 16 is the average value of the pixel values in each pixel included in the heat source region 16, and the maximum temperature T max of the heat source region 16 is the maximum pixel value of the pixels included in the heat source region 16, the heat source The minimum temperature T min of the region 16 can be acquired as the minimum pixel value among the pixels included in the heat source region 16.
蓄積部50は、取得部40で取得した熱源領域16の属性情報と、当該属性情報の時間経過を表す時刻情報と、を関連付けて、熱源領域16の属性情報及び時刻情報を記憶部80へ蓄積する。 The accumulation unit 50 associates the attribute information of the heat source region 16 acquired by the acquisition unit 40 with the time information indicating the passage of time of the attribute information, and accumulates the attribute information and time information of the heat source region 16 in the storage unit 80. To do.
なお、入力画像12に複数の熱源領域16が含まれ、各々の熱源領域16から属性情報が取得された場合、これらの属性情報は同時刻に撮影された入力画像12から得られた属性情報であるため、各々の属性情報に同じ時刻情報を関連づける。このように本実施形態では、一例として時系列を時刻で表すものとして説明を行うが、例えば連番等、他の時系列を表す指標を用いるようにしてもよい。 When the input image 12 includes a plurality of heat source regions 16 and attribute information is acquired from each of the heat source regions 16, the attribute information is attribute information obtained from the input image 12 taken at the same time. Therefore, the same time information is associated with each attribute information. As described above, in this embodiment, the time series is described as an example of time, but an index representing another time series such as a serial number may be used.
判定部60は、予め定めた期間に亘って記憶部80に熱源領域16の属性情報が蓄積された後、例えば受付部20で入力画像12を受け付ける毎に、受け付けた入力画像12に含まれる熱源領域16の属性情報、及びこれまで記憶部80に蓄積された過去の入力画像12に含まれる熱源領域16の属性情報に基づいて、新たに受け付けた入力画像12に含まれる熱源領域16が示す物体の種別を判定する。 After the attribute information of the heat source region 16 is accumulated in the storage unit 80 over a predetermined period, the determination unit 60, for example, every time the input image 12 is received by the reception unit 20, the heat source included in the received input image 12 Based on the attribute information of the region 16 and the attribute information of the heat source region 16 included in the past input image 12 accumulated so far in the storage unit 80, the object indicated by the heat source region 16 included in the newly received input image 12 The type of is determined.
そのため、まず判定部60は、熱源領域16に対して、取得部40で取得された属性情報に基づいて予備判定を実施する。 Therefore, the determination unit 60 first performs preliminary determination on the heat source region 16 based on the attribute information acquired by the acquisition unit 40.
予備判定は、熱源領域16が示す物体が人物である可能性、すなわち「人らしさ」を判定する。従って、予備判定により熱源領域16が示す物体が人らしいと判定された場合であっても、直ちに熱源領域16が人物であると確定されるわけではない。 In the preliminary determination, the possibility that the object indicated by the heat source region 16 is a person, that is, “humanity” is determined. Therefore, even if it is determined by preliminary determination that the object indicated by the heat source region 16 is human, the heat source region 16 is not immediately determined to be a person.
図8は、予備判定の判定項目及び判定条件の一例を示した図である。図8に示すように、例えば、予備判定は属性情報に対して縦横比、面積、及び温度に関する各判定項目を含む。 FIG. 8 is a diagram illustrating an example of determination items and determination conditions for preliminary determination. As shown in FIG. 8, for example, the preliminary determination includes determination items related to the aspect ratio, area, and temperature with respect to the attribute information.
一般的に、人物の形状は上下方向に長い縦長である場合が多いことから、属性情報に含まれる幅W及び高さHが、判定条件H>αWを満たすか否かを判定する。ここでαは、幅Wと高さHとの大小関係を調整するための予め定めた係数である。 Generally, since the shape of a person is often vertically long in the vertical direction, it is determined whether or not the width W and the height H included in the attribute information satisfy the determination condition H> αW. Here, α is a predetermined coefficient for adjusting the magnitude relationship between the width W and the height H.
また、人物であれば入力画像12内に一定以上の面積を有し、且つ、通常取りうる体温の範囲も予め予測できることから、属性情報に含まれる面積Sに対してS>Sthの条件を満たし、属性情報に含まれる平均温度Taveに対して、Tth1<Tave<Tth2の条件を満たすか否かを判定する。ここで、Sthは入力画像12において、熱源領域16を人物と判定するのに必要な面積、Tth1は熱源領域16を人物と判定するための下限温度、Tth2は熱源領域16を人物と判定するための上限温度を表す。 Further, if the person has a certain area or more in the input image 12 and the range of body temperature that can be normally taken can be predicted in advance, the condition of S> S th is set for the area S included in the attribute information. It is determined whether the condition of T th1 <T ave <T th2 is satisfied for the average temperature T ave included in the attribute information. Here, S th is an area necessary for determining the heat source region 16 as a person in the input image 12, T th1 is a lower limit temperature for determining the heat source region 16 as a person, and T th2 is a heat source region 16 as a person. Represents the upper limit temperature for determination.
ここで、面積Sに対するS>Sthの条件の替わりに、Smax>S>Sthのように面積Sに対して上限値Smaxを設けるようにしてもよい。Smaxは入力画像12において人物の面積として考えられる上限の面積値である。面積Sに対して上限値Smaxを設けることで、人物としてあり得ない大きさの熱源領域16を人らしいと判定してしまうことを防止することができる。 Here, instead of the condition of S> S th to the area S, it may be an upper limit value S max with respect to S max>S> S area S as th. S max is an upper limit area value that can be considered as the area of a person in the input image 12. By providing the upper limit value S max with respect to the area S, it is possible to prevent the heat source region 16 having a size that is impossible for a person from being determined to be human.
なお、係数α、面積Sth、Smax、下限温度Tth1、上限温度Tth2、は、遠赤外カメラ90の画素数や撮影範囲、及び遠赤外カメラ90の設置箇所周辺の温度等の環境条件等に応じて決定する。一例として、遠赤外カメラ90の水平方向×垂直方向における画素数が50×50、撮影範囲が60度のカメラを室内の天井に設置した場合、α=1.0、Sth=0.008×Wimage×Himage、Tth1=20、Tth2=40となる。 Note that the coefficient α, the area S th , S max , the lower limit temperature T th1 , and the upper limit temperature T th2 are the number of pixels of the far infrared camera 90, the photographing range, the temperature around the installation location of the far infrared camera 90, etc. Determine according to environmental conditions. As an example, when a camera with a far-infrared camera 90 with 50 × 50 pixels in the horizontal direction × vertical direction and a shooting range of 60 degrees is installed on the ceiling of the room, α = 1.0 and S th = 0.008. × W image × H image , T th1 = 20, T th2 = 40.
そして、判定部60は縦横比、面積、及び温度に関する全ての判定条件を満足する属性情報に対してR=1、それ以外の属性情報に対してR=0の情報を関連付ける。 The determination unit 60 associates R = 1 information with attribute information that satisfies all the determination conditions regarding the aspect ratio, area, and temperature, and R = 0 with other attribute information.
そして、判定部60は、あるタイミングにおける熱源領域16の属性情報に関連付けられた時刻情報をtとした場合、当該熱源領域16が示す物体の種別を、物体の種別毎に予め定めた判定式に従って判定する。 Then, when the time information associated with the attribute information of the heat source region 16 at a certain timing is t, the determination unit 60 determines the type of the object indicated by the heat source region 16 according to a determination formula that is predetermined for each type of object. judge.
図9は、物体の種別毎に予め定めた判定式の一例を示した図である。 FIG. 9 is a diagram illustrating an example of a determination formula predetermined for each type of object.
図9におけるNo.1の判定式1)は、熱源領域16が示す物体が人物か否かを判定する判定式であり、図10は、判定式1)が表す状況の一例を示した図である。 No. in FIG. 1 is a determination formula for determining whether or not the object indicated by the heat source region 16 is a person, and FIG. 10 is a diagram illustrating an example of a situation represented by the determination formula 1).
判定式1)は、最新の時刻tからparam1で表される予め定めた時点nまで過去に遡った範囲に含まれる各時刻における属性情報の「人らしさ」を表すR(t−n)の総和が、param2より大きく、かつ、R(t)=1、すなわち、最新の時刻tにおける熱源領域16が人らしいと判定された場合に、最新の時刻tにおいて抽出された熱源領域16が示す物体の種別を人物と判定するための判定式である。 The determination formula 1) is a sum of R (t−n) representing “humanity” of attribute information at each time included in a range retroactively from the latest time t to a predetermined time point n represented by param1. Is larger than param2 and R (t) = 1, that is, when it is determined that the heat source region 16 at the latest time t is human, the object indicated by the heat source region 16 extracted at the latest time t It is a determination formula for determining the type as a person.
図10は、R(t−n)の総和が5となった例で、最新の時刻からparam1時点まで遡った範囲のうち、時刻t、(t−n1)、(t−n2)、(t−n3)、及び(t−n4)における熱源領域16が人らしいと判定された例を示している。ここで、n1〜n4は1以上param1以下、かつ、n1<n2<n3<n4の大小関係を有する任意の自然数を表し、図10の“・・・”は、人らしいと判定されなかった時刻の範囲を示す。 FIG. 10 shows an example in which the sum total of R (t−n) is 5, and the time t, (t−n1), (t−n2), (t -N3) and an example in which it is determined that the heat source region 16 in (t-n4) is human. Here, n1 to n4 represent arbitrary natural numbers having a magnitude relationship of 1 to param1 and n1 <n2 <n3 <n4, and “...” In FIG. Indicates the range.
判定式1)を満足する場合、入力画像12内に人物がいると判定する。しかし、熱源領域16が示す物体が人物か否かを判定する判定式は判定式1)に限られない。 When the determination formula 1) is satisfied, it is determined that there is a person in the input image 12. However, the determination formula for determining whether the object indicated by the heat source region 16 is a person is not limited to the determination formula 1).
例えば、図11に示すように、最新の時刻から過去に遡ったparam1A個の各時点での熱源領域16が連続して人らしいと判定された場合に、最新の時刻tから抽出された熱源領域16が示す物体の種別を人物と判定するようにしてもよい。図11の例では、最新の時刻から過去に遡った5個の各時点での熱源領域16が人らしいと連続して判定された状況を示している。 For example, as shown in FIG. 11, when it is determined that the heat source region 16 at each time point of the param1A that goes back to the past from the latest time is likely to be human, the heat source region extracted from the latest time t The type of the object indicated by 16 may be determined as a person. The example of FIG. 11 shows a situation in which it is continuously determined that the heat source region 16 at each of the five points in time from the latest time is likely to be human.
また、例えば、図12に示すように、最新の時刻tからparam1Bで表される時点まで過去に遡った範囲において、熱源領域16が複数回連続して人らしいと判定された回数がparam2B以上となり、かつ、最新の時刻tにおける熱源領域16が人らしいと判定された場合に、最新の時刻tにおいて抽出された熱源領域16が示す物体の種別を人物と判定するようにしてもよい。図12の例では、最新の時刻からparam1Bで表される時点まで過去に遡った範囲において、2回連続して人らしいと判定された回数が3回ある状況を示している。図12における“・・・”は、図10と同様に、人らしいと判定されなかった時刻の範囲を示す。 Also, for example, as shown in FIG. 12, the number of times that the heat source region 16 is determined to be human is continuously more than param2B in the range that dates back from the latest time t to the time point represented by param1B. In addition, when it is determined that the heat source region 16 at the latest time t is human, the type of the object indicated by the heat source region 16 extracted at the latest time t may be determined as a person. The example of FIG. 12 shows a situation in which the number of times that it is determined that the person seems to be human twice is consecutive three times in the range traced back to the past from the latest time to the time point represented by param1B. “...” In FIG. 12 indicates a range of time that is not determined to be human, as in FIG. 10.
なお、図12の例では、2回連続して人らしいと判定された回数がparam2B以上か否か判定しているが、人らしいと判定される連続数は2回に限られない。例えばP(Pは2以上の自然数)回連続して人らしいと判定された回数がparam2B以上か否か判定するようにしてもよいことは言うまでもない。 In the example of FIG. 12, it is determined whether or not the number of times determined to be human twice is equal to or greater than param2B, but the number of continuous times determined to be human is not limited to two. For example, it goes without saying that it may be determined whether or not the number of times determined to be human is P or more is param2B or more P (P is a natural number of 2 or more).
また、図10〜図12におけるparam1、param2、param1A、param1B、及びparam2Bの各パラメータは自然数を表し、遠赤外カメラ90の画素数や撮影範囲、及び遠赤外カメラ90の設置箇所周辺の温度等の環境条件等に応じて予め決定される。 10 to 12, each parameter of param1, param2, param1A, param1B, and param2B represents a natural number, the number of pixels of the far infrared camera 90, the photographing range, and the temperature around the installation location of the far infrared camera 90. It is determined in advance according to the environmental conditions.
人は住宅の部屋等の住居内においては立って移動するだけでなく、例えば椅子に座ったり、床に寝転がったりするため、遠赤外カメラ90で撮影される人物の形状は、上下方向に長い縦長であるとは限らない。従って、熱源領域16が示す物体が人物であったとしても、図8に示した予備判定の縦横比に関する判定項目が満足されないことから、人物を表す熱源領域16を人物ではないと判定し、入力画像12から人物を見失う可能性が考えられる。また、例えば遠赤外カメラ90の性能が悪い場合や、人物が家具の後ろに隠れてしまった場合等にも、人物を表す熱源領域16を人物ではないと判定し、入力画像12から人物を見失う可能性が考えられる。 Since a person not only stands and moves in a house such as a room in a house but also sits on a chair or lies on the floor, the shape of the person photographed by the far-infrared camera 90 is long in the vertical direction. It is not always vertically long. Therefore, even if the object indicated by the heat source region 16 is a person, the determination items regarding the aspect ratio of the preliminary determination shown in FIG. 8 are not satisfied, so the heat source region 16 representing a person is determined not to be a person and input There is a possibility of losing a person from the image 12. For example, when the performance of the far-infrared camera 90 is poor or when a person is hidden behind furniture, the heat source region 16 representing the person is determined not to be a person, and the person is selected from the input image 12. Possible loss of sight.
しかし、入力画像12から人物を見失ってしまった場合でも、人物が部屋に入るタイミングや出るタイミング等、人物が部屋にいる間には、複数回の期間に亘って人物が立って部屋を移動する状況が発生する。従って、上記図10〜図12に示した人物の判定方法は、人物が部屋に入ってから出るまでの期間の途中で、人物の姿勢の変化等から図8に示した予備判定の判定項目の何れかを満足せずに、入力画像12から人物を見失った場合であっても、最新の時刻tにおいて抽出された熱源領域16が示す物体の種別を人物と判定することができる。 However, even if the person loses sight of the person from the input image 12, while the person is in the room, such as when the person enters or leaves the room, the person stands and moves through the room for a plurality of times. A situation occurs. Therefore, in the person determination method shown in FIGS. 10 to 12, the preliminary determination determination items shown in FIG. 8 are obtained during the period from when the person enters the room to when the person leaves. Even if a person is lost from the input image 12 without satisfying any of them, the type of the object indicated by the heat source region 16 extracted at the latest time t can be determined as a person.
上記の理由から、param1を、1秒〜10秒程度に対応する回数に設定すればよいが、param1Bの値は、10秒〜数分程度のオーダーに対応する回数に設定する。 For the above reason, param1 may be set to a number corresponding to about 1 to 10 seconds, but the value of param1B is set to a number corresponding to an order of about 10 seconds to several minutes.
なお、熱源領域16が示す物体が人物か否かを判定する図9におけるNo.1の判定式1)では、特に熱源領域16の位置の変化に関する判定を行っていないが、例えば、熱源領域16の位置の変化量が予め定めた閾値より大きい場合に、熱源領域16が示す物体の種別を人物と判定する判定条件を追加するようにしてもよい。 In addition, it is determined whether the object indicated by the heat source region 16 is a person in FIG. In the determination formula 1) 1, the determination regarding the change in the position of the heat source region 16 is not particularly performed. For example, when the amount of change in the position of the heat source region 16 is larger than a predetermined threshold, the object indicated by the heat source region 16 A determination condition for determining the type of a person as a person may be added.
状況によっては、人物と後述する窓等の静止物との大きさが同程度となる場合が考えられることから、判定式1)に熱源領域16の位置の変化量に関する判定条件を追加することで、窓等の静止物と人物との誤判定を低減する効果が期待できる。なお、熱源領域16の位置の変化量に関する判定条件は、図11及び図12を用いて説明した人物の判定方法に追加してもよいことは言うまでもない。 Depending on the situation, the size of a person and a stationary object such as a window, which will be described later, may be approximately the same. Therefore, by adding a determination condition regarding the amount of change in the position of the heat source region 16 to the determination formula 1). In addition, an effect of reducing erroneous determination between a stationary object such as a window and a person can be expected. Needless to say, the determination condition regarding the amount of change in the position of the heat source region 16 may be added to the person determination method described with reference to FIGS. 11 and 12.
また、遠赤外カメラ90の設置位置によっては、遠赤外カメラ90のレンズの真下に人物が来てしまい、人物に対応した熱源領域16の縦横比がほぼ1:1、すなわち熱源領域16の形状が円形に近い形状となることがある。こうした状況は、例えば広角レンズを装着した遠赤外カメラ90を部屋の中央付近の天井に設置して、より広い範囲を撮影しようとする場合に発生しやすい。 Depending on the installation position of the far-infrared camera 90, a person comes directly under the lens of the far-infrared camera 90, and the aspect ratio of the heat source area 16 corresponding to the person is approximately 1: 1, that is, the heat source area 16 The shape may be close to a circle. Such a situation is likely to occur when, for example, a far-infrared camera 90 equipped with a wide-angle lens is installed on the ceiling near the center of the room to capture a wider range.
従って、遠赤外カメラ90の入力画像12において、遠赤外カメラ90のレンズの真下に相当する範囲を示す情報を予め記憶部80に記憶しておき、当該範囲に熱源領域16が存在する場合には、図8に示した縦横比の判定条件を調整するαの値を、より“1”に近づけた値に変更するようにしてもよい。 Accordingly, in the input image 12 of the far-infrared camera 90, information indicating a range corresponding to a position directly below the lens of the far-infrared camera 90 is stored in the storage unit 80 in advance, and the heat source region 16 exists in the range. Alternatively, the value of α for adjusting the aspect ratio determination condition shown in FIG. 8 may be changed to a value closer to “1”.
この様に、遠赤外カメラ90の設置位置に関する情報、及び遠赤外カメラ90が装着するレンズ等の設定に関する情報からαの値を調整することで、入力画像12に人物が含まれるか否かの判定精度を向上させることができる。 In this way, whether or not a person is included in the input image 12 by adjusting the value of α from the information related to the installation position of the far-infrared camera 90 and the information related to the setting of the lens or the like attached to the far-infrared camera 90. The determination accuracy can be improved.
図9におけるNo.2の判定式2)〜4)は、熱源領域16が示す物体がエアコンか否かを判定する判定式である。エアコンは、入力画像12の比較的上部に固定して設置され、夏期には周囲の温度、すなわち室温より低い温度を示し、冬期には室温より高い温度を示す傾向が見られる。 No. in FIG. 2 determination formulas 2) to 4) are determination formulas for determining whether or not the object indicated by the heat source region 16 is an air conditioner. The air conditioner is fixedly installed at a relatively upper portion of the input image 12, and has a tendency to show an ambient temperature in summer, that is, a temperature lower than room temperature, and to show a temperature higher than room temperature in winter.
従って、判定式2)は、属性情報の中央点PCが入力画像12の上半分にあることを示した判定式である。ここでPcy(t)は、時刻tにおける属性情報の中央点PCのy座標を表す。以下、何れかの属性情報を表す記号Zに対して、Z(t)は時刻tにおける属性情報を表すものとする。 Therefore, the judgment formula 2) is a determination formula in which central point P C attribute information showed that the top half of the input image 12. Here P cy (t) represents the y coordinate of the center point P C of the attribute information at time t. Hereinafter, with respect to the symbol Z representing any attribute information, Z (t) represents the attribute information at time t.
判定式3)は、属性情報の中央点PCが変動していないことを示した判定式である。ここで、dPcy(t)/dtは、例えば、時刻(t−n)における中央点PCのy座標から時刻tにおける中央点PCのy座標の時間変化を表す値である。なお、時刻(t−n)(nは0以上の整数)は、時刻tよりn個過去に遡った時点の時刻を表す。 Determination equation 3) is a discriminants central point P C of attribute information indicates that no change. Here, dP cy (t) / dt is, for example, a value representing the time variation of the y-coordinate of the center point P C at time t from y-coordinate of the center point P C at time (t-n). Note that the time (t−n) (n is an integer of 0 or more) represents the time at the time of going back n times from the time t.
判定式4)は、時刻tにおける属性情報の平均温度Taveと、室温Troomとの関係を判定するための判定式である。判定式4)は、季節に応じて判定に用いられる判定式が異なる。例えば、6月から9月までの夏期の間では、(4)式が用いられ、12月から3月までの冬期の間では、(5)式が用いられる。 The determination formula 4) is a determination formula for determining the relationship between the average temperature T ave of the attribute information at the time t and the room temperature T room . The judgment formula 4) is different from the judgment formula used for judgment according to the season. For example, the formula (4) is used during the summer period from June to September, and the formula (5) is used during the winter period from December to March.
(4)式は、時刻tにおける属性情報の平均温度Taveが、室温Troomより低いことを示した判定式である。一方、(5)式は、平均温度Taveが室温Troomより高いことを示した判定式である。 Formula (4) is a determination formula indicating that the average temperature T ave of the attribute information at time t is lower than the room temperature T room . On the other hand, equation (5) is a determination equation indicating that the average temperature T ave is higher than the room temperature T room .
ここで、param4は室温Troomを調整するためのマージンである。なお、図9におけるparamβ(βは自然数)及び室温Troomは、遠赤外カメラ90の画素数や撮影範囲、及び遠赤外カメラ90の設置箇所周辺の温度等の環境条件等に応じて予め決定しておく。 Here, param4 is a margin for adjusting the room temperature Troom. Incidentally, paramβ (β is a natural number) and room temperature T room room in Figure 9, in advance according to the far-infrared pixel number and the shooting range of the camera 90, and environmental conditions such as temperature around the installation place of the far-infrared camera 90, etc. Make a decision.
そして、判定部60は、時刻tにおける属性情報が判定式2)〜4)を全て満足する場合、当該熱源領域16が示す物体は、エアコンであると判定する。なお、上記に示した夏期及び冬期の期間は一例であり、夏期が6月から9月の期間に、また、冬期が12月から3月の期間に限定されるものではない。 And the determination part 60 determines with the object which the said heat-source area | region 16 shows is an air conditioner, when the attribute information in the time t satisfies all the determination formulas 2) -4). Note that the summer and winter periods shown above are examples, and the summer is not limited to the period from June to September, and the winter is not limited to the period from December to March.
図9におけるNo.3の判定式5)〜8)は、熱源領域16が示す物体が暖房器具か否かを判定する判定式である。 No. in FIG. 3 determination formulas 5) to 8) are determination formulas for determining whether or not the object indicated by the heat source region 16 is a heating appliance.
暖房器具は、室内の比較的下部に固定して設置され、周囲の温度、すなわち室温より高い温度を示すと共に、当該室温より高い温度を示す範囲が比較的狭い範囲に限定される傾向が見られる。判定式5)〜8)は、こうした暖房器具に特徴的な属性情報の傾向を定式化したものであり、判定部60は、時刻tにおける熱源領域16の属性情報が判定式5)〜8)を全て満足する場合、当該熱源領域16が示す物体は、暖房器具であると判定する。 Heating appliances are fixedly installed in a relatively lower part of the room and show a temperature higher than the ambient temperature, that is, a temperature higher than room temperature, and the range showing the temperature higher than the room temperature tends to be limited to a relatively narrow range. . The determination formulas 5) to 8) formulate the tendency of attribute information characteristic of such a heating appliance, and the determination unit 60 determines the attribute information of the heat source region 16 at time t as the determination formulas 5) to 8). Is satisfied, it is determined that the object indicated by the heat source region 16 is a heating appliance.
また、図9におけるNo.4の判定式9)〜11)は、熱源領域16が示す物体が窓か否かを判定する判定式である。 In addition, in FIG. 4 determination formulas 9) to 11) are determination formulas for determining whether or not the object indicated by the heat source region 16 is a window.
窓は建物に固定して設置され、昼間の温度が夜間の温度より高く、その大きさは比較的大きいという傾向が見られる。判定式9)〜11)は、こうした窓に特徴的な属性情報の傾向を定式化したものであり、判定部60は、時刻tにおける熱源領域16の属性情報が判定式9)〜11)を全て満足する場合、当該熱源領域16が示す物体は、窓であると判定する。 The windows are fixedly installed in the building, and the daytime temperature is higher than the nighttime temperature, and the size is relatively large. The determination formulas 9) to 11) formulate the tendency of attribute information characteristic of such windows, and the determination unit 60 determines that the attribute information of the heat source region 16 at time t is determined by the determination formulas 9) to 11). When all are satisfied, it is determined that the object indicated by the heat source region 16 is a window.
なお、判定式10)において、平均温度Tave(night)とは、夜間に相当する時刻に対応した時刻における属性情報の平均温度を表し、平均温度Tave(day)とは、昼間に相当する時刻に対応した時刻における属性情報の平均温度を表す。例えば、6時以降から18時未満までの期間を昼間、18時以降から6時未満までの期間を夜間とし、判定式9)を判定するが、昼間及び夜間の期間設定はこれに限定されるものではない。 In the determination formula 10), the average temperature T ave (night) represents the average temperature of the attribute information at the time corresponding to the time corresponding to the night, and the average temperature T ave (day) corresponds to the daytime. It represents the average temperature of the attribute information at the time corresponding to the time. For example, the period from 6 o'clock to less than 18 o'clock is determined as daytime, and the period from after 18 o'clock to less than 6 o'clock is determined as night, and determination formula 9) is determined. However, the period setting for daytime and night is limited to this. It is not a thing.
また、図9におけるNo.5の判定式12)〜14)は、熱源領域16が示す物体がテレビか否かを判定する判定式である。 In addition, in FIG. 5 determination formulas 12) to 14) are determination formulas for determining whether or not the object indicated by the heat source region 16 is a television.
テレビは室内に固定して設置され、人物がいる場合に電源が投入され視聴される場合が多いことから、人物がいる間、室温より高い温度を示し、その大きさは比較的大きいという傾向が見られる。判定式12)〜14)は、こうしたテレビに特徴的な属性情報の傾向を定式化したものであり、判定部60は、時刻tにおける熱源領域16の属性情報が判定式12)〜14)を全て満足する場合、当該熱源領域16が示す物体は、テレビであると判定する。 Since TVs are installed indoors and are often turned on and watched when there are people, the temperature tends to be higher than room temperature and relatively large while people are present. It can be seen. The determination formulas 12) to 14) formulate the tendency of attribute information characteristic of such a television, and the determination unit 60 determines that the attribute information of the heat source region 16 at time t is determined by the determination formulas 12) to 14). When all are satisfied, it is determined that the object indicated by the heat source region 16 is a television.
なお、判定式13)において、“Tave(t)>param11 if R(t)=1”とは、時刻が同じ属性情報で、且つ、現在注目している物体の種別の判定対象である属性情報、すなわち特定属性情報とは異なる属性情報に予備判定の結果がR=1である属性情報が存在する場合に、特定属性情報の平均温度Tave(t)がparam11より高いか否かを表す判定式である。 In the determination formula 13), “T ave (t)> param 11 if R (t) = 1” is attribute information having the same time and a determination target of the type of the object currently focused on. This indicates whether the average temperature T ave (t) of the specific attribute information is higher than param11 when attribute information whose result of the preliminary determination is R = 1 exists in attribute information different from the specific attribute information. It is a judgment formula.
また、図9におけるNo.6の判定式15)〜17)は、熱源領域16が示す物体が灰皿か否かを判定する判定式である。 In addition, in FIG. 6 determination formulas 15) to 17) are determination formulas for determining whether or not the object indicated by the heat source region 16 is an ashtray.
灰皿は、例えば使用中はテーブル等の一定の位置に置かれ、喫煙中に火のついたタバコが置かれる場合が多いことから、人物がいる間、室温よりかなり高い温度を示し、その大きさは小さいという傾向が見られる。判定式15)〜17)は、こうした灰皿に特徴的な属性情報の傾向を定式化したものであり、判定部60は、時刻tにおける熱源領域16の属性情報が判定式15)〜17)を全て満足する場合、当該熱源領域16が示す物体は、灰皿であると判定する。 The ashtray is placed at a fixed position such as a table during use, and a lit cigarette is often placed during smoking. Tend to be small. The determination formulas 15) to 17) formulate the tendency of attribute information characteristic of such an ashtray, and the determination unit 60 determines the attribute information of the heat source region 16 at time t as the determination formulas 15) to 17). When all are satisfied, it is determined that the object indicated by the heat source region 16 is an ashtray.
また、図9におけるNo.7の判定式18)〜22)は、熱源領域16が示す物体がペットか否かを判定する判定式である。 In addition, in FIG. 7 is a determination expression for determining whether or not the object indicated by the heat source region 16 is a pet.
ペットの形状は縦及び横の長さが同一、すなわち縦横比が1、又は左右方向に長い横長であり、ペットは、室内の床を移動することから入力画像12の比較的下部に位置し、移動量が多く、その大きさは人物よりは小さく、かつ、取りうる体温の範囲が決まっているという傾向が見られる。判定式18)〜22)は、こうしたペットに特徴的な属性情報の傾向を定式化したものであり、判定部60は、時刻tにおける熱源領域16の属性情報が判定式18)〜22)を全て満足する場合、当該熱源領域16が示す物体は、ペットであると判定する。 The shape of the pet is the same in length and width, that is, the aspect ratio is 1, or the landscape is long in the left-right direction, and the pet is positioned relatively lower in the input image 12 because it moves on the floor in the room, There is a tendency that the amount of movement is large, the size is smaller than that of a person, and the range of body temperature that can be taken is determined. The determination formulas 18) to 22) formulate the tendency of the attribute information characteristic of such pets, and the determination unit 60 determines that the attribute information of the heat source region 16 at the time t is the determination formulas 18) to 22). When all are satisfied, it is determined that the object indicated by the heat source region 16 is a pet.
なお、図9の判定結果欄に示したparam1〜param19の値は一例であり、使用する遠赤外カメラ90の種類、及び遠赤外カメラ90の設置箇所周辺の温度等の環境条件等に応じて変更される。 Note that the values of param1 to param19 shown in the determination result column of FIG. 9 are examples, and depend on the type of the far infrared camera 90 to be used and the environmental conditions such as the temperature around the location where the far infrared camera 90 is installed. Changed.
また、図9の例では、No.1〜No.7までの7つの物体の種別を判定する判定式を示したが、判定部60で判定する物体の種別は、これら7つの物体に限られない。遠赤外カメラ90を設置する場所や環境に応じて判定式を追加すれば、判定部60は様々な物体の種別を判定することができる。 In the example of FIG. 1-No. Although the determination formulas for determining the types of the seven objects up to 7 are shown, the types of the objects determined by the determination unit 60 are not limited to these seven objects. If a determination formula is added according to the location or environment where the far infrared camera 90 is installed, the determination unit 60 can determine various object types.
出力部70は、例えば判定部60によって入力画像12に人物が含まれると判定された場合に、その旨を監視システム5の管理者等へ通知する。なお、入力画像12に人物が含まれる場合に限らず、その他の物体、例えばペット等が含まれる場合に、その旨を監視システム5の管理者等へ通知するようにしてもよい。 For example, when the determination unit 60 determines that a person is included in the input image 12, the output unit 70 notifies the administrator of the monitoring system 5 to that effect. Note that the input image 12 is not limited to the case where a person is included, but may be notified to the administrator of the monitoring system 5 when other objects such as pets are included.
記憶部80は、例えば、遠赤外カメラ90から受け付けた遠赤外画像、背景画像14、時刻情報と関連付けられた熱源領域16の属性情報、及び物体の種別毎に予め定めた判定式等、監視装置10における物体の検出に必要なデータを記憶する。 The storage unit 80 is, for example, a far-infrared image received from the far-infrared camera 90, a background image 14, attribute information of the heat source region 16 associated with time information, and a determination formula determined in advance for each type of object, etc. Data necessary for object detection in the monitoring device 10 is stored.
次に、本実施の形態に係る監視装置10の作用について説明する。なお、ここでは記憶部80に背景画像14はまだ記憶されていないものとする。まず、監視装置10の起動後に図13に示す背景画像算出ルーチンが実行される。 Next, the operation of the monitoring apparatus 10 according to the present embodiment will be described. Here, it is assumed that the background image 14 is not yet stored in the storage unit 80. First, after the monitoring apparatus 10 is activated, a background image calculation routine shown in FIG. 13 is executed.
ステップS10では、遠赤外カメラ90で撮影された遠赤外画像を取得する。なお、遠赤外カメラ90から予め定めたフレームレートの動画が出力される場合、1フレーム分の画像を遠赤外画像として受け付ける。 In step S <b> 10, a far infrared image captured by the far infrared camera 90 is acquired. Note that when a moving image having a predetermined frame rate is output from the far-infrared camera 90, an image for one frame is accepted as a far-infrared image.
次にステップS20において、ステップS10の処理で取得した遠赤外画像に対して平滑化処理を実施する。平滑化処理とは、遠赤外画像に含まれる画素値の変化を滑らかにし、遠赤外画像の各画素に含まれるノイズ成分を除去する処理である。平滑化処理には、例えば移動平均フィルタやガウシアンフィルタを用いた公知の技術が適用される。 Next, in step S20, a smoothing process is performed on the far-infrared image acquired in the process of step S10. The smoothing process is a process of smoothing a change in pixel values included in the far infrared image and removing a noise component included in each pixel of the far infrared image. For the smoothing process, for example, a known technique using a moving average filter or a Gaussian filter is applied.
ステップS30では、これまで取得した遠赤外画像の枚数を計測し、遠赤外画像の取得枚数が規定枚数N以上か否かを判定する。肯定判定の場合にはステップS50へ移行し、否定判定の場合にはステップS40へ移行する。 In step S30, the number of far-infrared images acquired so far is measured, and it is determined whether or not the number of far-infrared images acquired is equal to or greater than the specified number N. If the determination is affirmative, the process proceeds to step S50. If the determination is negative, the process proceeds to step S40.
ここで、遠赤外画像の規定枚数Nとは、背景画像14を生成するのに必要な遠赤外画像の枚数を規定した値であり、例えば、使用する遠赤外カメラ90の種類、及び遠赤外カメラ90の設置箇所周辺の温度等の環境条件等に応じて設定する。 Here, the prescribed number N of far-infrared images is a value that defines the number of far-infrared images necessary to generate the background image 14, for example, the type of far-infrared camera 90 to be used, and It is set according to environmental conditions such as the temperature around the place where the far infrared camera 90 is installed.
ステップS40では、ステップS20の処理により平滑化された遠赤外画像を記憶部80へ記憶し、ステップS10へ移行する。そして、ステップS10〜ステップS40の処理を繰り返すことにより、記憶部80に規定枚数Nに達するまで遠赤外画像が記憶される。 In step S40, the far-infrared image smoothed by the process of step S20 is stored in the storage unit 80, and the process proceeds to step S10. And the far-infrared image is memorize | stored in the memory | storage part 80 until it reaches the regulation number N by repeating the process of step S10-step S40.
一方、ステップS30の処理において肯定判定、すなわち、規定枚数N以上の遠赤外画像を受け付けた場合、ステップS50で前述した(1)式に基づいて、画素毎にN枚の遠赤外画像の画素値を平均した平均値を算出する。 On the other hand, when affirmative determination is made in the processing of step S30, that is, when a far-infrared image having a prescribed number N or more is received, N far-infrared images are obtained for each pixel based on the above-described equation (1) in step S50. An average value obtained by averaging the pixel values is calculated.
また、ステップS60では、前述した(2)式に基づいて、画素毎にN枚の遠赤外画像及びステップS50の処理で算出した画素毎の平均値から算出した標準偏差を算出する。 In step S60, the standard deviation calculated from the N far-infrared images for each pixel and the average value for each pixel calculated in step S50 is calculated based on the above-described equation (2).
ステップS70では、ステップS50の処理で算出した平均値及びステップS60の処理で算出した標準偏差を有する背景画像14を生成し、記憶部80に記憶する。 In step S70, the background image 14 having the average value calculated in step S50 and the standard deviation calculated in step S60 is generated and stored in the storage unit 80.
以上の処理により、図13に示した背景画像算出ルーチンを終了する。そして、背景画像算出ルーチン終了後に図14に示す人物判定ルーチンが実行される。 With the above processing, the background image calculation routine shown in FIG. 13 ends. Then, after the background image calculation routine ends, a person determination routine shown in FIG. 14 is executed.
ステップS100では、例えば、監視装置10に設けられた図示しない遠赤外画像取得終了ボタンの押下等により、人物判定ルーチンの停止指示を受け付けたか否かを判定し、肯定判定の場合には人物判定ルーチンを終了する。一方、否定判定の場合にはステップS110へ移行する。なお、人物判定ルーチンの停止指示は遠赤外画像取得終了ボタンの押下に限られず、例えば、監視装置10に接続された図示しないインターネット等の通信回線を介して受信されるものであってもよい。 In step S100, for example, it is determined whether or not an instruction to stop the person determination routine has been received by pressing a far-infrared image acquisition end button (not shown) provided in the monitoring apparatus 10, and in the case of an affirmative determination, the person determination is performed. End the routine. On the other hand, if a negative determination is made, the process proceeds to step S110. The stop instruction of the person determination routine is not limited to pressing the far-infrared image acquisition end button, and may be received via a communication line such as the Internet (not shown) connected to the monitoring apparatus 10, for example. .
ステップS110では、遠赤外カメラ90で撮影された遠赤外画像を取得する。以降、図13に示した背景画像算出ルーチンのステップS10の処理で取得した遠赤外画像と区別するため、本ステップで取得した遠赤外画像を特に入力画像12と称する。 In step S110, a far infrared image captured by the far infrared camera 90 is acquired. Hereinafter, the far-infrared image acquired in this step is particularly referred to as the input image 12 in order to distinguish it from the far-infrared image acquired in step S10 of the background image calculation routine shown in FIG.
そして、ステップS120において、図13に示した背景画像算出ルーチンのステップS20の処理と同様に、ステップS110の処理で取得した入力画像12に対して平滑化処理を実施する。 In step S120, a smoothing process is performed on the input image 12 acquired in the process of step S110, as in the process of step S20 of the background image calculation routine shown in FIG.
ステップS130では、ステップS70の処理で記憶部80に記憶した背景画像14を読み出し、前述した(3)式に基づいて、画素毎に背景画像14とステップS120の処理で平滑化された入力画像12との差分を算出する。そして、当該差分が“σ(x,y)+M”以上となる座標のフィルタ値を「1」、そうでない座標のフィルタ値を「0」に設定したフィルタF(x,y)を生成する。なお、使用する遠赤外カメラ90の種類、及び遠赤外カメラ90の設置箇所周辺の温度等の環境条件等に応じて画素値マージンMを調整することで、フィルタF(x,y)のフィルタ値が1となる領域の大きさを調整することができる。 In step S130, the background image 14 stored in the storage unit 80 in the process of step S70 is read, and the background image 14 and the input image 12 smoothed in the process of step S120 for each pixel based on the above-described equation (3). The difference is calculated. Then, a filter F (x, y) is generated in which the filter value of the coordinates where the difference is equal to or larger than “σ (x, y) + M” is set to “1”, and the filter value of the other coordinates is set to “0”. Note that the filter F (x, y) is adjusted by adjusting the pixel value margin M in accordance with the type of the far infrared camera 90 to be used and the environmental conditions such as the temperature around the location where the far infrared camera 90 is installed. The size of the region where the filter value is 1 can be adjusted.
そして、ステップS140において、画素毎にステップS120の処理で平滑化された入力画像12に含まれる画素の画素値と、フィルタF(x,y)のフィルタ値とを乗算し、入力画像12から、背景画像14と予め定めた差分、すなわち“σ(x,y)+M”以上離れた画素値を有する画素を抽出する。 In step S140, the pixel value of the pixel included in the input image 12 smoothed in the process of step S120 is multiplied for each pixel by the filter value of the filter F (x, y). A pixel having a pixel value that is more than a predetermined difference from the background image 14, that is, “σ (x, y) + M”, is extracted.
このようにして抽出された画素が隣接して形成される領域は、背景画像14の温度分布とは異なる領域であり、遠赤外カメラ90の撮影範囲内に位置する何らかの物体を表す熱源領域16と捉えることができる。なお、入力画像12に背景画像14の温度分布とは異なる複数の物体が含まれる場合には、入力画像12から複数の熱源領域16が抽出される。 The region in which the pixels extracted in this way are formed adjacent to each other is a region different from the temperature distribution of the background image 14, and the heat source region 16 representing some object located within the imaging range of the far infrared camera 90. Can be considered. When the input image 12 includes a plurality of objects different from the temperature distribution of the background image 14, a plurality of heat source regions 16 are extracted from the input image 12.
ステップS150において、ステップS140の処理で入力画像12から抽出した熱源領域16の各々について、例えば図6に示した属性情報を取得する。そして、熱源領域16の各々に対して、取得した属性情報に基づいて、図8に示した予備判定を実行し、熱源領域16が示す物体が人らしいか否かを判定する。熱源領域16が示す物体が人らしいと判定された場合には、当該熱源領域の属性情報に、R=1に設定した予備判定結果の情報を含める。一方、熱源領域16が示す物体が人らしいと判定されなかった場合には、当該熱源領域の属性情報に、R=0に設定した予備判定結果の情報を含める。 In step S150, for example, the attribute information shown in FIG. 6 is acquired for each of the heat source regions 16 extracted from the input image 12 in the process of step S140. Then, the preliminary determination shown in FIG. 8 is performed on each of the heat source regions 16 based on the acquired attribute information to determine whether or not the object indicated by the heat source region 16 is human. When it is determined that the object indicated by the heat source region 16 is human, information on the preliminary determination result set to R = 1 is included in the attribute information of the heat source region. On the other hand, if it is not determined that the object indicated by the heat source region 16 is human, information on the preliminary determination result set to R = 0 is included in the attribute information of the heat source region.
そして、ステップS155において、各熱源領域16の属性情報と現在の時刻情報とを関連付けて記憶部80へ蓄積する。なお、属性情報に関連付ける時刻情報は、入力画像12の時刻を明確に示す時刻であればよく、例えば、入力画像12の受付時刻や、熱源領域16の抽出時刻等であってもよい。また、時刻情報は、例えばCPUに内蔵されるカレンダー機能を利用して取得することができる。 In step S155, the attribute information of each heat source region 16 and the current time information are associated and stored in the storage unit 80. Note that the time information associated with the attribute information may be a time that clearly indicates the time of the input image 12, and may be, for example, the reception time of the input image 12, the extraction time of the heat source region 16, or the like. Further, the time information can be obtained by using, for example, a calendar function built in the CPU.
次に、ステップS160において、ステップS120の処理で平滑化された入力画像12を用いて背景画像14を更新する。具体的には、ステップS120の処理で平滑化された入力画像12と、図13に示したステップS40の処理で記憶部80に記憶された遠赤外画像とを用いて、(1)式に基づいて、背景画像14の画素毎の平均値を更新すると共に、(2)式に基づいて、背景画像14の画素毎の標準偏差を更新する。 Next, in step S160, the background image 14 is updated using the input image 12 smoothed by the process of step S120. Specifically, using the input image 12 smoothed by the process of step S120 and the far-infrared image stored in the storage unit 80 by the process of step S40 shown in FIG. Based on this, the average value for each pixel of the background image 14 is updated, and the standard deviation for each pixel of the background image 14 is updated based on the equation (2).
この際、背景画像14の更新に入力画像12が1枚追加されることから、(1)式及び(2)式におけるNを(N+1)に読み替える。そして、ステップS120の処理で平滑化された入力画像12、及び本ステップで更新した平均値及び標準偏差を有する背景画像14を記憶部80に記憶する。 At this time, since one input image 12 is added to update the background image 14, N in the expressions (1) and (2) is read as (N + 1). Then, the storage unit 80 stores the input image 12 smoothed in the process of step S120 and the background image 14 having the average value and the standard deviation updated in this step.
そして、ステップS170において、これまで取得した入力画像12の枚数を計測し、入力画像12の取得枚数が規定枚数J以上か否かを判定する。否定判定の場合にはステップS100へ移行し、入力画像12の取得枚数が規定枚数J以上になるまでステップS100〜S170の処理を繰り返す。この際、ステップS160の処理では、入力画像12を取得する度に取得した入力画像12の枚数Kを計測し、(1)式及び(2)式におけるNを(N+K)に読み替え、新たに受け付けた入力画像12と、記憶部80に記憶される遠赤外画像及び入力画像12とに基づいて、背景画像14を更新する。 In step S170, the number of input images 12 acquired so far is measured, and it is determined whether or not the acquired number of input images 12 is equal to or greater than a specified number J. If a negative determination is made, the process proceeds to step S100, and the processes of steps S100 to S170 are repeated until the number of acquired input images 12 is equal to or greater than the specified number J. At this time, in the process of step S160, the number K of the acquired input images 12 is measured every time the input image 12 is acquired, and N in the equations (1) and (2) is read as (N + K) and newly accepted. The background image 14 is updated based on the input image 12 and the far-infrared image and the input image 12 stored in the storage unit 80.
ここで、入力画像12の規定枚数Jとは、後述するステップS180の処理において、入力画像12から精度よく物体を抽出するために必要な入力画像12の枚数を規定した値であり、例えば、使用する遠赤外カメラ90の種類、及び遠赤外カメラ90の設置箇所周辺の温度等の環境条件等に応じて設定する。なお、入力画像12の規定枚数Jの替わりに、例えば1時間や1日といった入力画像12の規定時間を規定し、規定時間以上に亘って入力画像12を取得した場合にステップS180へ移行するようにしてもよい。 Here, the prescribed number J of input images 12 is a value that defines the number of input images 12 necessary for accurately extracting an object from the input image 12 in the processing of step S180 described later. It is set according to the type of the far infrared camera 90 to be performed and the environmental conditions such as the temperature around the place where the far infrared camera 90 is installed. Note that instead of the specified number J of input images 12, a specified time of the input image 12 such as 1 hour or 1 day is specified, and when the input image 12 is acquired over the specified time, the process proceeds to step S180. It may be.
一方、ステップS170の判定において、肯定判定となった場合にはステップS180へ移行する。 On the other hand, if the determination in step S170 is affirmative, the process proceeds to step S180.
ステップS180では、最も直近に取得した入力画像12に対応した属性情報に関連付けられた時刻情報をtとした場合、時刻情報tにおける属性情報に対応した熱源領域16が示す物体の種別を、図9に示した判定式に従って判定する。 In step S180, when the time information associated with the attribute information corresponding to the input image 12 acquired most recently is t, the type of the object indicated by the heat source region 16 corresponding to the attribute information in the time information t is shown in FIG. The determination is made according to the determination formula shown in.
例えば、まず、規定枚数Jの入力画像12に対して上記ステップS150で判定された判定結果に基づいて、熱源領域16が人物を表すか否かを判定するため、図9におけるNo.1の判定式1)を評価する。その後、規定枚数Jの入力画像12に対して上記ステップS140で抽出された熱源領域16であって、時間が経過しても位置が変動しない熱源領域16について、当該熱源領域16が表す物体の種別を判定する。具体的には、図9のペットを判定するためのNo.7の判定式以外、すなわちNo.2〜No.6の各判定式を評価し、熱源領域16が示す物体の種別を特定する。 For example, first, in order to determine whether or not the heat source region 16 represents a person based on the determination result determined in step S150 with respect to the specified number J of input images 12, No. 2 in FIG. The judgment formula 1) of 1 is evaluated. Thereafter, for the heat source region 16 extracted in step S140 with respect to the specified number J of input images 12, and the position of the heat source region 16 whose position does not change over time, the type of object represented by the heat source region 16 Determine. Specifically, the No. for determining the pet in FIG. Other than the judgment formula of No. 7, 2-No. 6 is evaluated, and the type of the object indicated by the heat source region 16 is specified.
なお、本ステップでは熱源領域16が人物を表す熱源領域か否かの判定を、図9における判定式1)、すなわち、図10に示した判定方法に従って判定したが、図11又は図12に示した判定方法に従って判定するようにしてもよい。 In this step, whether or not the heat source region 16 is a heat source region representing a person is determined according to the determination formula 1) in FIG. 9, that is, the determination method illustrated in FIG. 10, but is illustrated in FIG. 11 or FIG. The determination may be made according to the determination method.
そして、規定枚数Jの入力画像12に対して上記ステップS140で抽出された熱源領域16であって、位置が変動している熱源領域16のうち、上記ステップ150の予備判定の結果としてR=0の情報が付加された熱源領域16について、図9におけるNo.7の判定式18)〜22)を評価して、熱源領域16が示す物体がペットであるか否かを判定する。 As a result of the preliminary determination in step 150, among the heat source regions 16 extracted in step S140 with respect to the specified number J of input images 12, the position of which has changed, R = 0. No. 2 in FIG. 7 is evaluated to determine whether or not the object indicated by the heat source region 16 is a pet.
なお、規定枚数Jの入力画像12に対して上記ステップS140で抽出された熱源領域16について追跡処理を行い、追跡された熱源領域16に対して、上記ステップ180の判定を行うようにしてもよい。追跡処理には、例えば、物体の運動モデルを用いて物体の位置、大きさを推定する手法、又は、熱源領域16の形状の類似性に着目する手法等、公知の追跡処理方法が適用される。 Note that the tracking process may be performed on the heat source region 16 extracted in step S140 on the specified number J of input images 12, and the determination in step 180 may be performed on the tracked heat source region 16. . For the tracking processing, for example, a known tracking processing method such as a method for estimating the position and size of an object using a motion model of the object or a method for paying attention to the similarity of the shape of the heat source region 16 is applied. .
なお、図9に示した判定式3)、6)、9)、12)、15)、及び20)には、属性情報の中央点PCに関して、時間経過に伴う変動を判定するための判定式が含まれている。従って、より多くの時刻における属性情報の中央点PCを用いて時間経過に伴う変動状況を判定した方が、より正確に判定式を満たすか否かを判定することができる。すなわち、ステップS170の処理で参照した規定枚数Jを大きく設定するに従い、物体の判定精度を向上させることができる。 The determination equation 3 shown in FIG. 9), 6), 9), 12), 15), and the 20), with respect to the center point P C of the attribute information, determination for determining the variation over time Contains an expression. Therefore, it is possible better to determine the variation situation over time using a center point P C of the attribute information in more time, to determine whether they meet the more accurate determination expression. In other words, the object determination accuracy can be improved as the prescribed number J referred to in step S170 is set larger.
なお、図9に示した物体の種別毎の判定式の例では、中央点PCに関しての時間変化を判定する判定式しか示されていないが、物体の種別によっては属性情報の他の項目、例えば温度に関しての時間変化を判定する判定式が規定される場合がある。 In the example of judging expression of each type of object as shown in FIG. 9, but the judgment formula is not shown only determines the time variation with respect to the center point P C, other items of the attribute information by the object type, For example, a determination formula for determining a time change with respect to temperature may be defined.
そして、例えば、入力画像12に人物が含まれると判定した場合、監視装置10の外部へ通知する。具体的には、室内に人物がいない時間帯であるにも関わらず入力画像12から人物を検出した場合、監視装置10に内蔵された図示しないスピーカーから警報音を出力すると共に、監視装置10に接続された図示しないインターネット等の通信回線を介して、監視システム5の管理者等へ通報するようにしてもよい。このように、例えば防犯の目的で監視システム5を利用することができる。 For example, when it is determined that a person is included in the input image 12, notification is made to the outside of the monitoring device 10. Specifically, when a person is detected from the input image 12 in a time zone in which there is no person in the room, an alarm sound is output from a speaker (not shown) built in the monitoring apparatus 10 and also to the monitoring apparatus 10. You may make it report to the administrator of the monitoring system 5, etc. via the connected communication lines, such as the internet which are not shown in figure. Thus, for example, the monitoring system 5 can be used for crime prevention purposes.
なお、入力画像12から人物を検出した場合に限らず、その他の物体、例えばペット等を検出した場合に、その旨を監視システム5の管理者等へ通知するようにしてもよい。 Not only when a person is detected from the input image 12, but also when another object such as a pet is detected, a notification to that effect may be sent to the administrator of the monitoring system 5.
このようにして、時刻tにおける属性情報に対応した熱源領域16が示す物体の種別を判定した後、ステップS100へ移行する。そして、ステップS100〜ステップS180の処理を繰り返すことにより、順次入力画像12に含まれる熱源領域16が示す物体の種別の判定を実行し、ステップS100の判定が肯定判定となった場合に、図14に示す人物判定ルーチンを終了する。 Thus, after determining the type of the object indicated by the heat source region 16 corresponding to the attribute information at time t, the process proceeds to step S100. And when the determination of the type of the object which the heat-source area | region 16 contained in the input image 12 shows sequentially is performed by repeating the process of step S100-step S180, and the determination of step S100 becomes affirmation determination, FIG. The person determination routine shown in FIG.
なお、本実施の形態に係る監視装置10は、炎等予め定めた形状を持たない物体であっても物体の種別を判定することができる。炎の特性としては、時間と共に位置及び面積が変動し、温度が高温であることから、例えば炎に対する判定式を(6)式〜(8)式によって表すことができる。 Note that the monitoring apparatus 10 according to the present embodiment can determine the type of an object even if the object does not have a predetermined shape such as a flame. As the characteristics of the flame, since the position and area vary with time and the temperature is high, for example, the judgment formula for the flame can be expressed by the equations (6) to (8).
ここで、param20は熱源領域16の中央点PCの移動量、Tfireは物体を炎と特定するために必要な下限温度、param21は熱源領域16の画素数の変動量を規定するパラメータであり、例えば、使用する遠赤外カメラ90の種類、及び遠赤外カメラ90の設置箇所周辺の温度等の環境条件等に応じて設定すればよい。 Here, Param20 the amount of movement of the center point P C of the heat source regions 16, T fire the minimum temperature required to identify the object and flames, Param21 is a parameter which defines the amount of variation in the number of pixels of the heat source regions 16 For example, what is necessary is just to set according to environmental conditions, such as the kind of the far infrared camera 90 to be used, and the temperature around the installation location of the far infrared camera 90.
例えば、図9に示した何れの物体の判定式も満たさず、かつ、予備判定の結果がR=0である熱源領域16に対して、(6)式〜(8)式に示した判定式を評価し、(6)式〜(8)式の全ての判定式を満たす場合に、熱源領域16が示す物体を炎と判定する。この場合、火災が発生している可能性が考えられるため、監視装置10に内蔵された図示しないスピーカーから警報音を出力すると共に、監視装置10に接続された図示しないインターネット等の通信回線を介して、監視システム5の管理者等へ通報してもよい。 For example, the judgment formulas shown in the formulas (6) to (8) for the heat source region 16 that does not satisfy the judgment formula for any object shown in FIG. 9 and the result of the preliminary judgment is R = 0. Is evaluated, and the object indicated by the heat source region 16 is determined to be a flame when all the determination formulas (6) to (8) are satisfied. In this case, since there is a possibility that a fire has occurred, an alarm sound is output from a speaker (not shown) built in the monitoring device 10 and a communication line such as the Internet (not shown) connected to the monitoring device 10 is used. Then, the administrator of the monitoring system 5 may be notified.
以上説明したように、本実施の形態に係る監視装置10によれば、予め定めた期間に亘り予め定めた範囲を定点監視し、入力画像12を取得する度に、入力画像12に含まれる物体の温度から得られる属性情報を取得する。そして、属性情報と、予め定めた期間に亘り蓄積した属性情報の時間変化に基づいて設定された判定式に従って、入力画像12に人物が含まれるか否かを判定する。 As described above, according to the monitoring device 10 according to the present embodiment, the object included in the input image 12 every time when the predetermined range is monitored and the input image 12 is acquired over a predetermined period. Get attribute information obtained from the temperature of. Then, it is determined whether or not a person is included in the input image 12 in accordance with a determination formula set based on the attribute information and the temporal change of the attribute information accumulated over a predetermined period.
従って、撮影された入力画像12からは、入力画像12に含まれる物体の種別を特定することができない程度に物体の輪郭が不鮮明となる低解像度の遠赤外カメラ90を用いた場合であっても、入力画像12に含まれる人物を精度よく検出することができる。また、上記のような低解像度の遠赤外カメラ90は、物体の輪郭から物体の種別を判定することができる赤外線カメラより安価であるため、監視システム5の構築に必要な費用を低減することができる。 Therefore, the low-resolution far-infrared camera 90 in which the contour of the object is unclear to the extent that the type of the object included in the input image 12 cannot be specified from the captured input image 12 is used. The person included in the input image 12 can be detected with high accuracy. In addition, the low-resolution far-infrared camera 90 as described above is less expensive than an infrared camera that can determine the type of an object from the contour of the object, and thus reduces the cost required for constructing the monitoring system 5. Can do.
更に、本実施の形態に係る監視システム5は、遠赤外カメラ90に一部の波長帯域をカットするフィルタ等を装着する必要がなく、しかも1台の遠赤外カメラ90で構築することができる。従って、監視システム5の構築に必要な費用を低減することができる。 Furthermore, the monitoring system 5 according to the present embodiment does not need to be equipped with a filter or the like that cuts a part of the wavelength band in the far-infrared camera 90, and can be constructed with one far-infrared camera 90. it can. Therefore, the cost required for construction of the monitoring system 5 can be reduced.
また、属性情報の時間変化に基づいて物体の種別を判定するため、時間の経過と共に属性情報が蓄積されるに従って、物体の検出精度が向上する。更に、入力画像12を取得する毎に、熱源領域16を抽出する際に用いられる背景画像14が更新されるため、図13におけるステップS50及びS60で算出した背景画像14の平均値及び標準偏差を更新せずに入力画像12から物体を抽出する場合と比較して、物体の検出精度が向上する。 Further, since the type of the object is determined based on the time change of the attribute information, the detection accuracy of the object is improved as the attribute information is accumulated over time. Furthermore, every time the input image 12 is acquired, the background image 14 used in extracting the heat source region 16 is updated. Therefore, the average value and standard deviation of the background image 14 calculated in steps S50 and S60 in FIG. Compared with the case where an object is extracted from the input image 12 without updating, the detection accuracy of the object is improved.
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、発明の要旨を逸脱しない範囲で、図13に示した背景画像算出ルーチン及び図14に示した人物判定ルーチンの各処理の順序を変更してもよい。 Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention. For example, the order of the processes of the background image calculation routine shown in FIG. 13 and the person determination routine shown in FIG. 14 may be changed without departing from the gist of the invention.
また、上記では背景画像算出ルーチン及び人物判定ルーチンを実行するためのプログラムがコンピュータのROMに予め記憶されている態様を説明したが、これに限定されるものではない。本実施の形態に係るプログラムは、コンピュータ読取可能な記録媒体に記録されている形態で提供することも可能である。例えば、本実施の形態に係るプログラムは、CD−ROM、DVD−ROM、及びUSBメモリ等の可搬型記録媒体に記録されている形態で提供することも可能である。また、本実施の形態に係るプログラムは、フラッシュメモリ等の半導体メモリ等に記録されている形態で提供することも可能である。 In the above description, the background image calculation routine and the person determination routine are stored in advance in the computer ROM. However, the present invention is not limited to this. The program according to the present embodiment can be provided in a form recorded on a computer-readable recording medium. For example, the program according to the present embodiment can be provided in a form recorded on a portable recording medium such as a CD-ROM, a DVD-ROM, and a USB memory. The program according to the present embodiment can be provided in a form recorded in a semiconductor memory such as a flash memory.
また、本実施の形態に係る監視装置10では、背景画像算出ルーチン及び人物判定ルーチンをソフトウエア構成によって実現した場合について説明したが、本発明はこれに限定されるものではなく、例えば背景画像算出ルーチン及び人物判定ルーチンを、ASIC(Application Specific Integrated Circuit)等を用いたハードウエア構成により実現するようにしてもよい。この場合、上記実施の形態に比較して、処理の高速化が期待される。 Further, in the monitoring apparatus 10 according to the present embodiment, the case where the background image calculation routine and the person determination routine are realized by a software configuration has been described, but the present invention is not limited to this, and for example, background image calculation The routine and the person determination routine may be realized by a hardware configuration using an ASIC (Application Specific Integrated Circuit) or the like. In this case, higher processing speed is expected compared to the above embodiment.
5 監視システム
10 監視装置
12 入力画像
14 背景画像
16 熱源領域
20 受付部
25 演算部
30 抽出部
40 取得部
50 蓄積部
60 判定部
70 出力部
80 記憶部
90 遠赤外カメラ
DESCRIPTION OF SYMBOLS 5 Monitoring system 10 Monitoring apparatus 12 Input image 14 Background image 16 Heat source area | region 20 Reception part 25 Calculation part 30 Extraction part 40 Acquisition part 50 Accumulation part 60 Determination part 70 Output part 80 Storage part 90 Far-infrared camera
Claims (14)
前記受付手段によって受け付けた前記時系列データの遠赤外画像の各々について、前記遠赤外画像に基づいて予め生成された背景画像と比較することにより、前記遠赤外画像から熱源領域を抽出する抽出手段と、
前記抽出手段により抽出された熱源領域の属性情報に基づいて、人物らしさを判定する第1の判定手段と、
前記時系列データの遠赤外画像の各々について抽出された前記熱源領域について前記第1の判定手段により判定された判定結果に基づいて、前記熱源領域が、人物を表すか否かを判定する第2の判定手段と、
を備えた監視装置。 Receiving means for receiving time-series data of a far-infrared image captured by a far-infrared camera that captures a predetermined range;
A heat source region is extracted from the far-infrared image by comparing each of the far-infrared images of the time-series data received by the receiving unit with a background image generated in advance based on the far-infrared image. Extraction means;
Based on attribute information of the heat source region extracted by the extraction means, a first determination means for determining person-likeness;
Based on the determination result determined by the first determination unit for the heat source region extracted for each of the far-infrared images of the time-series data, it is determined whether the heat source region represents a person. Two determination means;
Monitoring device.
請求項1記載の監視装置。 The first determination unit is a vertically long shape whose shape is long in the vertical direction based on the attribute information of the heat source region extracted by the extraction unit, and the size of the heat source region is within a predetermined range. The monitoring apparatus according to claim 1, wherein when the temperature of the heat source region is within a predetermined range, the heat source region is determined to be a person.
請求項1又は請求項2記載の監視装置。 The second determination means is within a predetermined time range based on the determination result determined by the first determination means for the heat source region extracted for each of the far-infrared images of the time-series data. When the number of times that the heat source area is determined to be a person is larger than a threshold, and the heat source area extracted from the latest far-infrared image in the time-series data is determined to be a person. The monitoring device according to claim 1, wherein the heat source region is determined to represent a person.
請求項1又は請求項2記載の監視装置。 The second determination means is within a predetermined time range based on the determination result determined by the first determination means for the heat source region extracted for each of the far-infrared images of the time-series data. In the case where the number of times that the heat source region is likely to be a person is determined to be multiple times consecutively is greater than a threshold, and the heat source region extracted from the latest far-infrared image in the time series data is likely to be a person The monitoring apparatus according to claim 1, wherein the heat source region is determined to represent a person when it is determined.
請求項1又は請求項2記載の監視装置。 The second determination unit is configured to determine the time-series data based on the determination result determined by the first determination unit for the heat source region extracted for each far-infrared image of the time-series data. The heat source region is determined to represent a person when it is continuously determined that each of the heat source regions extracted from each of the latest predetermined number of far-infrared images is likely to be a person. Item 3. The monitoring device according to Item 2.
請求項1〜請求項5の何れか1項に記載の監視装置。 The second determination means has a shape with an aspect ratio of 1 or a horizontally long shape in the left-right direction based on the attribute information of the heat source region extracted for each of the far-infrared images of the time-series data. The heat source region is located at the bottom of the far-infrared image, the amount of variation in the position of the heat source region is greater than a threshold value, and the temperature of the heat source region is within a predetermined range. And the monitoring apparatus of any one of Claims 1-5 which determines with the said heat-source area | region showing a pet when the magnitude | size of the said heat-source area | region is smaller than a threshold value.
請求項1〜請求項6の何れか1項に記載の監視装置。 The second determination means, based on the attribute information of the heat source region extracted for each of the far infrared images of the time series data, the heat source region is located at the upper part of the far infrared image, and When the amount of variation in the position of the heat source region is less than the threshold, and the temperature of the heat source region is lower than the threshold in the summer, or the temperature of the heat source region is higher than the threshold in the winter The monitoring apparatus according to claim 1, wherein the heat source region represents an air conditioner.
請求項1〜請求項7の何れか1項に記載の監視装置。 The second determination means, based on the attribute information of the heat source region extracted for each of the far infrared images of the time series data, the heat source region is located below the far infrared image, and When the amount of variation in the position of the heat source region is less than a threshold, the temperature of the heat source region is higher than the threshold, and the size of the heat source region is less than the threshold, the heat source region The monitoring device according to any one of claims 1 to 7, wherein the monitoring device is determined to represent a heating appliance.
請求項1〜請求項8の何れか1項に記載の監視装置。 The second determination means, based on the attribute information of the heat source region extracted for each far-infrared image of the time series data, the variation amount of the position of the heat source region is less than a threshold, and The temperature of the heat source area in the daytime is higher than the temperature of the heat source area at night and the size of the heat source area is larger than a threshold value, and it is determined that the heat source area represents a window. Item 9. The monitoring device according to any one of items 8.
請求項1〜請求項9の何れか1項に記載の監視装置。 The second determination means, based on the attribute information of the heat source region extracted for each far-infrared image of the time series data, the variation amount of the position of the heat source region is less than a threshold, and When the size of the heat source region is larger than the threshold and the far-infrared image at the same time including the heat source region is determined by the first determination means that an object like a person exists, the heat source region The monitoring device according to any one of claims 1 to 9, wherein when the temperature is higher than a threshold value, the heat source region is determined to represent a television.
請求項1〜請求項10の何れか1項に記載の監視装置。 The second determination means, based on the attribute information of the heat source region extracted for each far-infrared image of the time series data, the variation amount of the position of the heat source region is less than a threshold, and When the size of the heat source region is smaller than a threshold and the far-infrared image at the same time including the heat source region is determined by the first determination means that an object like a person exists, the heat source region The monitoring device according to any one of claims 1 to 10, wherein when the temperature is higher than a threshold value, the heat source region is determined to represent an ashtray.
請求項1〜請求項11の何れか1項に記載の監視装置。 The monitoring device according to claim 1, further comprising an output unit that outputs an alarm when the second determination unit determines that the heat source region represents a person.
請求項1〜請求項12の何れか1項に記載の監視装置。 The monitoring apparatus according to any one of claims 1 to 12, wherein the background image is updated every time a far-infrared image is received by the receiving unit.
予め定めた範囲を撮影する遠赤外カメラによって撮影された遠赤外画像の時系列データを受け付ける受付手段、
前記受付手段によって受け付けた前記時系列データの遠赤外画像の各々について、前記遠赤外画像に基づいて予め生成された背景画像と比較することにより、前記遠赤外画像から熱源領域を抽出する抽出手段、
前記抽出手段により抽出された熱源領域の属性情報に基づいて、人物らしさを判定する第1の判定手段、及び
前記時系列データの遠赤外画像の各々について抽出された前記熱源領域について前記第1の判定手段により判定された判定結果に基づいて、前記熱源領域が、人物を表すか否かを判定する第2の判定手段、
として機能させるためのプログラム。 Computer
Receiving means for receiving time-series data of a far-infrared image captured by a far-infrared camera that captures a predetermined range;
A heat source region is extracted from the far-infrared image by comparing each of the far-infrared images of the time-series data received by the receiving unit with a background image generated in advance based on the far-infrared image. Extraction means,
Based on the attribute information of the heat source area extracted by the extraction means, first determination means for determining person-likeness, and the first heat source area extracted for each of the far-infrared images of the time-series data. Second determination means for determining whether the heat source region represents a person based on the determination result determined by the determination means;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014160861A JP6461511B2 (en) | 2014-08-06 | 2014-08-06 | Monitoring device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014160861A JP6461511B2 (en) | 2014-08-06 | 2014-08-06 | Monitoring device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016038686A true JP2016038686A (en) | 2016-03-22 |
JP6461511B2 JP6461511B2 (en) | 2019-01-30 |
Family
ID=55529724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014160861A Expired - Fee Related JP6461511B2 (en) | 2014-08-06 | 2014-08-06 | Monitoring device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6461511B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020052826A (en) * | 2018-09-27 | 2020-04-02 | 株式会社リコー | Information provision device, information provision system, information provision method, and program |
WO2021140844A1 (en) * | 2020-01-06 | 2021-07-15 | オムロン株式会社 | Human body detection device and human body detection method |
KR20220007278A (en) * | 2020-07-10 | 2022-01-18 | 유비웨이브 주식회사 | System for distinguishing humans from animals using TOF sensor |
WO2023175647A1 (en) * | 2022-03-14 | 2023-09-21 | 三菱電機株式会社 | Person detection device, person detection method and person detection program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002329202A (en) * | 2001-04-27 | 2002-11-15 | Nippon Seiki Co Ltd | Object detecting device |
JP2006101384A (en) * | 2004-09-30 | 2006-04-13 | Nissan Motor Co Ltd | Human figure detecting apparatus and method |
JP2013117772A (en) * | 2011-12-01 | 2013-06-13 | Secom Co Ltd | Image monitoring device |
JP2013207392A (en) * | 2012-03-27 | 2013-10-07 | Secom Co Ltd | Image monitoring device |
-
2014
- 2014-08-06 JP JP2014160861A patent/JP6461511B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002329202A (en) * | 2001-04-27 | 2002-11-15 | Nippon Seiki Co Ltd | Object detecting device |
JP2006101384A (en) * | 2004-09-30 | 2006-04-13 | Nissan Motor Co Ltd | Human figure detecting apparatus and method |
JP2013117772A (en) * | 2011-12-01 | 2013-06-13 | Secom Co Ltd | Image monitoring device |
JP2013207392A (en) * | 2012-03-27 | 2013-10-07 | Secom Co Ltd | Image monitoring device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020052826A (en) * | 2018-09-27 | 2020-04-02 | 株式会社リコー | Information provision device, information provision system, information provision method, and program |
JP7172376B2 (en) | 2018-09-27 | 2022-11-16 | 株式会社リコー | Information providing device, information providing system, information providing method, and program |
WO2021140844A1 (en) * | 2020-01-06 | 2021-07-15 | オムロン株式会社 | Human body detection device and human body detection method |
KR20220007278A (en) * | 2020-07-10 | 2022-01-18 | 유비웨이브 주식회사 | System for distinguishing humans from animals using TOF sensor |
KR102458582B1 (en) * | 2020-07-10 | 2022-10-26 | 유비웨이브 주식회사 | System for distinguishing humans from animals using TOF sensor |
WO2023175647A1 (en) * | 2022-03-14 | 2023-09-21 | 三菱電機株式会社 | Person detection device, person detection method and person detection program |
Also Published As
Publication number | Publication date |
---|---|
JP6461511B2 (en) | 2019-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6411373B2 (en) | Recognition data transmission device, recognition data recording device, and recognition data recording method | |
US11308777B2 (en) | Image capturing apparatus with variable event detecting condition | |
JP6137425B2 (en) | Image processing system, image processing apparatus, image processing method, and image processing program | |
Leone et al. | Detecting falls with 3D range camera in ambient assisted living applications: A preliminary study | |
JP4852159B2 (en) | Image processing apparatus, image processing method, and air conditioning control apparatus | |
JP6461511B2 (en) | Monitoring device and program | |
JP6077655B2 (en) | Shooting system | |
JP6297822B2 (en) | Detection device, detection system, and detection method | |
JPWO2014125882A1 (en) | Information processing system, information processing method, and program | |
WO2014010174A1 (en) | Image angle variation detection device, image angle variation detection method and image angle variation detection program | |
JP6837356B2 (en) | Lost child detection device and lost child detection method | |
JP4999794B2 (en) | Still region detection method and apparatus, program and recording medium | |
JP6867056B2 (en) | Information processing equipment, control methods, and programs | |
KR101512658B1 (en) | A device and method for detecting for fire flame using stereo camera and fuzzy logic | |
JP6176191B2 (en) | Imaging apparatus and infrared image generation method | |
JP4111660B2 (en) | Fire detection equipment | |
JP2020052822A (en) | Information processing apparatus, authentication system, control method thereof, and program | |
CN107851185A (en) | Take detection | |
JP2021033646A (en) | Information processor, information processing method, and program | |
JP2007172378A (en) | Apparatus for specifying object to be gazed at | |
JP2008541650A (en) | Monitoring method and apparatus | |
TWI704529B (en) | Method and device for detecting an object crossing event at a predetermined first line in a scene | |
JP7243372B2 (en) | Object tracking device and object tracking method | |
JP2009245200A (en) | Smoke detection device | |
TWI578780B (en) | Blurry image detecting method and related camera and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6461511 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |