JP2013190943A - Object detector and intercom system - Google Patents

Object detector and intercom system Download PDF

Info

Publication number
JP2013190943A
JP2013190943A JP2012056086A JP2012056086A JP2013190943A JP 2013190943 A JP2013190943 A JP 2013190943A JP 2012056086 A JP2012056086 A JP 2012056086A JP 2012056086 A JP2012056086 A JP 2012056086A JP 2013190943 A JP2013190943 A JP 2013190943A
Authority
JP
Japan
Prior art keywords
camera
image
unit
luminance
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012056086A
Other languages
Japanese (ja)
Inventor
Madoka Inoue
円 井上
Kenichi Ogawa
憲一 小川
Hironobu Fujiyoshi
弘亘 藤吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aiphone Co Ltd
Chubu University
Original Assignee
Aiphone Co Ltd
Chubu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aiphone Co Ltd, Chubu University filed Critical Aiphone Co Ltd
Priority to JP2012056086A priority Critical patent/JP2013190943A/en
Publication of JP2013190943A publication Critical patent/JP2013190943A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain detection of an object such as a person at high speed and at low cost by reducing the number of information dimensions in a local area.SOLUTION: An object detector has: an image input part 1 which generates an image frame group; a time variation extraction part 2 which calculates the maximum value of variation of luminance, and a degree of dispersion of the luminance of the same part from a reference frame to a frame before the predetermined number among the generated image frames, and determines whether pixels are at dynamic states or static states for every pixel from a calculated luminance value and the calculated degree of dispersion; an interframe feature extraction part 3 which calculates feature quantity of motions by creating histogram consisting of two values of the dynamic state/static state calculated by forming cells consisting of a plurality of pixels for every cell, and after that normalizing the histogram; and a detection part 4 constituted of a cascade identifier by AdaBoost to be constituted of a strong identifier by which existence of an object such as a person or a vehicle by using learning samples classified by the object and the background and the feature quantity from the feature quantity, and detects the existence of the object from a pick up video of a camera.

Description

本発明は、カメラの撮像映像から物体を検出する物体検出装置、及びこの物体検出装置を備えたインターホンシステムに関する。   The present invention relates to an object detection device that detects an object from a captured image of a camera, and an interphone system including the object detection device.

近年、犯罪の増加や高度化により、一般家庭などでも防犯機能の高い防犯カメラの需要が高まっている。このような防犯カメラとしては例えば特許文献1に記載されているようなセンサカメラがある。この特許文献1では、センサカメラがインターホンに接続され、撮像した人物の特徴が予め記憶されている特徴に一致したら不審者ではないと判断し、警報等を発しないが、一致しない場合は不審者と判断するよう構成されている。   In recent years, with the increase and sophistication of crime, the demand for security cameras with high security functions is increasing even in ordinary households. An example of such a security camera is a sensor camera as described in Patent Document 1. In Patent Document 1, if a sensor camera is connected to an intercom and the captured person's characteristics match the pre-stored characteristics, it is determined that the person is not a suspicious person, and no warning is issued. It is comprised so that it may judge.

一方で、画像から人物等の物体を検出する技術の発達がめざましく、非特許文献1にあるようにHOG特徴量を用いて画像から人物を検出する手法がある。また、HOG特徴量を用いた人検出に対する性能向上の検討として、HOG特徴にピクセル状態分析の結果を用いた時空間特徴を組み合わせた検出手法(特許文献2)なども報告されている。
また、上記非特許文献1や特許文献2の手法は、局所領域毎に角度に応じた数階調の特徴情報を有するため高次元な特徴量となる。高次元な情報量の削減については、従来手法の特徴量を数値的に畳み込むことにより、情報量を削減する取り組みも行われている(非特許文献2)。
On the other hand, the development of technology for detecting an object such as a person from an image is remarkable, and there is a technique for detecting a person from an image using HOG feature amounts as described in Non-Patent Document 1. In addition, as a study for improving performance for human detection using HOG feature amounts, a detection method (Patent Document 2) in which a spatio-temporal feature using a result of pixel state analysis is combined with a HOG feature has been reported.
Further, the methods of Non-Patent Document 1 and Patent Document 2 have feature information of several gradations corresponding to an angle for each local region, and thus become a high-dimensional feature amount. For reducing the amount of high-dimensional information, efforts have been made to reduce the amount of information by numerically convolving the feature amount of the conventional method (Non-patent Document 2).

特開2009−272819号公報JP 2009-272819 A 特開2009−301104号公報JP 2009-301104 A

N.Dalal and B.Triggs, “Histograms of Oriented Gradients for Human Detection”, IEEE Computer Vision and Pattern Recognitio, pp. 886-893, 2005年N.Dalal and B. Triggs, “Histograms of Oriented Gradients for Human Detection”, IEEE Computer Vision and Pattern Recognitio, pp. 886-893, 2005 松島千佳,山内悠嗣,山下隆義,藤吉弘亘:“Relational Binarized HOG 特徴量とReal AdaBoost によるバイナリ選択を用いた物体検出“,MIRU2010Matsushima Chika, Yamauchi Satoshi, Yamashita Takayoshi, Fujiyoshi Hironobu: “Object Detection Using Relational Binarized HOG Features and Real AdaBoost Binary Selection”, MIRU2010

上記特許文献1に記載されているセンサカメラは、人感センサが感知動作しない限りカメラは起動しないし、警報も発しない。そのため、不審者がカメラの撮像範囲に居ながら人感センサが反応しない距離に居る場合は撮像が行われなかったし、警報を発することもなかった。
そのため、カメラの撮像範囲に人物がいる場合はカメラから人物が離れた状態であっても、それをカメラが認識できれば、防犯機能を格段に高めることができる。また、人以外の例えば不審車両の場合も同様であり、映像から検知できれば防犯上有効である。
The sensor camera described in Patent Document 1 does not start and does not issue an alarm unless the human sensor performs a sensing operation. Therefore, when the suspicious person is in the imaging range of the camera but at a distance where the human sensor does not react, the imaging is not performed and no alarm is issued.
Therefore, when there is a person in the imaging range of the camera, even if the person is away from the camera, if the camera can recognize it, the crime prevention function can be greatly enhanced. The same applies to a suspicious vehicle other than a person, for example, and it is effective for crime prevention if it can be detected from an image.

しかしながら、上記特許文献2や非特許文献1の画像から物体を検出する技術を実施する場合の構成は、演算するデータ量が大きいため演算部がコスト高になり現実的ではない。また、非特許文献2のように畳み込みによる特徴量の次元の削減を行うことは、特徴量が本来持つべき情報量の削減につながるため好ましくない。   However, the configuration in the case of implementing the technique for detecting an object from the images of Patent Document 2 and Non-Patent Document 1 is not realistic because the amount of data to be calculated is large and the calculation unit is expensive. Further, it is not preferable to reduce the dimension of the feature amount by convolution as in Non-Patent Document 2, because it leads to a reduction in the amount of information that the feature amount should originally have.

そこで、本発明はこのような問題点に鑑み、局所領域における情報次元数を削減することで計算処理を削減し、人や車両等の物体の検出を高速に然も安価に実現することを可能とした物体検出装置を提供すること、そしてこの物体検出機能をインターホン機器に組み込むことで、防犯機能の向上を図ったインターホンシステムを提供することを目的としている。   Therefore, in view of such problems, the present invention can reduce calculation processing by reducing the number of information dimensions in a local region, and can realize detection of an object such as a person or a vehicle at high speed and at low cost. It is an object of the present invention to provide an interphone system that improves the crime prevention function by providing the object detection device described above and incorporating this object detection function into an interphone device.

上記課題を解決する為に、請求項1の発明は、カメラの撮像映像を基に時間軸上で連続する画像から成る画像フレーム群を生成する画像フレーム群生成手段と、生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして当該基準フレームから所定数前或いは所定数後の画像フレームまでのピクセル毎の同一部位の輝度の変化量の最大値を算出する輝度変化算出手段と、基準フレームと当該基準フレームから所定数前或いは所定数後の画像フレームまでのピクセル毎の同一部位の輝度変化情報から輝度の分散度を算出する分散度算出手段と、輝度の変化量の最大値が所定の輝度値より大きく、且つ輝度の分散度が所定の分散度より大きいピクセルを動状態と判断すると共に、それ以外の輝度の変化量の最大値が所定の輝度値以下、或いは輝度の分散度が所定の分散度以下のピクセルを静状態と判断するピクセル状態判断手段と、基準フレームにおいて、複数ピクセルから成るセルを形成してセル毎に動状態及び静状態の2値から成るヒストグラムを作成し、更にヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、算出した動きの特徴量から人物や車両等の物体の存在を検出する物体検出手段とを備え、物体検出手段が、物体と背景によってクラス分けされた学習サンプルと特徴量を用いて学習された強識別器によって構成されるアダブーストによるカスケード型識別器によって構成され、カメラの撮像映像から物体の存在を検出することを特徴とする。
この構成によれば、フレーム間差分による2次元の動き情報を特徴量とするため、着目する局所領域における次元数は、HOG特徴の9次元に対してフレーム間差分特徴では2次元に抑えることができる。そのため、不審者や不審車両等の物体の検出を高速に然も安価に実現することが可能となる。
In order to solve the above-mentioned problems, the invention of claim 1 is directed to an image frame group generation means for generating an image frame group consisting of continuous images on a time axis based on a captured image of a camera, and a plurality of generated image frames A luminance change calculating means for calculating a maximum value of a change amount of luminance of the same part for each pixel from the reference frame to a predetermined number of previous or predetermined number of image frames from an arbitrary image frame as a reference frame, and a reference frame And a dispersion degree calculating means for calculating the dispersion degree of the brightness from the brightness change information of the same part for each pixel from the reference frame to the image frame a predetermined number before or after the predetermined number, and a maximum value of the brightness change amount is a predetermined value A pixel that is greater than the luminance value and whose luminance variance is greater than the predetermined variance is determined to be a moving state, and the maximum other change in luminance is the predetermined luminance value. A pixel state determining means for determining a pixel having a lower or lower luminance dispersion degree than a predetermined dispersion state as a static state, and forming a cell composed of a plurality of pixels in a reference frame, and moving state and static state 2 for each cell. A feature amount calculating means for creating a histogram composed of values, further normalizing the histogram to calculate a feature amount of motion, and an object detecting means for detecting the presence of an object such as a person or a vehicle from the calculated feature amount of motion. The object detection means includes a cascade type discriminator using Adaboost composed of learning samples classified by the object and the background and strong discriminators learned using the feature quantity. It is characterized by detecting the presence.
According to this configuration, since the two-dimensional motion information based on the interframe difference is used as the feature amount, the number of dimensions in the local region of interest can be suppressed to two dimensions in the interframe difference feature, compared to the nine dimensions of the HOG feature. it can. Therefore, it becomes possible to detect an object such as a suspicious person or a suspicious vehicle at high speed and at low cost.

請求項2の発明は、来訪者が居住者を呼び出すための玄関子機と、不審者等を撮像するための防犯カメラと、玄関子機からの呼び出しに応答する機能に加えて防犯カメラの撮像映像を表示するモニタを備えた居室親機とを有するインターホンシステムであって、防犯カメラ或いは居室親機が請求項1に記載の物体検出装置を具備し、居室親機は、物体検出装置が防犯カメラの撮像映像から物体の存在を検知したら、警報発報、検知物体のズーム表示或いはパン/チルト表示処理、録画、外部照明の点灯の少なくとも何れかを実施する制御部を有することを特徴とする。
この構成によれば、防犯カメラの撮像映像に不審者が映っている場合はそれを認識して、警報発報等の動作を実施するため、防犯機能の向上を図ることができる。特に、人感センサにより不審者を感知する従来の防犯カメラに対して、撮像映像から物体を検出するため、人感センサが不審者を感知できない距離であっても不審者を検出することが可能であり、防犯機能の向上に有効である。
The invention of claim 2 is characterized in that an entrance cordless handset for a visitor to call a resident, a security camera for picking up a suspicious person, etc., and a function for responding to a call from the entrance cordless handset, in addition to an image picked up by the security camera. An intercom system having a living room parent device equipped with a monitor for displaying images, wherein the security camera or the living room parent device comprises the object detection device according to claim 1. It has a control unit that performs at least one of alarming, zoom display or pan / tilt display processing of a detected object, recording, and lighting of external illumination when the presence of an object is detected from a captured image of a camera. .
According to this configuration, when a suspicious person appears in the image captured by the security camera, it is recognized and an operation such as warning is performed, so that the security function can be improved. In particular, since the object is detected from the captured image compared to the conventional security camera that detects the suspicious person with the human sensor, it is possible to detect the suspicious person even at a distance that the human sensor cannot detect the suspicious person. It is effective in improving the crime prevention function.

請求項3の発明は、来訪者が居住者を呼び出す機能に加えて来訪者を撮像するためのカメラを備えた玄関子機と、玄関子機からの呼び出しに応答する機能に加えてカメラの撮像映像を表示するモニタを備えた居室親機を有するインターホンシステムであって、玄関子機或いは居室親機が請求項1に記載の物体検出装置を具備し、居室親機は、物体検出装置がカメラの撮像映像から物体の存在を検知したら、警報発報、検知物体のズーム表示或いはパン/チルト表示処理、録画、外部照明の点灯の少なくとも何れかを実施する制御部を有することを特徴とする。
この構成によれば、玄関子機カメラの撮像映像に不審者が映っている場合はそれを認識して、警報発報等の動作を実施するため、防犯機能の向上を図ることができる。また、玄関先の自転車等が移動した場合も認識でき、盗難等を把握することも可能となる。
According to the invention of claim 3, in addition to a function for a visitor to call a resident, an entrance cordless handset provided with a camera for photographing the visitor and a function for responding to a call from the entrance cordless handset An intercom system having a living room base unit equipped with a monitor for displaying an image, wherein the front door unit or the living room base unit includes the object detection device according to claim 1, and the room detection unit is configured such that the object detection device is a camera. When the presence of an object is detected from the picked-up video, a control unit that performs at least one of alarming, zoom display or pan / tilt display processing of the detected object, recording, and lighting of external illumination is provided.
According to this configuration, when a suspicious person appears in the captured image of the entrance slave camera, it is recognized and an operation such as warning is performed, so that the crime prevention function can be improved. In addition, it is possible to recognize when a bicycle or the like at the front door has moved, and to grasp theft or the like.

本発明の物体検出装置によれば、フレーム間差分による2次元の動き情報を特徴量とすることで、着目する局所領域における次元数は、HOG特徴の9次元に対してフレーム間差分特徴では2次元に抑えることができ、人或いは車両等の物体の検出を高速に然も安価に実現することができる。
また本発明のインターホンシステムによれば、防犯カメラ或いは玄関子機のカメラの撮像映像に不審者が映っている場合はそれを認識して、ズーム表示や発報等所定の動作を実施するため、防犯機能の向上を図ることができる。
According to the object detection device of the present invention, by using the two-dimensional motion information based on the interframe difference as a feature amount, the number of dimensions in the local region of interest is 2 for the interframe difference feature with respect to 9 dimensions of the HOG feature. Therefore, detection of an object such as a person or a vehicle can be realized at high speed and at low cost.
In addition, according to the intercom system of the present invention, when a suspicious person is reflected in a captured image of a security camera or a camera of a front door unit, it is recognized, and a predetermined operation such as zoom display or notification is performed. The crime prevention function can be improved.

本発明に係る物体検出装置の一例を示す機能構成図である。It is a functional lineblock diagram showing an example of an object detection device concerning the present invention. 画像フレームと輝度値の関係を示す画像フレーム群の説明図である。It is explanatory drawing of the image frame group which shows the relationship between an image frame and a luminance value. インターホンシステムの一例を示す構成図であり、各機器をブロック図で示している。It is a block diagram which shows an example of an intercom system, and has shown each apparatus with the block diagram. 居室親機モニタの表示説明図である。It is a display explanatory drawing of a living room main | base station monitor.

以下、本発明を具体化した実施の形態を、図面を参照して詳細に説明する。図1は本発明に係る物体検出装置の一例を示す機能構成図であり、カメラが撮像した映像信号が入力され、所定の間隔で時間軸上で連続する画像から成る画像フレームを生成して出力する画像入力部1、任意の画像フレームを基準フレームとしてピクセル毎に輝度の時間変化量を抽出する時間変化抽出部2、ピクセル毎にフレーム間差分特徴となる特徴ベクトルを算出するフレーム間特徴抽出部3、学習サンプルと算出した特徴量から画像フレーム内の物体を検出する検出部4、検出結果を出力する結果出力部5を備えている。尚、これら構成要素のうち、画像入力部1、時間変化抽出部2、フレーム間特徴抽出部3、検出部4が物体検出装置を構成し、CPU或いはDSPが所定のプログラムを実行することで実現される。また、結果出力部5を含む全体は例えばパーソナルコンピュータで実現できる。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below in detail with reference to the drawings. FIG. 1 is a functional configuration diagram showing an example of an object detection apparatus according to the present invention, in which a video signal picked up by a camera is input, and an image frame composed of continuous images on a time axis is generated and output at a predetermined interval. An image input unit 1 that performs an arbitrary image frame as a reference frame, a time change extraction unit 2 that extracts a temporal change in luminance for each pixel, and an inter-frame feature extraction unit that calculates a feature vector serving as an inter-frame difference feature for each pixel 3. A detection unit 4 that detects an object in an image frame from the learning sample and the calculated feature amount, and a result output unit 5 that outputs a detection result are provided. Of these components, the image input unit 1, the time change extraction unit 2, the inter-frame feature extraction unit 3, and the detection unit 4 constitute an object detection device, and the CPU or DSP executes a predetermined program. Is done. The whole including the result output unit 5 can be realized by a personal computer, for example.

画像入力部1は、例えば監視カメラ、或いはインターホンシステムの玄関子機が内蔵するカメラ等の撮像映像信号が入力され、例えば0.03秒毎に画像フレーム(静止画)を生成して出力する。こうして画像入力部1は、時間軸上で連続するデジタルデータから成る画像フレームを出力する。   The image input unit 1 receives, for example, a captured video signal from a surveillance camera or a camera built in an entrance unit of an interphone system, and generates and outputs an image frame (still image) every 0.03 seconds, for example. In this way, the image input unit 1 outputs an image frame composed of digital data continuous on the time axis.

時間変化抽出部2は、画像入力部1が出力した画像フレームの任意の画素(ピクセル)から、輝度の時間変化量を抽出する。具体的に、各ピクセルの輝度の変化の大きさを表す変化量Tと、輝度の変化の無さを表す安定度Sの2つの変化量を算出する。この演算は、最終的にフレーム内の全てのピクセルに対して実施される。
図2は、画像フレームと輝度値の関係を示す画像フレーム群の説明図であり、基準フレームをKとして、基準フレームKの直前に出力された画像フレームである過去フレームと、直後に出力される画像フレームである未来フレームの関係を示している。また、基準フレームKの任意の座標のピクセルの輝度値をIkとし、個々の画像フレームの同一座標の輝度をIk(±n)で示している。以下、この図2を参照して説明する。
The time change extraction unit 2 extracts a time change amount of luminance from an arbitrary pixel of the image frame output from the image input unit 1. Specifically, two change amounts are calculated: a change amount T that represents the magnitude of the change in luminance of each pixel and a stability S that represents the absence of change in luminance. This operation is finally performed on all pixels in the frame.
FIG. 2 is an explanatory diagram of an image frame group showing the relationship between the image frame and the luminance value. A reference frame is K, a past frame that is an image frame output immediately before the reference frame K, and an image frame that is output immediately thereafter. The relationship of the future frame which is an image frame is shown. In addition, the luminance value of a pixel at an arbitrary coordinate in the reference frame K is denoted by Ik, and the luminance at the same coordinate in each image frame is denoted by Ik (± n). Hereinafter, a description will be given with reference to FIG.

最初に輝度値が急激に変化するピクセルの検出を行う。フレームKからNフレーム前迄の各フレームの輝度値Ik−nとIkとの変化量を先ず求める。そして、この変化量の最大値を算出してこの座標の変化量Tとする。この変化量Tは次の数1の演算式により算出される。尚、数1においてjは1からnの整数である。   First, a pixel whose luminance value changes rapidly is detected. First, the amount of change between the luminance values Ik-n and Ik of each frame from frame K to N frames before is obtained. Then, the maximum value of this change amount is calculated and set as the change amount T of this coordinate. This change amount T is calculated by the following equation (1). In Equation 1, j is an integer from 1 to n.

Figure 2013190943
Figure 2013190943

一方、ピクセルの安定度Sの検出は、ここではKより後のNフレームに着目する。安定度Sは次式の数2により算出する。この安定度Sは、フレームKからK+Nまでの輝度値の分散であり、安定した状態では安定度Sは小さくなる。   On the other hand, the detection of the pixel stability S focuses here on N frames after K. The stability S is calculated by the following equation (2). This stability S is a dispersion of luminance values from the frame K to K + N, and the stability S becomes small in a stable state.

Figure 2013190943
Figure 2013190943

次に、求めた各ピクセルの変化量Tと安定度Sに対してそれぞれ閾値処理を行い、両者が閾値以上の場合を動状態、それ以外では静状態とする。時間変化抽出部2は、こうして個々のピクセル毎に2値化した(2階調とした)輝度情報を出力する。   Next, threshold processing is performed on the obtained change amount T and stability S of each pixel, and when both are greater than or equal to the threshold, the moving state is set, and otherwise, the static state is set. The time change extraction unit 2 outputs luminance information binarized (in two gradations) for each pixel in this way.

尚、閾値は予め設定された固定値であっても良いが、固定値の場合はカメラの設置環境や明るさにより判定に大きなバラツキが発生するため、過去の画像フレームのピクセルの輝度値の分散により適切な値を決定するのが好ましい。また、未来フレームに対して適応している安定度Sを過去フレームに対して適応することは可能であるし、過去フレームに対して適応している変化量Tを未来フレームに適応することも可能である。   Note that the threshold value may be a fixed value set in advance. However, in the case of a fixed value, the determination varies greatly depending on the installation environment and brightness of the camera. It is preferable to determine a more appropriate value. Moreover, it is possible to adapt the stability S adapted to the future frame to the past frame, and it is also possible to adapt the change amount T adapted to the past frame to the future frame. It is.

フレーム間特徴抽出部3は、時間変化抽出部2で算出したピクセル毎の静状態/動状態を基に、フレーム間差分特徴となる特徴ベクトルを算出する。
まず、複数のピクセルから成るセルを作成し、このセル領域毎に時間変化抽出部2で算出したピクセル毎の静状態/動状態のヒストグラム(動き状態ヒストグラム)を作成する。そして、この動き状態ヒストグラムを基に特徴ベクトルは、次のように算出される。
複数のセルで形成したブロック単位で、各セルで作成したヒストグラム正規化して特徴量fを求める。尚、正規化は異常値等のノイズ除去の為に実施される。
The interframe feature extraction unit 3 calculates a feature vector that is an interframe difference feature based on the static state / motion state of each pixel calculated by the time change extraction unit 2.
First, a cell composed of a plurality of pixels is created, and a static state / motion state histogram (motion state histogram) for each pixel calculated by the time change extraction unit 2 is created for each cell region. Based on the motion state histogram, the feature vector is calculated as follows.
The feature value f is obtained by normalizing the histogram created in each cell in units of blocks formed by a plurality of cells. Note that normalization is performed to remove noise such as abnormal values.

例えば、1セルを5×5ピクセルで構成、1ブロックを3×3セルで構成した場合、i行j列のセル(i,j)の特徴量fは2次元(動状態、静状態の2次元)であるため、これをFij={fi,fj}とすると、k番目のブロックの特徴量Vkは、1ブロックが3×3セルであるため18(2×3×3)次元となり、次式で表される。
Vk = {Fi j,Fi+1 j,Fi+2 j,Fi j+1,Fi+1 j+1,Fi+2 j+1,Fi j+2,Fi+1 j+2,Fi+2 j+2}
この特徴量Vkから、次式の数3により正規化は実施される。
For example, when one cell is composed of 5 × 5 pixels and one block is composed of 3 × 3 cells, the feature quantity f of the cell (i, j) in i rows and j columns is two-dimensional (2 in a moving state and a static state). Therefore, if this is Fij = {fi, fj}, the feature quantity Vk of the k-th block is 18 (2 × 3 × 3) dimensions because one block is 3 × 3 cells, It is expressed by a formula.
Vk = (Fi j, Fi + 1 j, Fi + 2 j, Fi j + 1, Fi + 1 j + 1, Fi + 2 j + 1, Fi j + 2, Fi + 1 j + 2, Fi + 2 j + 2}
Normalization is performed from the feature amount Vk by the following equation (3).

Figure 2013190943
Figure 2013190943

vが特徴ベクトルであり、正規化後の特徴量である。この正規化は、ブロックを1セルずつ移動させることによって行われる。
そのため、特徴量fは異なるブロックの領域によって何度も正規化され、例えば入力画像を30×60ピクセルとした場合、横方向に4ブロック、縦方向に10ブロック、合計40ブロックに対して正規化は実施される。
尚、この場合、ブロック毎に正規化された特徴ベクトルは、40ブロック×18次元=720次元となる。
v is a feature vector, which is a feature amount after normalization. This normalization is performed by moving the block one cell at a time.
Therefore, the feature value f is normalized many times depending on the area of different blocks. For example, when the input image is 30 × 60 pixels, normalization is performed for 4 blocks in the horizontal direction and 10 blocks in the vertical direction, for a total of 40 blocks. Is implemented.
In this case, the feature vector normalized for each block is 40 blocks × 18 dimensions = 720 dimensions.

検出部4は、人を検知するために人物と背景によってクラス分けされた学習サンプル、或いは車両を検知するために自転車や自動車等の車両と背景によってクラス分けされた学習サンプルと、上記特徴量を用いて学習された強識別器によって構成され、周知のアダブーストによるカスケード型識別器を用いて物体の検出を行う。こうして物体が検出されたら、物体の座標情報、領域情報等を含む物体検出信号が出力される。   The detection unit 4 is a learning sample classified according to a person and a background to detect a person, or a learning sample classified according to a vehicle such as a bicycle or a car and a background to detect a vehicle, and the feature amount. An object is detected using a well-known cascade booster based on Adaboost. When the object is detected in this way, an object detection signal including the object coordinate information, region information, and the like is output.

結果出力部5は、検出部4が物体を検出したら警報を報音する報音部、検出した映像を表示するLCDモニタ等の映像表示部、外部に通報する通報部等で構成され、検出部4が出力する座標情報等を受けて映像表示部では入力映像の表示に加えて、物体のエリアが強調表示される。この強調表示は、例えば検出した物体の周囲を矩形の窓枠で覆う等の表示が実施される。   The result output unit 5 includes a sound report unit that sounds an alarm when the detection unit 4 detects an object, a video display unit such as an LCD monitor that displays the detected video, a notification unit that reports to the outside, and the like. In response to the coordinate information output by 4, the video display unit highlights the area of the object in addition to the display of the input video. For example, the highlighting is performed by covering the detected object with a rectangular window frame.

このように、フレーム間差分による2次元の動き情報を特徴量とするため、着目する局所領域における次元数は、HOG特徴の9次元に対してフレーム間差分特徴では2次元に抑えることができるため、人や車両等の物体の検出を、特に移動する物体の検出を高速に然も安価に実現することが可能となる。   As described above, since the two-dimensional motion information based on the interframe difference is used as the feature amount, the number of dimensions in the local region of interest can be suppressed to two dimensions in the interframe difference feature, compared to the nine dimensions of the HOG feature. It is possible to detect an object such as a person or a vehicle, particularly a moving object, at high speed and at low cost.

次に、上記物体検出装置を備えたインターホンシステムについて説明する。図3はインターホンシステムの構成図を示し、6は玄関等の戸外に設置されて来訪者が居住者を呼び出すための玄関子機、7は駐車場等に設置されて不審者等を撮像するための防犯カメラとしてのセンサカメラ、8は住戸内に設置されて玄関子機6からの呼び出しに居住者が応答する機能に加えて、玄関子機6や防犯カメラ7の撮像映像を表示するモニタ80を備えた居室親機である。   Next, an intercom system including the object detection device will be described. FIG. 3 shows a configuration diagram of the intercom system, 6 is an entrance cordless device for visitors to call out residents, and 7 is installed in a parking lot etc. to image suspicious persons etc. A sensor camera 8 is installed in the dwelling unit, and a monitor 80 that displays images taken by the entrance cordless handset 6 and the security camera 7 in addition to a function that a resident responds to a call from the entrance cordless handset 6. It is a living room master equipped with.

玄関子機6は、呼出ボタン61、通話するためのマイク63a及びスピーカ63b、マイク63a及びスピーカ63bを制御する音響部63、来訪者を撮像するための子機カメラ64、子機カメラ64の撮像映像の変調処理等を行う子機映像処理部65、玄関子機6全体を制御する子機CPU66、居室親機8と通信するための子機IF67等を備えている。   The front cordless handset 6 includes a call button 61, a microphone 63a and a speaker 63b for talking, an acoustic unit 63 for controlling the microphone 63a and the speaker 63b, a slave camera 64 for capturing a visitor, and an image of the slave camera 64. A slave unit video processing unit 65 that performs video modulation processing, a slave unit CPU 66 that controls the entire entrance slave unit 6, a slave unit IF 67 for communicating with the living room master unit 8, and the like are provided.

センサカメラ7は、不審者等を撮像するためのカメラ71、カメラ71の撮像映像の変調処理等行うカメラ映像処理部72、人物などの接近を感知する人感センサ73、周囲の音を収集するためのマイク74a、居室親機8から伝送された音声等を出力するスピーカ74b、マイク74a及びスピーカ74bを制御する音響部74、夜間撮影のための照明75、センサカメラ7全体を制御するカメラCPU76、居室親機8と通信するためのカメラIF77等を備えている。   The sensor camera 7 collects ambient sounds, a camera 71 for imaging a suspicious person, a camera image processing unit 72 that performs modulation processing of an image captured by the camera 71, a human sensor 73 that senses the approach of a person, and the like. A microphone 74a for output, a speaker 74b for outputting sound transmitted from the living room master unit 8, an acoustic unit 74 for controlling the microphone 74a and the speaker 74b, an illumination 75 for night photography, and a camera CPU 76 for controlling the entire sensor camera 7. A camera IF 77 and the like for communicating with the room master unit 8 are provided.

居室親機8は、モニタ80に加えて玄関子機6からの呼び出しに応答するための通話ボタン81、居住者の音声を収集するマイク82a、玄関子機6やセンサカメラ7が集音した音声等を報音するためのスピーカ82b、マイク82a及びスピーカ82bを制御する音響部82、物体検出部85の出力信号を受けてモニタ80に表示する映像を生成する親機映像処理部84、伝送された映像から物体を検知する物体検出部85、映像等を保存するためのメモリ86、各種操作を行うためにモニタ80上に設置された操作部としてのタッチパネル89、モニタ80に表示する映像を制御すると共に居室親機8全体を制御する親機CPU87、玄関子機6及びセンサカメラ7と通信するための親機IF88等を備えている。尚、物体検出部85が上記物体検出装置である。   In addition to the monitor 80, the living room base unit 8 includes a call button 81 for responding to a call from the front door unit 6, a microphone 82a for collecting the voice of the resident, and a voice collected by the front side unit 6 and the sensor camera 7. And so forth, a speaker 82b for reporting the sound, a sound unit 82 for controlling the microphone 82a and the speaker 82b, and a master image processing unit 84 for receiving an output signal from the object detection unit 85 and generating an image to be displayed on the monitor 80. An object detection unit 85 for detecting an object from the captured video, a memory 86 for storing the video and the like, a touch panel 89 as an operation unit installed on the monitor 80 for performing various operations, and a video displayed on the monitor 80. In addition, a master unit CPU 87 for controlling the entire room master unit 8, a master unit IF 88 for communicating with the entrance slave unit 6 and the sensor camera 7 are provided. The object detection unit 85 is the object detection device.

このように構成されたインターホンシステムは次のように動作する。但し、玄関子機6からの呼び出し、その応答動作、センサカメラ7の感知動作によるカメラ71の起動等は従来と同様であるため説明を省略し、ここでは子機カメラ64及びセンサカメラ7のカメラ71の撮像映像から物体を検出した場合の動作を中心に説明する。
先ず、センサカメラ7が起動した場合を説明する。人感センサ73の感知動作、或いは居室親機8のタッチパネル89の操作によるセンサカメラ起動操作により、センサカメラ7が起動すると、撮像映像が居室親機8に伝送される。伝送された映像は物体検出部85及び親機映像処理部84を介してモニタ80に表示される。
The intercom system configured as described above operates as follows. However, since the calling from the front door 6, the response operation thereof, the activation of the camera 71 by the sensing operation of the sensor camera 7, and the like are the same as those in the prior art, the description thereof will be omitted. The operation when an object is detected from 71 captured images will be mainly described.
First, a case where the sensor camera 7 is activated will be described. When the sensor camera 7 is activated by the sensing operation of the human sensor 73 or the sensor camera activation operation by the operation of the touch panel 89 of the room master unit 8, a captured image is transmitted to the room master unit 8. The transmitted video is displayed on the monitor 80 via the object detection unit 85 and the parent device video processing unit 84.

このとき物体検出部85は、図1に示す物体検出装置の構成を備えており、伝送された映像に人や車両等の動く物体が存在したら、その物体の存在を検出して物体検出信号を出力する。
この物体検出信号を受けた親機映像処理部84は、物体検出信号に含まれる座標情報等から検出した物体を取り囲む矩形の表示枠を作成し、モニタ80に表示されているカメラ71の映像に重ねて作成した枠を表示する。図4はこうして表示されたモニタ80を示し、カメラ71の撮像映像に、物体検出部85が検出した不審人物(物体)を枠Fで覆った表示が示されている。
At this time, the object detection unit 85 has the configuration of the object detection device shown in FIG. 1. If a moving object such as a person or a vehicle exists in the transmitted video, the object detection signal is detected by detecting the presence of the object. Output.
Upon receiving this object detection signal, the master image processing unit 84 creates a rectangular display frame surrounding the detected object from the coordinate information included in the object detection signal, and displays the image of the camera 71 displayed on the monitor 80. Display the frame created by overlapping. FIG. 4 shows the monitor 80 displayed in this manner, and a display in which a suspicious person (object) detected by the object detection unit 85 is covered with a frame F is shown in the captured image of the camera 71.

一方、物体検出部85の検知動作を受けて、親機CPU87は所定の動作を実施する。例えば、居室親機8のスピーカ82bから警報音を鳴動させ、メモリ86へ撮像映像を録画する。また、物体検出部85からの物体検出信号を受けて、撮像映像のズーム処理やパン/チルト処理を実施して、モニタ80に検出した不審者等を拡大表示させたり、画面中央に表示させる等の制御を実施する。
尚、更にセンサカメラ7のマイク74aを能動状態として周囲の音を居室親機8で報音させたり、スピーカ74bから威嚇音となる警報音を鳴動させても良い。
On the other hand, in response to the detection operation of the object detection unit 85, the master CPU 87 performs a predetermined operation. For example, an alarm sound is generated from the speaker 82 b of the living room base unit 8, and the captured image is recorded in the memory 86. In addition, in response to an object detection signal from the object detection unit 85, zoom processing and pan / tilt processing of the captured image are performed, and the detected suspicious person or the like is enlarged on the monitor 80 or displayed in the center of the screen. Implement the control.
In addition, the microphone 74a of the sensor camera 7 may be activated so that ambient sound is reported by the room master unit 8, or an alarm sound that is a threatening sound may be generated from the speaker 74b.

このように、センサカメラ7の撮像映像に不審者が映っている場合はそれを認識して、警報音の発報やズーム処理等所定の動作を実施するため、防犯機能の向上を図ることができる。特に、人感センサ73により不審者を感知する従来の防犯カメラに対して、撮像映像から物体を検出するため、人感センサ73が不審者を感知できない距離であっても不審者を検出することが可能であり、防犯機能の向上に有効である。   As described above, when a suspicious person appears in the captured image of the sensor camera 7 and recognizes the suspicious person and performs a predetermined operation such as alarm sound generation or zoom processing, the crime prevention function can be improved. it can. In particular, in order to detect an object from a captured image with respect to a conventional security camera that detects a suspicious person by the human sensor 73, the human sensor 73 can detect the suspicious person even at a distance where the suspicious person cannot be detected. It is possible to improve the crime prevention function.

次に、子機カメラ64が起動した場合を説明する。来訪者が呼出ボタン61を押下するか居室親機8の所定の操作により、子機カメラ64は撮像を開始し、物体検出部85を介して居室親機8のモニタ83にその撮像映像が表示される。
但し、呼出ボタン61の押下により子機カメラ64が撮像する映像は、来訪者の撮像映像となるため、物体検出部85の検出動作をあえて必要としない。そのため、ここでは居室親機8の操作で子機カメラ64が撮像を開始した場合の動作について説明する。
Next, a case where the slave camera 64 is activated will be described. When the visitor presses the call button 61 or the room base unit 8 performs a predetermined operation, the handset camera 64 starts imaging, and the captured video is displayed on the monitor 83 of the room base unit 8 via the object detection unit 85. Is done.
However, since the image captured by the handset camera 64 when the call button 61 is pressed becomes a captured image of the visitor, the detection operation of the object detection unit 85 is not required. Therefore, here, the operation when the slave camera 64 starts imaging by operating the living room master unit 8 will be described.

居室親機8の操作により子機カメラ64が起動して撮像を開始すると、物体検出部85が不審者等の監視をスタートする。不審者等の物体を検知したら、物体検出信号が出力され、センサカメラ7の場合と同様に親機映像処理部84が物体のエリアを囲む表示枠Fを生成し、モニタ80に表示されている子機カメラ64の撮像映像に表示枠Fが合わせて表示される。
また、親機CPU87も同様に居室親機8のスピーカ82bから警報音を鳴動させ、撮像映像の録画を実施する。尚、センサカメラ7の場合と同様に、撮像映像のズーム処理やパン/チルト処理を実施して、モニタ80に検出した不審者等を拡大表示させても良い。
When the handset camera 64 is activated by the operation of the room base unit 8 to start imaging, the object detection unit 85 starts monitoring the suspicious person or the like. When an object such as a suspicious person is detected, an object detection signal is output, and the master image processing unit 84 generates a display frame F surrounding the area of the object and is displayed on the monitor 80 as in the case of the sensor camera 7. A display frame F is displayed along with the captured image of the slave camera 64.
Similarly, the base unit CPU 87 also sounds an alarm sound from the speaker 82b of the living room base unit 8 to record a captured image. As in the case of the sensor camera 7, the detected image may be enlarged and displayed on the monitor 80 by performing zoom processing and pan / tilt processing of the captured image.

このように、子機カメラ64の撮像映像に不審者等の物体が映っている場合はそれを認識して、発報やズーム表示等所定の動作を実施するため、防犯機能の向上を図ることができる。また、玄関先の自転車等が移動した場合はそれを認識することができるため、盗難等を把握することも可能となる。   In this way, when an object such as a suspicious person is shown in the captured image of the slave camera 64, it is recognized and a predetermined operation such as an alarm or zoom display is performed, so that the crime prevention function is improved. Can do. Moreover, since the bicycle etc. of a front door moved can be recognized, it is also possible to grasp theft.

尚、防犯カメラとして、人感センサ73を備えたセンサカメラ7を一例として説明したが、人感センサ73のない防犯カメラであっても上記物体検出装置は良好に適用でき、例えば駐車場が防犯カメラの撮像範囲にあれば、停めてあった自動車や自転車が移動した場合も認識でき、盗難を把握することも可能となる。
また、物体検出部85を居室親機8に設けた場合を説明したが、物体検出部85はカメラの近くに設けても良く、上記形態の場合は玄関子機6やセンサカメラ7に設けても良い。
In addition, although the sensor camera 7 provided with the human sensor 73 has been described as an example of the security camera, the object detection device can be satisfactorily applied even to a security camera without the human sensor 73. If it is within the imaging range of the camera, it can be recognized even when a parked car or bicycle moves, and it is possible to grasp theft.
Moreover, although the case where the object detection part 85 was provided in the living room main | base station 8 was demonstrated, the object detection part 85 may be provided near the camera, and in the case of the said form, it is provided in the entrance cordless handset 6 or the sensor camera 7. Also good.

上記実施形態は、物体検出装置をインターホンシステムに組み込んだ構成を説明したが、他の機器に組み込んでも良い。例えば、不審者を検出する防犯システムに適用しても良いし、ITS(Intelligent Transport Systems:高度道路交通システム)において歩行者や自転車を検出する場合に適用することができる。   In the above embodiment, the configuration in which the object detection device is incorporated in the intercom system has been described. However, the object detection device may be incorporated in another device. For example, the present invention may be applied to a crime prevention system that detects a suspicious person, or may be applied to a case where a pedestrian or a bicycle is detected in ITS (Intelligent Transport Systems).

1・・画像入力部(画像フレーム群生成手段)、2・・時間変化抽出部(輝度変化算出手段、分散度算出手段、ピクセル状態判断手段)、3・・フレーム間特徴抽出部(特徴量算出手段)、4・・検出部(物体検出手段)、5・・結果出力部、6・・玄関子機、7・・センサカメラ(防犯カメラ)、8・・居室親機、64・・子機カメラ(カメラ)、85・・物体検出部(物体検出装置)、87・・親機CPU(制御部)。   1 .. Image input unit (image frame group generation unit) 2 .. Time change extraction unit (luminance change calculation unit, degree of dispersion calculation unit, pixel state determination unit) 3 .. Interframe feature extraction unit (feature amount calculation) Means), 4 ··· Detection unit (object detection means), 5 · · Result output unit, 6 · · · Entrance cordless handset, 7 · · Sensor camera (security camera), 8 · · Base unit for home, 64 · · cordless handset Camera (camera), 85... Object detection unit (object detection device), 87... Master CPU (control unit).

Claims (3)

カメラの撮像映像を基に時間軸上で連続する画像から成る画像フレーム群を生成する画像フレーム群生成手段と、
生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして当該基準フレームから所定数前或いは所定数後の画像フレームまでのピクセル毎の同一部位の輝度の変化量の最大値を算出する輝度変化算出手段と、
前記基準フレームと当該基準フレームから所定数前或いは所定数後の画像フレームまでのピクセル毎の同一部位の輝度変化情報から輝度の分散度を算出する分散度算出手段と、
前記輝度の変化量の最大値が所定の輝度値より大きく、且つ前記輝度の分散度が所定の分散度より大きいピクセルを動状態と判断すると共に、それ以外の前記輝度の変化量の最大値が所定の輝度値以下、或いは前記輝度の分散度が所定の分散度以下のピクセルを静状態と判断するピクセル状態判断手段と、
前記基準フレームにおいて、複数ピクセルから成るセルを形成してセル毎に前記動状態及び前記静状態の2値から成るヒストグラムを作成し、更にヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、
算出した前記動きの特徴量から人物や車両等の物体の存在を検出する物体検出手段とを備え、
前記物体検出手段が、物体と背景によってクラス分けされた学習サンプルと前記特徴量を用いて学習された強識別器によって構成されるアダブーストによるカスケード型識別器によって構成され、前記カメラの撮像映像から物体の存在を検出することを特徴とする物体検出装置。
Image frame group generation means for generating an image frame group consisting of continuous images on the time axis based on captured images of the camera;
Luminance change that calculates the maximum value of the amount of change in luminance of the same part for each pixel from the reference frame to the image frame that is a predetermined number before or after the predetermined number of frames, using an arbitrary image frame among the plurality of generated image frames A calculation means;
A dispersion degree calculating means for calculating a dispersion degree of brightness from brightness change information of the same part for each pixel from the reference frame to the image frame a predetermined number before or after the reference frame;
A pixel in which the maximum value of the luminance change is greater than a predetermined luminance value and the variance of the luminance is greater than the predetermined variance is determined to be a moving state, and the other maximum value of the luminance change is A pixel state determination unit that determines a pixel having a predetermined luminance value or less, or a pixel having a luminance dispersion degree equal to or less than a predetermined dispersion degree as a static state;
In the reference frame, a cell composed of a plurality of pixels is formed, a histogram composed of the binary values of the moving state and the static state is created for each cell, and the histogram is normalized to calculate a feature amount of motion. Means,
An object detection means for detecting the presence of an object such as a person or a vehicle from the calculated feature amount of the movement,
The object detection means includes a cascade type discriminator using Adaboost composed of learning samples classified by object and background and a strong discriminator learned using the feature quantity, and the object is detected from the captured image of the camera. An object detection device characterized by detecting the presence of an object.
来訪者が居住者を呼び出すための玄関子機と、不審者等を撮像するための防犯カメラと、前記玄関子機からの呼び出しに応答する機能に加えて前記防犯カメラの撮像映像を表示するモニタを備えた居室親機とを有するインターホンシステムであって、
前記防犯カメラ或いは前記居室親機が請求項1に記載の物体検出装置を具備し、
前記居室親機は、前記物体検出装置が前記防犯カメラの撮像映像から物体の存在を検知したら、警報発報、検知物体のズーム表示或いはパン/チルト表示処理、録画、外部照明の点灯の少なくとも何れかを実施する制御部を有することを特徴とするインターホンシステム。
A monitor that displays an image captured by the security camera in addition to a function for responding to a call from the entrance slave unit, a security camera for imaging a suspicious person, etc. An intercom system having a base unit with
The security camera or the room master unit comprises the object detection device according to claim 1,
When the object detection device detects the presence of an object from the image captured by the security camera, the living room master unit is at least one of alarming, zoom display or pan / tilt display processing of the detected object, recording, and lighting of external illumination. An intercom system comprising a control unit that implements the above.
来訪者が居住者を呼び出す機能に加えて来訪者を撮像するためのカメラを備えた玄関子機と、前記玄関子機からの呼び出しに応答する機能に加えて前記カメラの撮像映像を表示するモニタを備えた居室親機を有するインターホンシステムであって、
前記玄関子機或いは前記居室親機が請求項1に記載の物体検出装置を具備し、
前記居室親機は、前記物体検出装置が前記カメラの撮像映像から物体の存在を検知したら、警報発報、検知物体のズーム表示或いはパン/チルト表示処理、録画、外部照明の点灯の少なくとも何れかを実施する制御部を有することを特徴とするインターホンシステム。
In addition to a function for a visitor to call a resident, an entrance cordless handset equipped with a camera for imaging the visitor, and a monitor for displaying an image captured by the camera in addition to a function for responding to a call from the entrance cordless handset An intercom system having a living room base unit equipped with
The entrance child machine or the living room parent machine comprises the object detection device according to claim 1,
When the object detection device detects the presence of an object from the image captured by the camera, the living room master device is at least one of alarming, zoom display or pan / tilt display processing of the detected object, recording, and lighting of external illumination. An intercom system comprising a control unit that implements.
JP2012056086A 2012-03-13 2012-03-13 Object detector and intercom system Pending JP2013190943A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012056086A JP2013190943A (en) 2012-03-13 2012-03-13 Object detector and intercom system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012056086A JP2013190943A (en) 2012-03-13 2012-03-13 Object detector and intercom system

Publications (1)

Publication Number Publication Date
JP2013190943A true JP2013190943A (en) 2013-09-26

Family

ID=49391131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012056086A Pending JP2013190943A (en) 2012-03-13 2012-03-13 Object detector and intercom system

Country Status (1)

Country Link
JP (1) JP2013190943A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158795A (en) * 2014-02-24 2015-09-03 アイホン株式会社 Object detection device
JP2015158794A (en) * 2014-02-24 2015-09-03 アイホン株式会社 Person detection device
JP2015158796A (en) * 2014-02-24 2015-09-03 アイホン株式会社 Object detection device
JP2017045102A (en) * 2015-08-24 2017-03-02 株式会社テララコード研究所 Watch system
JP2021192305A (en) * 2017-08-29 2021-12-16 キッテン プラネット カンパニー、リミテッド. Image alignment method and device therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009181220A (en) * 2008-01-29 2009-08-13 Chube Univ Object detector
JP2009278184A (en) * 2008-05-12 2009-11-26 Aiphone Co Ltd Intercom system
JP2010177936A (en) * 2009-01-28 2010-08-12 Aiphone Co Ltd Intercom device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009181220A (en) * 2008-01-29 2009-08-13 Chube Univ Object detector
JP2009278184A (en) * 2008-05-12 2009-11-26 Aiphone Co Ltd Intercom system
JP2010177936A (en) * 2009-01-28 2010-08-12 Aiphone Co Ltd Intercom device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158795A (en) * 2014-02-24 2015-09-03 アイホン株式会社 Object detection device
JP2015158794A (en) * 2014-02-24 2015-09-03 アイホン株式会社 Person detection device
JP2015158796A (en) * 2014-02-24 2015-09-03 アイホン株式会社 Object detection device
JP2017045102A (en) * 2015-08-24 2017-03-02 株式会社テララコード研究所 Watch system
JP2021192305A (en) * 2017-08-29 2021-12-16 キッテン プラネット カンパニー、リミテッド. Image alignment method and device therefor
JP7151959B2 (en) 2017-08-29 2022-10-12 キッテン プラネット カンパニー、リミテッド. Image alignment method and apparatus

Similar Documents

Publication Publication Date Title
US8159537B2 (en) Video surveillance equipment and video surveillance system
CN108230594B (en) Method for generating alarm in video monitoring system
CN104519318B (en) Frequency image monitoring system and surveillance camera
WO2022183661A1 (en) Event detection method and apparatus, electronic device, storage medium, and program product
JP4629090B2 (en) Camera tampering detection
KR101793636B1 (en) Image processing system
KR100837406B1 (en) Portable terminal including a video surveillance apparatus and a video surveillance method, and a video surveillance system
KR20160088224A (en) Method for recognizing an object and apparatus thereof
JP5274216B2 (en) Monitoring system and monitoring method
CN106878668A (en) Mobile detection to object
JP2013190943A (en) Object detector and intercom system
CN107122743B (en) Security monitoring method and device and electronic equipment
KR101467352B1 (en) location based integrated control system
JP6336709B2 (en) Security device, security method and program
CN108230607B (en) Image fire detection method based on regional characteristic analysis
KR20190099216A (en) RGBD detection based object detection system and method
US9001207B1 (en) Apparatus and method for motion detection in video
JP5139341B2 (en) Intercom device
JP3711620B2 (en) Image recording apparatus and monitoring apparatus
JP5192701B2 (en) Human body detection device
KR20060003321A (en) The method or device for the object recognition in the security system
JP3410832B2 (en) Intrusion monitoring device and intrusion monitoring method
US20050128298A1 (en) Method for following at least one object in a scene
KR20190028016A (en) Apparatus for monitoring home, method and computer program
JP2006333146A (en) Human body detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151201