JP3491029B2 - Automatic monitoring device - Google Patents

Automatic monitoring device

Info

Publication number
JP3491029B2
JP3491029B2 JP25127395A JP25127395A JP3491029B2 JP 3491029 B2 JP3491029 B2 JP 3491029B2 JP 25127395 A JP25127395 A JP 25127395A JP 25127395 A JP25127395 A JP 25127395A JP 3491029 B2 JP3491029 B2 JP 3491029B2
Authority
JP
Japan
Prior art keywords
information
image
target
installation
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25127395A
Other languages
Japanese (ja)
Other versions
JPH0993472A (en
Inventor
利章 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP25127395A priority Critical patent/JP3491029B2/en
Publication of JPH0993472A publication Critical patent/JPH0993472A/en
Application granted granted Critical
Publication of JP3491029B2 publication Critical patent/JP3491029B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮像手段情報、設置情
報、対象情報を利用して、対象物を抽出、判定する監視
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring device for extracting and determining an object by using image pickup means information, installation information and object information.

【0002】[0002]

【従来の技術】監視分野において、人や車等の監視対象
を抽出したり、監視対象の判定、追跡、計数等の処理を
行う場合、監視カメラや赤外線カメラ、超音波センサ、
レンジファインダ等のセンサが用いられている。
2. Description of the Related Art In the field of monitoring, when a monitoring target such as a person or a vehicle is extracted, or when a process such as determination, tracking, counting of the monitoring target is performed, a monitoring camera, an infrared camera, an ultrasonic sensor,
A sensor such as a range finder is used.

【0003】監視カメラの場合を例にとって考えると、
カメラの設置情報、例えばカメラの設置された高さ、設
置された角度など(以降、これらを設置情報と呼ぶ)は、
設置される場所によって様々である。また、取り付けら
れているレンズの焦点距離、歪み、ズームレンズの倍
率、撮像面のサイズなど(以降、これらを撮像手段情報
と呼ぶ)もカメラごとに異なる。そのため、従来、監視
カメラを用いて自動監視を行う場合、カメラの設置条件
を高さ、角度、レンズについて拘束したり、設置する場
所ごとに調整する必要があり、汎用的な用途には適さな
かった。
Taking the case of a surveillance camera as an example,
The installation information of the camera, for example, the installation height of the camera, the installation angle (hereinafter referred to as installation information),
It varies depending on where it is installed. Further, the focal length of the attached lens, the distortion, the magnification of the zoom lens, the size of the image pickup surface, and the like (hereinafter, these are referred to as image pickup means information) also differ from camera to camera. Therefore, conventionally, when performing automatic monitoring using a surveillance camera, it is necessary to constrain the camera installation conditions regarding height, angle, lens, and adjust for each installation location, which is not suitable for general-purpose applications. It was

【0004】例えば、撮像手段に映っている人等の対象
物体を、その大きさや縦横比など、撮像手段より得られ
た映像情報の一部分である着目画素として抽出し、判定
しようとする場合、その対象の大きさは、撮像手段情
報、設置情報、対象物体の存在位置、対象自体の大きさ
や縦横比(以降、これらを対象情報と呼ぶ)によって異な
るものである。
For example, when a target object such as a person reflected in the image pickup means is extracted as a pixel of interest, which is a part of the image information obtained from the image pickup means, such as the size and aspect ratio of the target object, the determination is made. The size of the target varies depending on the image pickup means information, the installation information, the existing position of the target object, the size and the aspect ratio of the target itself (hereinafter, these are referred to as target information).

【0005】従って、自動監視を行うために、ある場所
に対してある対象を判定するための調整や、設置自体を
拘束することで判定を実現しても他の場所にそのまま適
応することが難しかった。
Therefore, in order to perform automatic monitoring, it is difficult to make adjustments for determining a certain object at a certain place, or even if the determination is realized by restraining the installation itself, it is possible to adapt it to another place as it is. It was

【0006】設置情報を拘束する例としては、特開昭62
−46388号公報、特開昭63−289681号公報等があるが、
これは抽出、判定する対象がカメラに映る大きさの変動
が小さくなるようにカメラの設置方法を拘束し、対象が
カメラに映る大きさの補正を施すようにしたもので、設
置の高さや角度が拘束できない場合は、対象物体を計数
することができない。また、面積の補正手段も明確に示
されてない。さらに、この方法は、設置場所ごとに抽出
面積のしきい値や高さの情報を入力する等の調整も必要
とされ、設置担当者やユーザの負担が大きい。
As an example of restricting the installation information, Japanese Patent Laid-Open No. Sho 62-62
-46388 publication, JP-A-63-289681 publication, etc.,
This is to restrict the installation method of the camera so that the fluctuation of the size of the object to be extracted and judged on the camera will be small, and the size of the object to be reflected on the camera will be corrected. If cannot be bound, the target object cannot be counted. Also, the area correction means are not explicitly shown. Furthermore, this method also requires adjustments such as inputting threshold information and height information of the extraction area for each installation location, which places a heavy burden on the person in charge of installation and the user.

【0007】[0007]

【発明が解決しようとする課題】即ち、従来技術の問題
点として、次の3点が挙げられる。 1 現状の監視システムには撮像手段情報や設置情報を
得る手段がなく、それらの情報を用いて画像処理方法を
変更する手段がない。 2 撮像手段情報、設置情報によって撮像手段で捕らえ
られた対象の大きさ、縦横比等が異なり、それぞれの場
所毎に調整を施さなければ、対象の大きさ、縦横比など
の対象の特徴を利用した計数、追跡等の画像処理精度が
得られない。 3 1、2の結果、画像処理が複雑になったり、設置、
運用に負担がかかる。
That is, as the problems of the prior art, there are the following three points. 1 The current surveillance system has no means for obtaining image pickup means information and installation information, and has no means for changing the image processing method using such information. 2 The size, aspect ratio, etc. of the object captured by the imaging means differ depending on the imaging means information and installation information, and the characteristics of the object such as the size and aspect ratio of the object are used unless adjustment is made for each location. The accuracy of image processing such as counting and tracking cannot be obtained. As a result of 3 1, 2, image processing becomes complicated, installation,
Operation is burdensome.

【0008】本発明は、上記従来技術の問題点を解決し
ようとするものであり、設置、調整及び運用の負担を増
やすことなく、精度のよい自動監視装置を提供すること
を目的とする。
The present invention is intended to solve the above-mentioned problems of the prior art, and an object thereof is to provide an accurate automatic monitoring device without increasing the burden of installation, adjustment and operation.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明の自動監視装置は、撮像手段と、前記撮像手
段により得られた映像情報から着目画像を抽出する抽出
処理部と、抽出した着目画像の判定を行う判定処理部
と、前記撮像手段自体の情報を検出または入力する撮像
手段情報部と、前記撮像手段の設置上の情報を検出また
は入力する設置情報部と、監視対象の情報を予め入力す
る対象情報部と、前記撮像手段情報部から出力される撮
像手段情報、前記設置情報部から出力される設置情報、
前記対象情報部から出力される対象情報、及び前記撮像
手段の映像情報を処理することにより得られる前記設置
報を用いて前記抽出処理部及び判定処理部に対し、処
理方法の変更のための情報を提供する処理部とを備えた
構成とするものである。
In order to achieve the above object, an automatic monitoring apparatus of the present invention comprises an image pickup means, an extraction processing section for extracting an image of interest from video information obtained by the image pickup means, and an extraction section. A determination processing unit that determines the image of interest, an image capturing unit information unit that detects or inputs information about the image capturing unit itself, an installation information unit that detects or inputs information about the installation of the image capturing unit, and a monitoring target A target information section for inputting information in advance, image pickup means information output from the image pickup section information section, installation information output from the installation information section,
Subject information output from the target information unit, and with respect to the extraction processing unit and the determination processing section by using the installation <br/> information obtained by processing the image information of the imaging unit, the processing method And a processing unit that provides information for change.

【0010】[0010]

【作用】まず、撮像手段が設置された場所ごとに画像処
理方法の調整を施す必要がないように、撮像手段の設置
情報を撮像手段や監視装置に予め設定するか、撮像手段
により得られた映像情報を処理することで得る。前者の
例としては、撮像手段の設置された高さ,角度、壁面や
床面などの情報をスイッチなどで設定する方法、伝送、
表示された情報で選択させ、撮像手段や監視装置に与え
てしまう方法、他の距離センサ,角度センサなどを用い
て得る方法が採用できる。後者の例としては、複数の撮
像手段を用いて設置情報を得る方法がある。
First, the installation information of the image pickup means is preset in the image pickup means or the monitoring device or obtained by the image pickup means so that it is not necessary to adjust the image processing method for each place where the image pickup means is installed. Obtained by processing video information. Examples of the former include a method of setting information such as height and angle at which the image pickup means is installed, a wall surface and a floor surface by a switch, transmission,
It is possible to employ a method of selecting the displayed information and giving it to the image pickup means or the monitoring device, or a method of using another distance sensor or angle sensor. An example of the latter is a method of obtaining installation information using a plurality of image pickup means.

【0011】この方法は、複数の撮像手段から得られる
それぞれの映像情報のなかから抽出、判定処理をしたい
領域上で同一直線上にない3つの対応点を抽出する。三
角測量の原理を用いてそれぞれの対応点に対して、撮像
手段との距離を得る。この3つの距離から抽出、判定処
理をしたい領域の面の推定を行い、この面の位置から撮
像手段の設置高さ,角度を算出する。
According to this method, three corresponding points which are not on the same straight line are extracted from the respective image information obtained from a plurality of image pickup means on the region for which extraction and determination processing is desired. Using the principle of triangulation, the distance from the imaging means is obtained for each corresponding point. Extraction from these three distances is performed to estimate the surface of the region for which determination processing is desired, and the installation height and angle of the imaging means are calculated from the position of this surface.

【0012】次に、撮像手段情報は、予めスイッチなど
で撮像手段に直接与えてしまう方法、撮像手段自体に検
出能力を持たせて得る方法、撮像手段に記憶部を持たせ
て予め記憶させておく方法が採用できる。例えば、監視
カメラの場合、レンズの焦点距離を得るために、レンズ
のマウント機構にレンズの種類が分かるようなスイッチ
などの接点を設けて、カメラ本体かレンズに検出させる
方法が考えられる。また、レンズの歪みの情報を得るた
めに、予めレンズの歪みを測定しておき、レンズの装置
本体に設けられた記憶部分に記憶させておく方法があ
る。
Next, the image pickup means information is given in advance by a switch or the like directly to the image pickup means, a method in which the image pickup means itself is provided with a detection capability, or a storage section is provided in the image pickup means and stored in advance. The method of putting can be adopted. For example, in the case of a surveillance camera, in order to obtain the focal length of the lens, a method of providing a contact such as a switch on the lens mount mechanism so that the type of the lens can be detected and detecting the lens from the camera body or the lens can be considered. In addition, there is a method in which the lens distortion is measured in advance and stored in a storage section provided in the apparatus body of the lens in order to obtain information on the lens distortion.

【0013】最後に、対象情報を得る方法について説明
する。対象情報とは、抽出・判定処理を行いたい抽出対
象と、その大きさ,縦横比などの特徴のことである。対
象情報を得る方法は、ユーザが装置に直接入力すること
で得る方法、装置が抽出された領域を表示し、その表示
のなかから、ユーザが選択したり、抽出された領域を判
定した後に自動的に獲得、更新する方法が考えられる。
例えば、人を抽出し、追跡、計数したい場合は、対象が
人であることと人の3次元モデルを与えておくか、ユー
ザに選択させる。もしくは、抽出領域を判定し判定結果
に基づいて自動的に獲得、更新する。この対象情報を抽
出・判定部に予め与えておき、先の設置情報、撮像手段
情報により、抽出対象の大きさや縦横比が画像に映る位
置で算出できるので、この大きさや縦横比を利用し、対
象として画像処理する候補を絞り込むことができるの
で、処理の高速化、判定精度の向上が可能になる。
Finally, a method of obtaining the target information will be described. The target information is a target to be extracted / determined and features such as its size and aspect ratio. The target information can be obtained by the user directly inputting it to the device, the device displays the extracted area, and the user can select from the display or determine the extracted area automatically. There is a method to acquire and update it.
For example, when a person is to be extracted, tracked, and counted, the object is a person and a three-dimensional model of the person is given, or the user is selected. Alternatively, the extraction area is determined and automatically acquired and updated based on the determination result. This target information is given to the extraction / judgment unit in advance, and the size and aspect ratio of the extraction target can be calculated at the position shown in the image based on the installation information and the image pickup means information described above. Since the candidates for image processing can be narrowed down as targets, the processing speed can be increased and the determination accuracy can be improved.

【0014】以上の撮像手段情報、設置情報、対象情報
を利用することで、初めて撮像手段から得られる映像情
報の一部分である着目画像の大きさや縦横の比等を算出
でき、画像処理方法の変更の自動化が実現する。
By using the above-mentioned image pickup means information, installation information, and target information, the size, aspect ratio, etc. of the image of interest, which is a part of the video information obtained from the image pickup means, can be calculated for the first time, and the image processing method can be changed. Automation is realized.

【0015】本発明においては、撮像手段情報、設置情
報、対象情報を利用し、センサの設置条件を選ばずに撮
像手段により得られた映像情報から抽出、判定対象の特
徴を得ることができ、画像処理方法の変更が可能とな
る。その結果、設置担当者の負担や運用者の負担を増大
することなく、自動監視が実現できる。
In the present invention, by utilizing the image pickup means information, the installation information, and the target information, it is possible to obtain the characteristics of the judgment target from the video information obtained by the image pickup means without selecting the sensor installation conditions. It is possible to change the image processing method. As a result, automatic monitoring can be realized without increasing the burden on the person in charge of installation and the burden on the operator.

【0016】[0016]

【実施例】以下、図面を参照して実施例を詳細に説明す
る。図1は、本発明の一実施例を示したもので、100は
監視カメラ等の撮像手段(以降、単にカメラと呼ぶ)、10
1はカメラ100により得られた映像情報から着目画像を抽
出する抽出処理部、102は抽出した着目画像の判定を行
う判定処理部、103は判定結果を出力する出力端子であ
る。また、104はカメラの情報を検出または予め入力す
る撮像手段情報部、105はカメラの設置情報を検出また
は入力する設置情報部、106は対象の情報を予め入力す
る対象情報部、107は、撮像手段情報,設置情報,対象
情報等を処理して、抽出処理部101や判定処理部102に対
し、処理方法の変更のための情報を提供する処理部であ
る。
Embodiments will be described in detail below with reference to the drawings. FIG. 1 shows an embodiment of the present invention, in which 100 is an imaging means such as a surveillance camera (hereinafter simply referred to as a camera), 10
Reference numeral 1 is an extraction processing unit that extracts a target image from video information obtained by the camera 100, 102 is a determination processing unit that determines the extracted target image, and 103 is an output terminal that outputs the determination result. Further, 104 is an image pickup means information unit that detects or inputs camera information in advance, 105 is an installation information unit that detects or inputs camera installation information, 106 is a target information unit that inputs target information in advance, and 107 is an image pickup unit. A processing unit that processes means information, installation information, target information, and the like, and provides the extraction processing unit 101 and the determination processing unit 102 with information for changing the processing method.

【0017】まず、カメラの設置情報としてのカメラの
設置高さや角度情報は、設置担当者が予め設置情報部10
5に直接入力するか、もしくは他に角度や高さを得るセ
ンサを利用してもよい。また、図1に示したように、カ
メラ100より得られた映像情報を用いて、カメラの設置
高さ,角度を算出することができる。
First, regarding installation height and angle information of the camera as the installation information of the camera, the person in charge of installation prepares the installation information section 10 in advance.
You can enter it directly into 5, or use other sensors to get the angle or height. Moreover, as shown in FIG. 1, the installation height and angle of the camera can be calculated using the image information obtained from the camera 100.

【0018】カメラ100より得られた映像情報を処理す
ることで、監視を行う廊下等の床面からのカメラの高
さ、角度を得る方法の一例として、複数のカメラを用い
るものを説明する。
As an example of a method for obtaining the height and angle of the camera from the floor surface of the corridor or the like to be monitored by processing the image information obtained from the camera 100, a method using a plurality of cameras will be described.

【0019】図3に示したように、2台のカメラ113が
互いに同じ方向を撮影するように光軸を平行にして設置
される。設置された左右のカメラはそれぞれ図4に示す
映像情報を得る。左右のカメラに映っている映像情報
は、カメラ同士が離れているために若干異なっている。
まず、映像情報の中から床面を限定するために、ユーザ
が予め床面の全体もしくは一部分を設定するか、もしく
はカメラの光軸が床面を貫くようにカメラを設置する。
それぞれの映像情報の同一の対応点を床面上で捜し出し
対応づける。左右の映像情報の視差から三角測量の原理
でカメラから対応点の距離を算出する。床面を推定する
ためには、床面が平面であることを条件に、同一直線上
にない最低3点の対応点が床面内に得られればよく、対
応点の数は多ければ多いほど床面の推定精度が高くな
る。床面が測定できれば、推定された床面の法線ベクト
ルがカメラの光軸に対してもつ角度が得られるので、カ
メラの設置された床面からの高さ,床面に対する角度が
得られる。
As shown in FIG. 3, two cameras 113 are installed with their optical axes parallel to each other so as to photograph in the same direction. The left and right cameras installed respectively obtain the image information shown in FIG. The video information displayed on the left and right cameras is slightly different because the cameras are far from each other.
First, in order to limit the floor surface from the image information, the user sets the whole or a part of the floor surface in advance, or installs the camera so that the optical axis of the camera penetrates the floor surface.
The same corresponding points of each image information are searched for on the floor and associated. The distance from the camera to the corresponding point is calculated from the parallax of the left and right image information by the principle of triangulation. In order to estimate the floor surface, it is sufficient if at least three corresponding points that are not on the same straight line are obtained within the floor surface, provided that the floor surface is a flat surface. The greater the number of corresponding points, the greater the number of corresponding points. The estimation accuracy of the floor surface becomes high. If the floor surface can be measured, the angle that the estimated normal vector of the floor surface has with respect to the optical axis of the camera can be obtained, so the height from the floor surface where the camera is installed and the angle with respect to the floor surface can be obtained.

【0020】なお、ここでは、説明を簡単にするために
光軸を平行にしたが、平行でなくとも構わない。また、
床面が傾斜していても算出可能である。この場合、カメ
ラに設置角度センサがあれば床面の傾斜角度も算出でき
る。
Although the optical axes are parallel to each other for simplification of description, they may not be parallel to each other. Also,
It can be calculated even if the floor surface is inclined. In this case, if the camera has an installation angle sensor, the inclination angle of the floor surface can also be calculated.

【0021】このように、カメラの設置情報(ここでは
床面についてのみ説明した)を得ることで、抽出された
対象がその存在位置で大きさが変動することが予め予想
できるので、抽出された対象の大きさの変化を利用し
て、大きさによる対象の除去しきい値などを変更するこ
とができる。図4の床面を推定することで、大きさによ
る対象の除去しきい値などを対象Aの存在する位置では
大きく、対象Bの存在する位置では小さくすることが可
能になり、従来、画面均一に決めていた大きさ等のしき
い値を対象の位置、設置されたカメラの設置情報に合わ
せて設定することができるようになる。
As described above, by obtaining the installation information of the camera (only the floor surface is explained here), it is possible to predict in advance that the size of the extracted object will change depending on its existing position. The change in the size of the target can be used to change the removal threshold of the target according to the size. By estimating the floor surface in FIG. 4, it becomes possible to increase the removal threshold value of the target depending on the size in the position where the target A exists and decrease it in the position where the target B exists. It becomes possible to set the threshold value such as the size determined in accordance with the target position and the installation information of the installed camera.

【0022】次に、カメラの情報(撮像手段情報)とし
て、カメラのレンズの焦点距離、ズームレンズの倍率、
レンズの歪みを得る方法を説明する。図2において、ま
ず、レンズ108のマウント機構に機械的なスイッチ等の
接点112を設け、レンズの種類を区別できるようにす
る。レンズの焦点距離はこの方法で得ることができる。
また、ズームレンズの倍率は、レンズのズームの倍率を
変更する機構にその倍率を得る手段を設けることで可能
である。また、レンズかカメラ本体、監視装置などに記
憶部109を持たせ、先のスイッチの状態から選択できる
ようにしてもよいし、記憶部109に予め記憶させておい
ても構わない。レンズの歪み、撮像面110のサイズはこ
の方法で得ることができる。
Next, as the camera information (imaging means information), the focal length of the camera lens, the zoom lens magnification,
A method for obtaining lens distortion will be described. In FIG. 2, first, the mount mechanism of the lens 108 is provided with a contact 112 such as a mechanical switch so that the lens type can be distinguished. The focal length of the lens can be obtained in this way.
The magnification of the zoom lens can be obtained by providing a mechanism for changing the zoom magnification of the lens with a unit for obtaining the magnification. Further, the storage unit 109 may be provided in the lens, the camera body, the monitoring device, or the like so that the switch can be selected from the state of the previous switch, or it may be stored in the storage unit 109 in advance. The distortion of the lens and the size of the imaging surface 110 can be obtained by this method.

【0023】ここでは、カメラの情報として、カメラの
レンズの焦点距離、ズームレンズの倍率、レンズの歪
み、撮像面のサイズについて説明したが、カメラが取り
付けられている回転台、ハウジングのワイパーのオン/
オフの状態なども同様の方法で得ることができること
は、容易に推定できる。また、カメラの情報を得ること
で、図5に示したようにレンズの樽型の歪みなどの補正
が可能になり、抽出された領域の周辺形状の補正が可能
となり、周辺形状による抽出や計数、追跡の精度の向上
が可能となる。
Although the focal length of the lens of the camera, the magnification of the zoom lens, the distortion of the lens, and the size of the image pickup surface have been described as the information of the camera, the turntable to which the camera is attached and the wiper of the housing are turned on. /
It can be easily estimated that the off state and the like can be obtained by the same method. Further, by obtaining the information from the camera, it becomes possible to correct the barrel distortion of the lens as shown in FIG. 5, and it becomes possible to correct the peripheral shape of the extracted region, and the extraction and counting by the peripheral shape can be performed. The tracking accuracy can be improved.

【0024】次に抽出・判定の対象となる対象情報を得
る方法を説明する。ここで、抽出・判定の対象となる対
象情報というのは、抽出・判定対象が人であるとか、
車、バイクであるなど、抽出・判定しようとしている対
象自体の情報である。これらを自動監視装置の処理に取
り込む目的は、抽出・判定する対象情報、設置情報、カ
メラの情報によって、カメラの撮像面に映った対象の大
きさや縦横比、移動スピード等の対象固有の特徴が異な
るため、その特徴の差異を利用して対象の判断を行うた
めである。これらの情報を取り込むことで、実際に対象
情報を得る方法としては、装置にスイッチを設けてユー
ザに入力させるか、ディスプレイに表示し、ユーザに選
択させても構わない。また、予め対象情報を記憶させて
おいてユーザに選択させてもよい。
Next, a method for obtaining target information to be extracted / determined will be described. Here, the target information to be extracted / determined means that the extraction / determination target is a person,
This is information on the object itself that is being extracted / determined, such as a car or a motorcycle. The purpose of incorporating these in the processing of the automatic monitoring device is to determine the characteristics of the target such as the size and aspect ratio of the target reflected on the image pickup surface of the camera, the moving speed, etc., depending on the target information to be extracted / determined, the installation information, and the camera information. This is because they are different, and the object is judged by utilizing the difference in the characteristics. As a method of actually obtaining the target information by taking in these pieces of information, a switch may be provided on the device to allow the user to input the information, or the user may select it by displaying it on the display. Further, the target information may be stored in advance and the user may select it.

【0025】例えば、車である場合、その大きさが人の
大きさと大きく異なることを利用することで、人が頻繁
に行き来するような所でも、車を判定しやすくすること
ができる。ただし、ここで言う大きさはカメラに映った
対象物の撮像面上での大きさを用いてもよいし、先のカ
メラの情報、設置情報を用いて算出した実際の対象の大
きさでもよい。また、抽出・判定しようとしている対象
の大きさだけでなく、複数のカメラで対象の3次元情報
が得られた場合、その体積や、対象の部分的な3次元情
報から推定、区別することが可能になる。ここでいう体
積や対象の部分的な3次元情報についてもカメラの撮像
面上の大きさを用いてもよいし、先のカメラの情報、設
置情報を用いて算出した実際の対象の体積や対象の部分
的な3次元情報でもよい。
For example, in the case of a car, the fact that the size of the car is significantly different from the size of a person can be used to make it easier to determine the car even in a place where a person frequently comes and goes. However, the size referred to here may be the size of the object reflected on the camera on the imaging surface, or may be the actual size of the object calculated using the information of the camera and the installation information. . In addition, not only the size of the object to be extracted / determined but also when the three-dimensional information of the object is obtained by a plurality of cameras, it is possible to estimate and distinguish from the volume and partial three-dimensional information of the object. It will be possible. The volume on the imaging surface of the camera may be used for the volume and the partial three-dimensional information of the target, or the actual volume or target of the target calculated using the information of the camera and the installation information. Partial three-dimensional information may be used.

【0026】以上のようにして得られたカメラの情報、
カメラの設置情報、対象情報を装置に伝送、表示し、設
定を容易にすることで、設置、運用時の負担の軽減が実
現できる。
The camera information obtained as described above,
By transmitting and displaying the installation information and target information of the camera on the device and facilitating the setting, the burden on the installation and operation can be reduced.

【0027】次に、カメラの情報、カメラの設置情報、
対象情報を用いて対象物体の実際の大きさを算出し、車
と人を区別して人を追跡・計数する方法を監視カメラを
使用した場合を例に説明する。
Next, camera information, camera installation information,
A method of calculating the actual size of the target object using the target information and tracking / counting the person by distinguishing between the car and the person will be described by using a surveillance camera as an example.

【0028】カメラの設置情報部105からカメラの設置
角度、設置高さなど床面との関係を得、また、撮像手段
情報部104からカメラの焦点距離、歪みを得る。さら
に、対象情報部106から車と人の大きさを得る。これら
の情報を全て得ることで、カメラの撮像面に映った対象
物体の大きさから実際の対象物体の大きさが得られ、人
と車の区別の精度の向上が可能となる。すなわち、カメ
ラの設置角度、設置高さなど床面(もしくは道路面)との
関係とカメラの焦点距離、歪みから、カメラの撮像面の
画像の1画素が実際にどの程度の大きさを持つか計算が
可能となり、その結果、その対象の大きさ、縦横比など
が分かる。また、これらをしきい値にして抽出された対
象の判定が可能となる。
From the camera installation information section 105, the relationship with the floor such as the installation angle and installation height of the camera is obtained, and from the image pickup means information section 104, the focal length and distortion of the camera are obtained. Further, the sizes of the car and the person are obtained from the target information unit 106. By obtaining all of this information, the actual size of the target object can be obtained from the size of the target object reflected on the imaging surface of the camera, and the accuracy of distinguishing between a person and a vehicle can be improved. That is, from the relationship between the installation angle and installation height of the camera, such as the floor surface (or road surface), the focal length of the camera, and the distortion, how large is one pixel of the image on the imaging surface of the camera actually? Calculation becomes possible, and as a result, the size, aspect ratio, etc. of the target can be known. Further, it becomes possible to judge the extracted target by using these as threshold values.

【0029】いま、説明を簡単にするため、図6に示し
たように、2台のカメラが距離lで道路面に垂直になる
ように設置されたとする。カメラの光軸がそれぞれ床面
に垂直に設置されているため、道路面の法線ベクトルは
カメラの光軸と平行になる。従って、カメラの光軸は道
路面に垂直に貫いている。また、この2台のカメラの撮
像面は、それぞれ同一平面上に存在し、光軸に対する角
度差もないように設置されていることとする。
For simplification of description, it is assumed that two cameras are installed at a distance l and perpendicular to the road surface as shown in FIG. Since the optical axes of the cameras are installed perpendicular to the floor, the normal vector of the road surface is parallel to the optical axis of the camera. Therefore, the optical axis of the camera penetrates perpendicularly to the road surface. Further, it is assumed that the image pickup surfaces of the two cameras are on the same plane and are installed so that there is no difference in angle with respect to the optical axis.

【0030】2台のカメラの映像は図7に示したように
なる。2台のカメラの対応する道路面上の対応点2点を
水平垂直のそれぞれの方向で見つけ出す。例えば、水平
方向に2点a、bが存在するとして、a-a′、b-b′
が同一であることを判定すればよい。a-a′、b-b′
が光軸を通る水平の同一ライン上に存在するとすれば、
その存在位置は、図7に示すようになる。このカメラの
水平方向の画角が与えられれば、それぞれの点の存在位
置を角度(θr、θl)で表現できる。図8に示すように、
b-b′点が同一であると判断した結果、b点の距離db
は、(数1)で求められる。
The images of the two cameras are as shown in FIG. Two corresponding points on the road surface corresponding to the two cameras are found in horizontal and vertical directions. For example, if there are two points a and b in the horizontal direction, a-a 'and bb'
May be determined to be the same. a-a ', bb'
If exists on the same horizontal line passing through the optical axis,
Its location is as shown in FIG. Given the horizontal angle of view of this camera, the existing position of each point can be represented by an angle (θ r , θ l ). As shown in FIG.
As a result of judging that the b-b 'points are the same, the distance d b between the b points
Is calculated by (Equation 1).

【0031】[0031]

【数1】 [Equation 1]

【0032】同様にa点、c点についての距離もそれぞ
れ求めることができる。
Similarly, the distances at the points a and c can be obtained respectively.

【0033】他の特徴点に対しても同じように行えばよ
い。特に同一の水平直線上に対応点が存在しなくても、
左右の画像で対応点が同一であることが判定でき、か
つ、画角内の道路面上に同一直線上に存在しないその対
応点が3点以上得られれば、道路面を定義できるので、
定義された道路面からカメラの設置高さを得ることがで
きる。ここで、カメラの設置角度については、道路面に
対して90°に拘束しているが、この拘束がない場合でも
道路面の対応点から算出可能である。
The same may be done for other feature points. Even if there are no corresponding points on the same horizontal line,
If it is possible to determine that the corresponding points are the same in the left and right images, and if three or more corresponding points that do not exist on the same straight line on the road surface within the angle of view are obtained, the road surface can be defined.
The installation height of the camera can be obtained from the defined road surface. Here, the installation angle of the camera is constrained to 90 ° with respect to the road surface, but even if there is no such constraint, it can be calculated from the corresponding points on the road surface.

【0034】次に、カメラの撮像面のサイズ、焦点距
離、歪みを、先に示した方法で取得し、カメラの設置さ
れた高さを用いて、カメラの撮像面に映った抽出対象の
面積から実際の面積を求めるための補正方法を示す。こ
こで言う補正とは、一人の人が撮像面上に映っている大
きさがその人の存在する位置で変化し、面積を用いた計
数・追跡の精度が落ちるので、画角の中で一人の人が同
一の面積で得られるように1画素の面積を変換し、さら
に実際の面積を求めることを意味する。対象(人)が道路
面上を歩行することを条件に、面積を補正することで、
カメラの撮像面に映った対象の像(人)から、人数を計数
・追跡することが可能となる。
Next, the size, focal length, and distortion of the image pickup surface of the camera are obtained by the method described above, and the height of the camera installed is used to extract the area of the extraction target reflected on the image pickup surface of the camera. A correction method for obtaining the actual area from is shown. The correction here means that the size of a person on the imaging surface changes depending on the position of that person, and the accuracy of counting and tracking using the area decreases, so It means that the area of one pixel is converted so that the same person can obtain the same area, and then the actual area is obtained. By correcting the area on condition that the target (person) walks on the road surface,
It is possible to count and track the number of people from the image (people) of the target reflected on the imaging surface of the camera.

【0035】図9に示すように、画像(x,y)上で、面
積の補正を行う画素を(xg,yg)とし、求める補正係数
をks(xg,yg)とする。また、道路面に垂直に貫くよ
うに設置されたカメラの光軸と、補正する画素の角度を
(θx,θy)とする。カメラの画角を(θxm,θym)とし、
カメラの設置された高さをh、対象の高さをht、対象
が撮像面に映る大きさをSt、カメラの有効画角をxm
mとする。また簡単のため、抽出される対象として人
の標準モデルを上面積a、正面の面積b、側面の面積c
の直方体と定義し、補正面積を図9のA面についてのみ
算出する。B、C、D面については、補正関数が相似で
あるので、A面の補正量を反転して得られる。St
x,θy)は、
As shown in FIG. 9, on the image (x, y), the pixel whose area is to be corrected is (x g , y g ), and the correction coefficient to be obtained is k s (x g , y g ). . In addition, the angle of the pixel to be corrected and the optical axis of the camera installed so as to penetrate perpendicularly to the road surface
Let (θx, θy). The angle of view of the camera is (θx m , θy m ),
The installation height of the camera h, and the height of the target h t, the size of the subject projected on the imaging surface S t, the effective field angle of the camera x m,
Let y m . Also, for simplicity, a standard human model is selected as an object to be extracted.
Of rectangular parallelepiped and the correction area is calculated only for the A surface of FIG. Since the correction functions are similar for the B, C, and D planes, they can be obtained by inverting the correction amount of the A plane. S t
x, θy) is

【0036】[0036]

【数2】St(θx,θy)=a・cosθy・cosθx+b・sin
θy+c・sinθx St(xg,yg)は、
[Formula 2] S t (θx, θy) = a · cos θy · cos θx + b · sin
θy + c · sinθx S t ( x g, y g) is,

【0037】[0037]

【数3】 [Equation 3]

【0038】ゆえにks(xg,yg)は、Therefore, k s (x g , y g ) is

【0039】[0039]

【数4】 [Equation 4]

【0040】また、カメラの焦点がf、カメラの取り付
けられている高さがh、撮像面のサイズ(有効エリア)を
c、yc、処理画素数をxpix、ypixとすると、xm
mは、
If the focus of the camera is f, the height at which the camera is attached is h, the size (effective area) of the image pickup surface is x c , y c , and the number of processed pixels is x pix , y pix , then x m ,
y m is

【0041】[0041]

【数5】 [Equation 5]

【0042】であり、画像の中心における1画素のもつ
大きさxg、ygは、
And the size x g , y g of one pixel at the center of the image is

【0043】[0043]

【数6】 [Equation 6]

【0044】である。よって、補正係数ks(xg,yg)
は、撮像面のサイズ(有効エリア)をxc、yc、処理画素
数xpix、ypix、カメラの焦点距離f、カメラの設置さ
れた高さh、対象の高さht、対象の3次元形状(ここで
は説明を簡単にするため直方体に近似している)が得ら
れれば求めることができる。カメラの歪みについては、
処理画素ごとに歪みの値を持ち、その逆数を補正量とし
て各画素に掛ければよい。
It is Therefore, the correction coefficient k s (x g , y g )
Is the size (effective area) of the imaging surface, x c , y c , the number of processed pixels x pix , y pix , the focal length f of the camera, the height h at which the camera is installed, the target height h t , and the target height h t . It can be obtained if a three-dimensional shape (here, it is approximated to a rectangular parallelepiped for simplification of description) is obtained. For camera distortion,
Each processing pixel has a distortion value, and the reciprocal thereof may be multiplied as a correction amount for each pixel.

【0045】次に、補正された面積を用いて、対象(人)
計数、追跡する手段を示す。面積の補正を掛けること
で、人が通過するような場合、カメラの中心から離れる
に従って、先の直方体に近似された上面のaだけでな
く、b、c面の影響を考慮し、一人の面積の標準値を用
いて、一人の通過を補正された面積から一人として計数
することができる。また、連続して抽出された領域の面
積を、追跡のための判定の1つの要素として利用するこ
とが可能となる。さらに、人がどの位置にいても人の大
きさが判定可能であるので、面積のしきい値を画面均一
に用いることが可能となる。要するに、今まではどんな
カメラの設置環境においても、面積のしきい値は画面均
一に設定していために、対象の存在する位置によって、
対象が写る大きさが変動し、小さく写っている場合に
は、除去されたり、人数計数結果が少なめに出てしまう
ことがあった。この補正係数を導入することで、より設
置環境に適応した画像処理方法が実現できる。
Next, using the corrected area, the target (person) is
The means for counting and tracking is shown. When a person passes through by correcting the area, the area of one person is considered as the distance from the center of the camera increases, considering not only the upper surface a approximated to the rectangular parallelepiped but also the b and c surfaces. Using the standard value of, the passage of one person can be counted as one person from the corrected area. In addition, the area of the continuously extracted region can be used as one element of the determination for tracking. Further, since the size of the person can be determined regardless of the position of the person, the threshold value of the area can be used uniformly on the screen. In short, in any camera installation environment up to now, the threshold of the area is set uniformly on the screen, so depending on the position where the target exists,
When the size of the image of the target fluctuates and is small, it may be removed or the result of counting the number of people may be small. By introducing this correction coefficient, an image processing method more suitable for the installation environment can be realized.

【0046】ここでは人を直方体に近似したが、直方体
である必要はなく、予め3次元の情報として取り込ん
で、補正テーブルを作成してしまえばよい。また、設置
場所の情報、カメラの情報を処理に取り込んでいるの
で、どの設置環境、どのカメラを用いてもよいことは容
易に推定できる。また、この補正テーブルはメモリを必
要とするので、画素ごとに持っても間引きして持っても
よい。間引きして使う場合は、補間して算出してもよ
い。さらに、補正面積を求める際は、特に画素ごとにも
つ必要もなく、抽出対象の重心や頭等の特徴点を抽出し
て、その位置、縦横比で算出しても構わない。加えて設
置情報、カメラの情報、対象情報は毎回取り込む必要が
なく、設置されたとき、画角の変更、レンズの変更時に
取り込めばよい。従って、補正テーブルもこれらの時点
を検出する手段を持って再算出すればよい。
Here, the person is approximated to a rectangular parallelepiped, but it is not necessary that the person be a rectangular parallelepiped, and the correction table may be prepared by previously capturing it as three-dimensional information. Further, since the information on the installation location and the information on the camera are incorporated in the processing, it can be easily estimated that any installation environment and any camera may be used. Since this correction table requires a memory, it may be held for each pixel or may be thinned out. When thinning out and using, you may calculate by interpolating. Further, when obtaining the corrected area, it is not necessary to have it for each pixel in particular, and characteristic points such as the center of gravity or the head of the extraction target may be extracted and calculated by the position and the aspect ratio. In addition, the installation information, the camera information, and the target information do not have to be fetched each time, and may be fetched when the camera is installed, the angle of view is changed, and the lens is changed. Therefore, the correction table may be recalculated with a means for detecting these time points.

【0047】ここでは、面積について算出したが、抽出
対象物体の縦横奥行きの比率など対象物体の特徴を用い
ても構わない。また、説明の簡単のため2台のカメラの
光軸がそれぞれ道路面に垂直になるように設置された状
況で説明したが、カメラが道路面に対して垂直でない場
合も、道路面の法線ベクトルに対するカメラの光軸の角
度を用いて、画像に写った抽出対象の大きさを補正する
ことが可能である。また、輝度情報を用いた場合を想定
して説明をしたが、距離情報を用いて抽出された対象に
この方法を適用することも可能である。距離情報を用い
た場合は、対象が道路面に接しているかどうかの判定が
可能であるので、この方法を活かすことができる。
Although the area is calculated here, the characteristics of the target object such as the ratio of the vertical and horizontal depths of the extraction target object may be used. Also, for the sake of simplicity of explanation, the explanation has been given in the situation where the optical axes of the two cameras are installed so as to be respectively perpendicular to the road surface, but even when the cameras are not perpendicular to the road surface, the normal line of the road surface By using the angle of the optical axis of the camera with respect to the vector, it is possible to correct the size of the extraction target reflected in the image. Further, although the description has been made assuming that the luminance information is used, this method can be applied to an object extracted using the distance information. When the distance information is used, it is possible to determine whether or not the object is in contact with the road surface, and this method can be utilized.

【0048】[0048]

【発明の効果】以上説明したように本発明によれば、撮
像手段情報、設置情報、対象情報を利用し、センサの設
置条件を選ばずに撮像手段により得られた映像情報から
抽出、判定対象の特徴を得ることができ、画像処理方法
の変更が可能となる。その結果、設置担当者の負担や運
用者の負担を増大することなく、自動監視を実現するこ
とができるという効果を奏する。
As described above, according to the present invention, the object to be extracted and judged from the image information obtained by the image pickup means by utilizing the image pickup means information, the installation information, and the target information without selecting the sensor installation conditions. It is possible to obtain the characteristics of and to change the image processing method. As a result, there is an effect that automatic monitoring can be realized without increasing the burden on the installation staff and the burden on the operator.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】カメラの情報を得る方法例を示す図である。FIG. 2 is a diagram illustrating an example of a method of obtaining camera information.

【図3】カメラの設置高さを画像を処理することで実現
するための設置図である。
FIG. 3 is an installation diagram for realizing an installation height of a camera by processing an image.

【図4】2台のカメラの視差から床面を推定する方法の
説明図である。
FIG. 4 is an explanatory diagram of a method of estimating a floor surface from the parallax of two cameras.

【図5】カメラの樽型歪みを補正する方法の説明図であ
る。
FIG. 5 is an explanatory diagram of a method for correcting barrel distortion of a camera.

【図6】2台のカメラで道路面からカメラが設置された
高さを得る方法を示す図である。
FIG. 6 is a diagram showing a method of obtaining the height at which the cameras are installed from the road surface with two cameras.

【図7】図6の2台のカメラが道路面を写した画像を示
す図である。
7 is a diagram showing an image in which a road surface is captured by the two cameras in FIG.

【図8】2台のカメラで道路面からカメラが設置された
高さを得る方法の説明図である。
FIG. 8 is an explanatory diagram of a method of obtaining the height at which the cameras are installed from the road surface with two cameras.

【図9】面積の補正方法を示す図である。FIG. 9 is a diagram showing a method of correcting an area.

【符号の説明】[Explanation of symbols]

100…撮像手段(カメラ)、 101…抽出処理部、 102…
判定処理部、 103…出力端子、 104…撮像手段情報
部、 105…設置情報部、 106…対象情報部、 107…
処理部。
100 ... Imaging means (camera), 101 ... Extraction processing unit, 102 ...
Judgment processing unit, 103 ... Output terminal, 104 ... Imaging means information unit, 105 ... Installation information unit, 106 ... Target information unit, 107 ...
Processing unit.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 5/225 G06T 1/00 G06T 7/00 H04N 7/18 ─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) H04N 5/225 G06T 1/00 G06T 7/00 H04N 7/18

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮像手段と、前記撮像手段により得られ
た映像情報から着目画像を抽出する抽出処理部と、抽出
した着目画像の判定を行う判定処理部と、前記撮像手段
自体の情報を検出または入力する撮像手段情報部と、前
記撮像手段の設置上の情報を検出または入力する設置情
報部と、監視対象の情報を予め入力する対象情報部と、
前記撮像手段情報部から出力される撮像手段情報、前記
設置情報部から出力される設置情報、前記対象情報部か
ら出力される対象情報、及び前記撮像手段の映像情報を
処理することにより得られる前記設置情報を用いて前記
抽出処理部及び判定処理部に対し、処理方法の変更のた
めの情報を提供する処理部とを備えたことを特徴とする
自動監視装置。
1. An image pickup means, an extraction processing section for extracting a target image from video information obtained by the image pickup means, a determination processing section for determining the extracted target image, and information on the image pickup means itself. Alternatively, an image pickup means information section for inputting, an installation information section for detecting or inputting information on installation of the image pickup means, and a target information section for previously inputting information of a monitoring target,
The image pickup means information output from the image pickup means information section, the installation information output from the installation information section, the target information output from the target information section, and the image information obtained by processing the image information of the image pickup section with respect to the extraction processing unit and the determination processing section by using the installation information, automatic monitoring apparatus characterized by comprising a processing unit for providing information for changing the processing method.
【請求項2】 抽出処理部は、撮像手段により得られた
映像情報の一部分である着目画像を抽出し、撮像手段情
報、設置情報、対象情報を用いて、前記着目画像を前記
映像情報の任意の位置に移動した際の補正画像から算出
された着目画像の補正後映像を算出することを特徴とす
る請求項1記載の自動監視装置。
2. The extraction processing unit extracts an image of interest, which is a part of the video information obtained by the image pickup unit, and uses the image pickup unit information, the installation information, and the target information to set the image of interest as an arbitrary image of the image information. Calculated from the corrected image when moving to the position
2. The automatic monitoring device according to claim 1, wherein a corrected image of the focused image is calculated.
【請求項3】 抽出処理部は、撮像手段より得られた第
1の映像情報の一部分である着目画像を抽出し、撮像手
段情報、設置情報、対象情報を用いて、画角を変更した
第2の映像情報を生成し、かつ、前記着目画像を前記第
2の映像情報の任意の位置に移動した際の補正画像から
算出された着目画像の補正後映像を算出することを特徴
とする請求項1記載の自動監視装置。
3. The extraction processing unit extracts an image of interest, which is a part of the first video information obtained by the imaging means, and changes the angle of view by using the imaging means information, the installation information, and the target information. 2 from the corrected image when the image information is generated and the image of interest is moved to an arbitrary position of the second image information.
The automatic monitoring device according to claim 1, wherein a corrected image of the calculated target image is calculated.
【請求項4】 抽出処理部は、撮像手段より得られた映
像情報の一部分である着目画像を予め設定された前記映
像情報上の位置に置換した際の補正係数を撮像手段情
報、設置情報、対象情報と前記映像情報から算出するこ
とを特徴とする請求項2または請求項3記載の自動監視
装置。
4. The extraction processing unit, when the target image which is a part of the video information obtained by the imaging unit is replaced with a preset position on the video information, the correction coefficient , the imaging unit information, the installation information, The automatic monitoring device according to claim 2, wherein the automatic monitoring device is calculated from the target information and the video information.
【請求項5】 抽出処理部は、映像情報の一部分である
着目画像の法線ベクトルと撮像手段の光軸とが平行とな
る前記映像情報上の基準点を補正係数の基準点とし、か
つ、前記基準点を中心とする4分割する映像情報の1分
割画像の補正係数補正係数テーブルとすることを特徴
とする請求項4記載の自動監視装置。
5. The extraction processing unit sets a reference point on the image information, at which a normal vector of a target image, which is a part of the image information, and an optical axis of the image pickup means are parallel to each other as a reference point of the correction coefficient , and 5. The automatic monitoring device according to claim 4, wherein the correction coefficient of the one-divided image of the video information divided into four around the reference point is used as a correction coefficient table.
JP25127395A 1995-09-28 1995-09-28 Automatic monitoring device Expired - Fee Related JP3491029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25127395A JP3491029B2 (en) 1995-09-28 1995-09-28 Automatic monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25127395A JP3491029B2 (en) 1995-09-28 1995-09-28 Automatic monitoring device

Publications (2)

Publication Number Publication Date
JPH0993472A JPH0993472A (en) 1997-04-04
JP3491029B2 true JP3491029B2 (en) 2004-01-26

Family

ID=17220349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25127395A Expired - Fee Related JP3491029B2 (en) 1995-09-28 1995-09-28 Automatic monitoring device

Country Status (1)

Country Link
JP (1) JP3491029B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074444A (en) 1999-09-08 2001-03-23 Fujitsu Ltd Automatic extraction method for installation attitude parameter of image pickup device and monitoring system using the image pickup device
JP4672037B2 (en) * 2002-11-12 2011-04-20 株式会社バンダイナムコゲームス Method for producing stereoscopic printed matter, stereoscopic printed matter
US7680322B2 (en) 2002-11-12 2010-03-16 Namco Bandai Games Inc. Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing
JP4475060B2 (en) * 2004-08-24 2010-06-09 パナソニック電工株式会社 Human detection device
JP4122384B2 (en) 2005-01-31 2008-07-23 オプテックス株式会社 Traffic monitoring device
JP4589261B2 (en) * 2006-03-31 2010-12-01 パナソニック株式会社 Surveillance camera device
JP2008099016A (en) * 2006-10-12 2008-04-24 Matsushita Electric Works Ltd Human body detecting device
JP2009253571A (en) * 2008-04-04 2009-10-29 Clarion Co Ltd Monitor video image generation device for vehicle
JP5058127B2 (en) * 2008-10-31 2012-10-24 三菱電機株式会社 Monitoring image processing device
US9390334B2 (en) 2011-03-31 2016-07-12 Panasonic Intellectual Property Management Co., Ltd. Number of persons measurement device

Also Published As

Publication number Publication date
JPH0993472A (en) 1997-04-04

Similar Documents

Publication Publication Date Title
KR102111935B1 (en) Display control apparatus, display control method, and program
US6370262B1 (en) Information processing apparatus and remote apparatus for object, using distance measuring apparatus
US20130038723A1 (en) Image acquisition apparatus and image processing apparatus
JP4780455B2 (en) Video surveillance apparatus and method
JP3491029B2 (en) Automatic monitoring device
US20040184656A1 (en) Method for measuring object based on image and photographing apparatus
JP5183152B2 (en) Image processing device
JP4193342B2 (en) 3D data generator
JP2800530B2 (en) Inter-vehicle distance detection device
JPH1144533A (en) Preceding vehicle detector
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
JPH1021401A (en) Three-dimensional information processor
JP2004354256A (en) Calibration slippage detector, and stereo camera and stereo camera system equipped with the detector
KR102065337B1 (en) Apparatus and method for measuring movement information of an object using a cross-ratio
JP4752319B2 (en) Image recognition apparatus and image recognition method
JP3631541B2 (en) Object tracking method using stereo images
US20090244313A1 (en) Compound eye photographing apparatus, control method therefor, and program
JPH09322153A (en) Automatic monitor
JP3388833B2 (en) Measuring device for moving objects
JP7040627B2 (en) Calculator, information processing method and program
JPH1096607A (en) Object detector and plane estimation method
JPH11223516A (en) Three dimensional image pickup device
JP4812099B2 (en) Camera position detection method
CN110726407A (en) Positioning monitoring method and device
JP2005157635A (en) Congestion level measuring device, facility control system and congestion level measuring method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081114

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101114

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees