JP2008176768A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2008176768A JP2008176768A JP2007284719A JP2007284719A JP2008176768A JP 2008176768 A JP2008176768 A JP 2008176768A JP 2007284719 A JP2007284719 A JP 2007284719A JP 2007284719 A JP2007284719 A JP 2007284719A JP 2008176768 A JP2008176768 A JP 2008176768A
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinate system
- parameter
- processing apparatus
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 105
- 238000012545 processing Methods 0.000 claims abstract description 79
- 238000006243 chemical reaction Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims description 54
- 238000001514 detection method Methods 0.000 claims description 43
- 230000008569 process Effects 0.000 claims description 25
- 238000009434 installation Methods 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 description 39
- 239000013598 vector Substances 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置などに関し、特に座標変換を利用することで画像処理に必要な設定を視覚的に容易化した画像処理装置などに関する。 The present invention relates to an image processing apparatus and the like, and more particularly to an image processing apparatus and the like that facilitates visually setting necessary for image processing by using coordinate transformation.
例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide Semiconductor)などといった固体撮像素子を搭載した撮像装置によって監視領域を撮像した画像(入力画像)を、画像処理部によって処理し、入力画像に写りこんだ所定の物体を自動的に検出するような監視装置が、従来広く用いられている。このような入力画像中の所定の物体を自動的に検出する方法の一例として、差分法(背景差分法)と呼ばれる方法が使用されている。 For example, an image (input image) obtained by imaging a monitoring area by an imaging device equipped with a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS) is processed by an image processing unit and converted into an input image. Conventionally, a monitoring device that automatically detects a predetermined object that has been reflected has been widely used. As an example of a method for automatically detecting a predetermined object in such an input image, a method called a difference method (background difference method) is used.
背景差分法による物体検出方法では、撮像装置等から得られる入力画像と検出すべき物体が映っていないときに撮像した背景画像(基準画像)との輝度(或いは、画素値)の差分を算出し、当該差分画像を所定の閾値で2値化した画像中で所定の大きさに達した領域(変化領域)に、検出すべき物体が存在するあるいはその可能性があるとして監視を行う。 In the object detection method based on the background difference method, a difference in luminance (or pixel value) between an input image obtained from an imaging device or the like and a background image (reference image) captured when an object to be detected is not reflected is calculated. Monitoring is performed on the assumption that an object to be detected exists or may exist in an area (change area) that reaches a predetermined size in an image obtained by binarizing the difference image with a predetermined threshold.
図7は、背景差分法の模式図である。
入力画像51には人型の物体の画像52が含まれている。また、背景画像53が予め用意されている。差分器54により、入力画像51と背景画像53との間で画素毎の差分を計算し、その結果である差分画像55を算出する。ここで、入力画像51に映る人型の物体の画像52は、差分画像55中で、差分が生じた画素群56として検出される。
FIG. 7 is a schematic diagram of the background subtraction method.
The
次に、二値化器57により、差分画像55の各画素の値と所定のしきい値(例えば20、なお1画素8ビットを仮定)とを比較し、しきい値以上となる画素を“255”とする一方、しきい値未満となる画素を“0”とする変換を行う。これにより、二値化画像58を得る。ここで、差分画像55において差分が生じた領域56は、二値化された画素群59として検出される。なお、図7では理想的な人型の画素群として検出されているが、本来1つの物体が複数の画素群になったり、複数の物体が1つの画素群になることもある。
Next, the
更に、(前回検出されたかたまりの位置や大きさなどを参考にして)二値化された画素59のかたまりを適切にグルーピングし、前回と同じ物体に同じ番号を付ける、グルーピングやラベリングなどの処理を経て、物体検出が達成される。検出結果は、物体が領域60のように特定の幅と高さを持った矩形の枠でマークされた画像として得られたり、あるいは物体の位置や大きさ(高さ、幅)などを表す数値として得られる。
なお、背景差分のほか、フレーム間差分法やオプティカルフロー法など、各種の検出方法が知られる。
Furthermore, processing such as grouping and labeling is performed by appropriately grouping the
In addition to the background difference, various detection methods such as an inter-frame difference method and an optical flow method are known.
ところで無人の監視システムでは、誤報を減らすために、撮像した画像から前記のような方法によって検出された物体が、本当に検出すべき物体(侵入者等)であるか否かを確認すること、例えば基準となる情報と入力画像から抽出した物体の情報とを比較して判定(判断)することが行われる。基準となる情報(パラメータ)とは、例えば、検出すべき物体の位置や大きさに関する情報である。
すなわち、予め、撮像する入力画像中で、いずれの領域に存在する物体を検出すべき物体とするかというパラメータを設定しておき、物体の位置(例えば接地位置)がその領域内にあるか否かを判断する。この領域を定めるパラメータを領域パラメータと呼ぶ。また検出したい物体(例えば人)の大きさに合わせて、検出すべき物体の大きさの範囲を指定する。これを大きさパラメータと呼ぶ。
領域パラメータの設定を行うために、例えば、入力画像を表示装置に表示し、マウス等の操作部を用いて多角形の頂点を表示画面中で設定することで、所望の領域を指定する。
By the way, in the unattended monitoring system, in order to reduce false alarms, it is confirmed whether or not the object detected by the above method from the captured image is an object (intruder etc.) that should be detected, for example. A determination (determination) is performed by comparing the reference information with the information of the object extracted from the input image. The reference information (parameter) is, for example, information related to the position and size of the object to be detected.
That is, in the input image to be captured, a parameter is set in advance in which area an object to be detected is an object to be detected, and whether the position of the object (for example, the ground contact position) is within that area. Determine whether. Parameters that define this area are called area parameters. Further, the range of the size of the object to be detected is designated according to the size of the object (for example, a person) to be detected. This is called a size parameter.
In order to set region parameters, for example, an input image is displayed on a display device, and a polygonal vertex is set on the display screen using an operation unit such as a mouse, thereby specifying a desired region.
ここで、図9には、入力画像71の一例を示してある。
例えば、入力画像71中の建物72に近づく物体を検出する場合には、所定の指示装置を用いて、図示されるように、入力画像71中に例えば多角形(ポリゴン)73の領域(図中で点線の部分)を指定する。
このようにして指定された多角形の中に、差分法などの方法により、大きさパラメータに合致する大きさの物体が検出されるか否かを判断することで、建物72に近づく特定の物体(侵入者等)を検出することができる。
Here, FIG. 9 shows an example of the
For example, when an object approaching the
A specific object approaching the
しかしながら、図9に示されるような監視装置における設定の方法では、同じ大きさの物体(建物、侵入者等)であっても、カメラ(撮像装置)からの距離によって、入力画像中での大きさが異なる。従って、入力画像をそのまま表示する表示装置の画像では、カメラから離れている場所が小さく表示されるため、マウスによる操作では、そのような遠方に多角形73のような所望の領域を正確に設定するのが困難になるという問題があった。例えば、特定の建物から何メートル以内に近付く物体を検出したい場合に、カメラからの距離に応じて、建物と領域との間隔を画面上で精度良く指定するのは困難である。
また、大きさパラメータも画像内で変化しうる。従って、画像上の少なくとも2つの位置において検出すべき物体の画像上での大きさを指定し、その他の位置に存在する物体の画像上の大きさについては、指定された2つの位置の大きさを補間して定める方法や、領域を複数に分割し分割された領域毎に大きさパラメータを設定する方法が採られる。
However, in the setting method in the monitoring device as shown in FIG. 9, even in the case of an object of the same size (building, intruder, etc.), the size in the input image depends on the distance from the camera (imaging device). Is different. Therefore, in the image of the display device that displays the input image as it is, the place away from the camera is displayed small, so that the desired region such as the
The size parameter can also change within the image. Therefore, the size on the image of the object to be detected at at least two positions on the image is specified, and the size on the image of the object existing at other positions is the size of the two specified positions. Or a method of dividing a region into a plurality of regions and setting a size parameter for each of the divided regions.
この方法では、原理上は、正確な補間式が得られれば、画像上の任意の位置における大きさの情報を補間することができるが、入力画像のみに基づいて、そのような補間式を人手で精度よく生成するのは極めて困難である。すなわち、誤差を減らすために、画像上で指定する物体の位置の数を増やすことになるが、真の大きさの判っている十分な数の物体が画像内に常に映っているとは限らない。理想的には、現地に赴くことなく、カメラの設置状態などの情報の必要とせず、入力画像を見て遠隔から設定できることが望ましい。
領域を分割する方法においても、各領域で真の大きさが判っていて、かつ誤差がばらつかないように適切に分割するには、高度の熟練を要する。
In principle, in this method, if an accurate interpolation formula is obtained, size information at an arbitrary position on the image can be interpolated. However, based on only the input image, such an interpolation formula can be manually calculated. It is extremely difficult to generate with high accuracy. In other words, in order to reduce the error, the number of positions of the object specified on the image is increased, but a sufficient number of objects whose true size is known are not always shown in the image. . Ideally, it is desirable to be able to set remotely from the input image without going to the site and without needing information such as the camera installation status.
Even in the method of dividing the area, a high level of skill is required to appropriately divide the area so that the true size is known in each area and the error does not vary.
本発明は、このような従来の事情に鑑み為されたもので、画像処理に必要なパラメータの設定などにおいて、ユーザによる設定を視覚的に容易化することができる画像処理装置などを提供することを目的とする。 The present invention has been made in view of such a conventional situation, and provides an image processing apparatus and the like that can facilitate the user's setting visually in setting parameters required for image processing. With the goal.
上記目的を達成するため、本発明では、画像を処理する画像処理装置において、次のような構成とした。
すなわち、カメラで撮影された画像を処理して画像中の物体を検出する画像処理装置において、撮像時の座標系である第1座標系の画像を、基準となる平面上に設けられた第2座標系の画像へ変換する変換手段と、前記変換手段により変換された画像を表示する表示手段と、前記表示手段による画像の表示に応じてユーザにより入力される設定情報を受け付ける受付手段と、前記受け付けた設定情報を用いて、前記撮影された画像もしくは/及び検出するためのパラメータを変換してから、前記撮影された画像から前記パラメータを用いて物体を検出する検出手段と、を備えた。
また、前記第1座標系の画像と前記第2座標系の画像とは、カメラの主点を中心とする中心投影によって互いに座標が変換されるようにした。
In order to achieve the above object, in the present invention, an image processing apparatus for processing an image has the following configuration.
That is, in an image processing apparatus that processes an image captured by a camera and detects an object in the image, an image of the first coordinate system, which is a coordinate system at the time of imaging, is provided on a reference plane. Conversion means for converting into an image of a coordinate system; display means for displaying an image converted by the conversion means; receiving means for receiving setting information input by a user in accordance with display of an image by the display means; And detecting means for detecting the object from the photographed image using the parameter after converting the photographed image or / and a parameter for detection using the received setting information.
In addition, the image of the first coordinate system and the image of the second coordinate system are converted to each other by central projection centered on the main point of the camera.
従って、例えば地表面が距離に無関係にほぼ同じ大きさに映る第2座標系で画像が表示されて、それを見たユーザから設定情報を受け付けるため、例えば領域の設定などにおいて、ユーザによる設定を視覚的に容易化することができる。
なお、画像を撮像する撮像手段が画像処理装置に備えられてもよく、あるいは、撮像手段が画像処理装置の外部に備えられて、撮像手段により撮像された画像が画像処理装置に入力されてもよい。
Therefore, for example, since the image is displayed in the second coordinate system in which the ground surface is reflected in almost the same size regardless of the distance, and setting information is received from the user who sees the image, the setting by the user is performed, for example, in setting the area. It can be facilitated visually.
Note that an image processing unit that captures an image may be provided in the image processing apparatus, or an image capturing unit may be provided outside the image processing apparatus and an image captured by the image capturing unit may be input to the image processing apparatus. Good.
また実施例3のように、前記変換手段は、撮像時の座標系である第1座標系の画像を、第2座標系とは異なる第3座標系の画像へも変換し、前記受付手段は、設定情報を、第1座標系、第2座標系、第3座標系のいずれかの値として受け付け、前記検出手段は、大きさパラメータと、領域パラメータとで、前記第1ないし第1座標系のうち異なる座標系を用いて物体を検出するように構成することもできる。 Further, as in the third embodiment, the conversion unit converts the image of the first coordinate system, which is the coordinate system at the time of imaging, into an image of a third coordinate system different from the second coordinate system, and the reception unit The setting information is received as a value of any one of the first coordinate system, the second coordinate system, and the third coordinate system, and the detection means includes the first to first coordinate systems using a size parameter and a region parameter. The object can be detected using a different coordinate system.
ここで、画像処理とは、例えば、画像に映る物体の検出処理であるが、計量や、単なる人へ表示を目的とするものでも良い。
また、撮像時の座標系である第1座標系としては、例えば、撮像手段(例えば、カメラ)の視点で見た座標系であり、例えば、撮像対象が焦点を中心に撮像面に中心投影されたときの、撮像面上の座標系である。第1座標系は、実施例におけるカメラ座標系(x−y座標)に対応する。
また、距離に無関係にほぼ同じ大きさに映る第2座標系としては、例えば、水平な地表面を基準平面として、当該地表面(地面)内に2つの軸を有する正規直交座標系(及びそれに近似する非線形や非直交の座標系も含む)である。第2座標系は、鉛直(高さ)方向の情報を無視すれば、当該地表面を鉛直方向に正投影した2次元の座標系として扱える。第2座標系は、実施例におけるシーン座標系(ξ−ψ−Z)、マップ座標系(X−Y−Z)、グローバル座標系(XG−YG−ZG)に対応する。
Here, the image processing is, for example, detection processing of an object shown in an image, but may be intended for measurement or simple display to a person.
The first coordinate system that is a coordinate system at the time of imaging is, for example, a coordinate system viewed from the viewpoint of an imaging unit (for example, a camera). For example, the imaging target is center-projected on the imaging surface with the focus at the center. This is a coordinate system on the image pickup surface. The first coordinate system corresponds to the camera coordinate system (xy coordinates) in the embodiment.
In addition, as a second coordinate system that is reflected in almost the same size regardless of the distance, for example, an orthonormal coordinate system having two axes in the ground surface (ground) with the horizontal ground surface as a reference plane (and it) Including non-linear and non-orthogonal coordinate systems to be approximated). If the information in the vertical (height) direction is ignored, the second coordinate system can be handled as a two-dimensional coordinate system in which the ground surface is normally projected in the vertical direction. The second coordinate system corresponds to the scene coordinate system (ξ-ψ-Z), the map coordinate system (XYZ), and the global coordinate system (X G -Y G -Z G ) in the embodiment.
なお、第2座標系は、例えば、予めユーザにより設定されて、画像処理装置のメモリに記憶されている。基準となる平面としては、例えば、地面を真上から見た当該地面の平面が用いられる。ただし、地面は完全には平らではないことや、必ずしも完全に地面に一致させなくてもよい場合もあることなどから、実用上で問題にならない程度のずれがあってもよい。 The second coordinate system is set in advance by a user and stored in the memory of the image processing apparatus, for example. As the reference plane, for example, the plane of the ground when the ground is viewed from directly above is used. However, since the ground is not completely flat or may not necessarily be completely coincident with the ground, there may be a deviation that does not cause a problem in practice.
画像処理装置では、例えば、第1座標系と第2座標系との間で、設置された撮像装置(例えば、カメラ)の配置や焦点距離などに基づく変換式(数式)などを用いて、互いに座標変換を行うことが可能である。
撮像装置の配置や焦点距離などの情報は、ユーザにより画像処理装置に設定されてもよく、あるいは、画像処理装置が撮像装置などからの情報に基づいて(自動的に)検出してもよく、あるいは、画像処理装置が撮像装置の配置や焦点距離などを制御し、その制御により実現される撮像装置の配置や焦点距離などの情報を用いてもよい。
In the image processing apparatus, for example, between the first coordinate system and the second coordinate system, conversion equations (formulas) based on the arrangement or focal length of an installed imaging device (for example, a camera) are used, and the like. Coordinate conversion can be performed.
Information such as the arrangement of the imaging device and the focal length may be set by the user in the image processing device, or the image processing device may detect (automatically) based on information from the imaging device or the like, Alternatively, the image processing device may control the arrangement and focal length of the imaging device, and may use information such as the arrangement and focal length of the imaging device realized by the control.
また、ユーザにより入力される情報を受け付ける手段としては、例えば、ユーザにより操作されるマウスやキーボードなどの操作部を用いて構成することができる。
また、ユーザにより入力される情報を受け付ける態様としては、例えば、画面に表示された第2座標系の画像を見ながらユーザが操作部を操作して情報を入力することができるような態様や、ユーザから受け付けた例えば領域や大きさや長さや数値などの情報をその画面上に表示するような態様を用いることにより、ユーザにとって利便性を高めることが可能である。
The means for receiving information input by the user can be configured using an operation unit such as a mouse or a keyboard operated by the user, for example.
Moreover, as an aspect which receives the information input by the user, for example, an aspect in which the user can input information by operating the operation unit while viewing an image of the second coordinate system displayed on the screen, For example, it is possible to improve convenience for the user by using a mode in which information such as an area, size, length, and numerical value received from the user is displayed on the screen.
なお、本発明は、方法や、プログラムや、記録媒体などとして提供することも可能である。本発明に係る方法では、装置やシステムにおいて各手段が各種の処理を実行する。本発明に係るプログラムでは、装置やシステムを構成するコンピュータに実行させるものであって、各種の機能を当該コンピュータにより実現する。 The present invention can also be provided as a method, a program, a recording medium, and the like. In the method according to the present invention, each unit executes various processes in the apparatus or system. The program according to the present invention is executed by a computer constituting the apparatus or system, and various functions are realized by the computer.
本発明に係る画像処理装置などによると、基準となる平面の座標系で画像が表示されて、それを見たユーザから設定情報を受け付けるようにしたため、ユーザによる設定を視覚的に容易化することができる。 According to the image processing apparatus or the like according to the present invention, an image is displayed in a reference plane coordinate system, and setting information is received from a user who sees the image. Can do.
本発明に係る実施例を図面を参照して説明する。 Embodiments according to the present invention will be described with reference to the drawings.
図1には、本発明の実施例1に係る監視装置の構成例を示してある。
本例の監視装置は、例えばカメラを用いて構成された撮像装置1と、映像入力回路2と、画像処理プロセッサ3と、プログラムメモリ4と、ワークメモリ5と、外部I/F(インタフェース)回路6と、映像出力回路7と、データバス8と、例えば人により操作されるマウスやキーボードなどを用いて構成された指示装置9と、表示装置10を備えている。
ここで、映像入力回路2と、画像処理プロセッサ3と、プログラムメモリ4と、ワークメモリ5と、外部I/F回路6と、映像出力回路7は、データバス8に接続されている。
なお、撮像装置1としては、例えば、撮像装置1を制御するための装置や、各種の外部記録装置等を有するものが用いられてもよい。
FIG. 1 shows a configuration example of a monitoring apparatus according to the first embodiment of the present invention.
The monitoring apparatus of this example includes, for example, an
Here, the
As the
本実施例1の監視装置において行われる概略的な動作の一例を示す。
撮像装置1は、例えばテレビカメラ等であり、図2のような監視の対象となる領域(監視対象領域)を含む画像(映像)を撮像する。画像は、所定のレートで撮影されて映像入力回路2に出力されてもよく、あるいは映像入力回路2からの要求を受けてその都度最新のものが出力されてもよい。
ワークメモリ5は、撮像装置1により撮像された画像(入力画像21や背景画像T1)を映像入力回路2を介して取得し、記憶する。また、領域パラメータT2や大きさパラメータT3のような画像処理に必要な各種パラメータも記憶する。
画像処理プロセッサ3は、プログラムメモリ4に記録されているプログラムに従って、ワークメモリ5内に記録された入力画像を処理し、その処理結果を映像出力回路7を介して表示装置10の画面に表示する。
また、指示装置9を使用して受け付けられるオペレータ(ユーザ)からの指示が外部I/F回路6を介して入力される。画像処理プロセッサ3は、入力された指示に基づいて、前記したパラメータの変更や修正を行って、入力画像を処理する。
An example of a schematic operation performed in the monitoring apparatus according to the first embodiment will be described.
The
The work memory 5 acquires and stores images (the
The
In addition, an instruction from an operator (user) accepted using the
図8は、本実施例1の画像処理プロセッサ3により実行される定常時の物体検出処理の手順のフローチャートである。なお、図8では、説明を分かり易くするために、処理ステップS1〜S9以外に、ワークメモリ5に記録される背景画像T1(例えば図7に示される背景画像53に相当するもの)及び領域情報T2と、指示装置9と表示装置10を示してある。また、点線で示す矢印は、データの流れを表している。
FIG. 8 is a flowchart of the routine object detection process executed by the
画像入力ステップ(S1)では、撮像装置1により撮像した画像を、映像入力回路2を介してワークメモリ5へ転送する。
設定判定ステップ(S2)では、指示装置9から外部I/F回路6を介してオペレータによる設定指示があった場合には設定処理ステップ(S10)へ分岐し、設定指示がなかった場合には差分処理ステップ(S3)へ分岐する。
In the image input step (S 1), the image captured by the
In the setting determination step (S2), if there is a setting instruction from the
設定判定ステップ(S2)において、指示装置9からの設定指示がなかった場合、差分処理ステップ(S3)では、画像入力ステップ(S1)で入力した入力画像21とワークメモリ5内に記録されている背景画像T1との間で画素毎の差分を計算して差分画像(例えば図7に示される差分画像55に相当するもの)を得る。
二値化処理ステップ(S4)では、差分画像の各画素の値と所定のしきい値とを比較して、しきい値以上の画素を“255”とし、しきい値未満の画素を“0”とする変換を行い、これにより、二値化画像(例えば図7に示される二値化画像58に相当するもの)を得る。
If there is no setting instruction from the
In the binarization processing step (S4), the value of each pixel of the difference image is compared with a predetermined threshold value, a pixel equal to or higher than the threshold value is set to “255”, and a pixel lower than the threshold value is set to “0”. ”To obtain a binarized image (for example, one corresponding to the
ラベリング処理ステップ(S5)では、二値化画像中の“255”画素のかたまりに番号を付け、各かたまりを区別して処理できるようにする。
背景更新処理ステップ(S6)では、画像入力ステップ(S1)で得られた入力画像21を用いて、ワークメモリ5内に記録されている背景画像T1を更新する。背景画像T1の更新としては、例えば、入力画像21の画素毎(物体が検出された領域は除く)の時間平均などの方法を用いて新たな背景画像T1を作成することができ、監視環境(天候)の変化などによる照度変化に追従して背景画像T1を常に最新の状態に保つことができる。
In the labeling process step (S5), a number of “255” pixels in the binarized image is numbered so that each can be distinguished and processed.
In the background update processing step (S6), the background image T1 recorded in the work memory 5 is updated using the
座標系変換ステップ(S7)では、ラベリングされたかたまりのそれぞれの位置、長さ(高さ)、幅を、座標変換パラメータT4を用いてカメラ座標系からマップ座標系に変換する。なお“255”画素のかたまりの下端において、物体が接地していると推定されることから、かたまりの位置は当該下端の位置と定義する。また、マップ座標系とは、地表面を斜めからではなく鉛直方向に正投影したような(2次元)座標系であり、場所に因らず同じ大きさのものは同じ大きさに表される。座標系変換の詳細は後述する。
領域判定処理ステップ(S8)では、ワークメモリ5内に記録された領域パラメータT2等に基づいて、例えば、領域パラメータT2で指定された領域32内に、大きさパラメータT3に該当する長さ(高さ)、幅の有する、ラベリングされたかたまりが存在する場合には、当該かたまりを侵入物体と判断する。なお、領域パラメータT2や大きさパラメータT3も、マップ座標系等で表現される値である。
処理結果表示ステップ(S9)では、領域判定処理ステップ(S7)の判定結果を、表示装置10の画面に表示する。
処理結果表示ステップ(S9)が終了すると、画像入力ステップ(S1)へ戻り、画像入力がある度に(例えば入力画像のフレームレートの周期で)、S1からS9が繰り返される。
In the coordinate system conversion step (S7), the position, length (height), and width of each of the labeled clusters are converted from the camera coordinate system to the map coordinate system using the coordinate conversion parameter T4. Since the object is estimated to be grounded at the lower end of the “255” pixel cluster, the position of the cluster is defined as the position of the lower end. Further, the map coordinate system is a (two-dimensional) coordinate system in which the ground surface is orthographically projected in the vertical direction rather than obliquely, and those having the same size regardless of location are represented by the same size. . Details of the coordinate system conversion will be described later.
In the area determination processing step (S8), based on the area parameter T2 and the like recorded in the work memory 5, for example, the length (high) corresponding to the size parameter T3 in the
In the processing result display step (S9), the determination result of the region determination processing step (S7) is displayed on the screen of the
When the processing result display step (S9) ends, the process returns to the image input step (S1), and S1 to S9 are repeated each time an image is input (for example, at the cycle of the frame rate of the input image).
また、設定判定ステップ(S2)において、指示装置9から外部I/F回路6を介してオペレータによる設定指示があったと判定された場合、設定処理ステップ(S10)では、ワークメモリ5内に記録されるパラメータの設定のための処理を行う。
例えば、カメラ座標系からマップ(シーン)座標系への変換に必要な座標変換パラメータT4(撮像装置1の撮像角度、取り付けの高さ、焦点距離の3つ、もしくはこれらから派生する値)を入力を受け付ける。また図3に示されるように、座標変換パラメータT4を用いて入力画像21を地面に対して平行な平面に投影したようなシーン画像31を作成して表示装置10の画面に表示し、これを見たオペレータが指示装置9を操作することに応じて、多角形32などの所望の領域の指定等を受け付け、領域パラメータT2や大きさパラメータT3としてをワークメモリ5に記録する。これらの詳細は後述する。
設定処理ステップ(S10)が終了すると、画像入力ステップ(S1)へ戻る。
In the setting determination step (S2), when it is determined that there is a setting instruction from the operator via the external I /
For example, input a coordinate conversion parameter T4 (three values of the imaging angle of the
When the setting process step (S10) is completed, the process returns to the image input step (S1).
図2には、撮像装置1により撮像され図8の物体検出処理に用いられる入力画像21の一例を示してある。この入力画像21には、建物22の画像などが含まれている。また、この入力画像21を表示装置10の画面に表示することが可能である。
図3には、入力画像21をシーン(マップ)座標系に変換した画像であるシーン(マップ)画像31の一例を示してある。このシーン画像31を表示装置10の画面に表示することが可能である。
FIG. 2 shows an example of an
FIG. 3 shows an example of a scene (map)
このシーン画像31は、監視対象領域の地図とほぼ相似している。なお、本明細書では、基準となる地表面を厳密に正投影したシーン座標系を完全シーン座標系と称することにする。完全シーン座標系では、基準にした地表面内に限れば、画像中に写る建物の直角部分は直角に、幅が一定の道路などは平行な線として表示される。本例では、オペレータが表示装置10の画面に表示されたシーン画像31を見ながら指示装置9を操作することにより、このシーン画像31上で、例えば多角形32などにより領域を指定する。本例で用いるシーン座標系は、完全シーン座標系である必要はなく、多少誤差を持ってよい。後述するように、物体の大きさのうち、特に高さが等しく映るように、あえて完全シーン座標系にしない場合もある。
The
次に、撮像装置1の視点での画像の座標系(本例では、カメラ座標系と言うが、スクリーン座標系、画面座標系、画像座標系などとも呼ばれる)と、地面に対して平行な平面に投影した画像の座標系(シーン座標系、マップ座標系、ワールド(グローバル)座標系と)との間の変換処理について説明する。なお、後者の座標系は、原点をカメラの光軸が地表面と交わる点に置くものをシーン座標系、カメラ設置位置に置くものをマップ座標系、任意位置に置くものをワールド座標系と呼び、区別することにする。 Next, the coordinate system of the image at the viewpoint of the imaging device 1 (in this example, the camera coordinate system is also called a screen coordinate system, a screen coordinate system, an image coordinate system, etc.) and a plane parallel to the ground A conversion process between the coordinate system of the image projected on the screen (scene coordinate system, map coordinate system, and world (global) coordinate system) will be described. The latter coordinate system is called the scene coordinate system when the origin is at the point where the optical axis of the camera intersects the ground surface, the map coordinate system when placed at the camera installation position, and the world coordinate system when placed at an arbitrary position. I will make a distinction.
図4には、地面に対して水平な方向で(真横から)撮像装置1を見た場合の様子の一例を示してある。図5には、地面に対して垂直な方向で(真上から)撮像装置1を見た場合の様子の一例を示してある。
図4及び図5では、マップ座標系の原点を撮像装置1の真下の基準となる地面(水平面)とし、その地面上にX軸及びY軸を設けて、鉛直(高さ)方向にZ軸を設けてあり、撮像装置1が向いているパン方向(X−Y面内)にr軸を設けてある。
FIG. 4 shows an example of a state when the
4 and 5, the origin of the map coordinate system is the ground (horizontal plane) that is the reference directly below the
ここで、撮像装置1の設置の高さ(正確には撮像装置1の焦点の、地面からの高さ)をHとしてあり、撮像装置1の俯角をθTとしてあり、撮像装置1の縦方向の視野角をθV、横方向の視野角をθHとしてある。なお、撮像装置1の縦方向の視野角θVは、撮像素子のアスペクト比(例えば4:3)を用いて撮像装置1の横方向の視野角θHから算出することができる。
また、撮像装置1により撮像される画像の視野の中で、撮像装置1から最も近い所までの水平距離をLNとしてあり、撮像装置1から最も遠い所までの水平距離をLFとしてある。
Here, the installation height of the imaging device 1 (precisely, the height of the focal point of the
Further, in the field of view of the image picked up by the
まず、例えば、撮像装置1の位置や方向を変更するための雲台(パン−チルト)の現在の方向(例えば、雲台の正面を原点とし、パン角θP、チルト角θT)を取得し、撮像装置1の撮像レンズの現在の焦点距離f(正確には焦点距離と繰り出し量の和である像距離)を取得する。これら取得した情報に基づいて、撮像範囲の位置を算出する。
撮像範囲の位置の算出方法を示す。本例では、説明を簡易化するために、監視対象領域は平面であり、地面の凹凸がないとする。
撮像装置1の横方向の視野角(画角)θHと横方向の視野角(画角)θHは、それぞれ(式1)(式2)により求められる。
First, for example, the current direction of the pan head (pan-tilt) for changing the position and direction of the imaging device 1 (for example, the pan angle θ P and the tilt angle θ T with the front of the pan head as the origin) is acquired. Then, the current focal length f of the imaging lens of the imaging device 1 (more precisely, the image distance that is the sum of the focal length and the extension amount) is acquired. Based on the acquired information, the position of the imaging range is calculated.
A method for calculating the position of the imaging range will be described. In this example, in order to simplify the description, it is assumed that the monitoring target area is a flat surface and has no ground irregularities.
Lateral viewing angle (field angle) theta H and lateral viewing angle of the image pickup apparatus 1 (angle) theta H is obtained by respectively (Equation 1) (Equation 2).
ここで、wは撮像装置1の撮像素子である例えばCCD素子の横幅、hは縦幅であり、一例として、1/3インチ(素子サイズ4.8mm×3.6mm)の撮像素子を使用した場合には、w=4.8mm、h=3.6mmである。また、1/3インチの撮像素子を使用して、撮像レンズの焦点距離をf=8.00mmとした場合には、撮像装置1の画角は、θH=33.4°、θV=25.4°となる。すなわち、撮像装置1の視野は横方向に33.4°の範囲を有する。なお本来は、焦点距離fではなく、像距離(後側主点と撮像面との距離であり、焦点距離と繰り出し量の和)を用いるべきであるが、レンズの公式の通り被写体距離が像距離より十分大きければ、像距離は焦点距離fとほぼ等しくなる。また焦点距離fはズームにより変換する。
Here, w is an image pickup device of the
通常、撮像装置1は、監視対象領域と比べて、高い位置に設置される場合が多い。このため、雲台の現在の方向θTに応じて、撮像装置1の真下の領域には撮像することができない領域が発生する。この領域は、撮像装置1の真下から視線方向LNの範囲に現れる。距離LNと距離LFとの間の領域が、撮像装置1の視野に入ることになる。
これらの距離LN、LFについて説明する。
距離LN及び距離LFは、(式3)により求められる。
Usually, the
The distances L N and L F will be described.
The distance L N and the distance L F are obtained by (Equation 3).
上記の結果、撮像装置1により撮像することができる範囲は、図4に示される撮像装置1と距離LNの点と距離LFの点で囲まれる三角形の領域の内部であり、図5に示される点P1、P2、P3、P4で囲まれる台形の領域の内部となる。
一例として、1/3インチの撮像素子を使用して、撮像レンズの焦点距離をf=8.00mmとし、雲台の現在の方向をθT=30°とし、撮像装置1の設置高をH=5.0mとした場合には、LN=5.42m、LF=16.1mとなる。
As a result of the above, the range that can be imaged by the
As an example, using a 1/3 inch imaging device, the focal length of the imaging lens is f = 8.00 mm, the current direction of the camera platform is θ T = 30 °, and the installation height of the
上記のように、撮像装置1の視野範囲の位置は、(式1)〜(式3)により演算される。
この結果に基づいて、図5に示される視野範囲の各頂点P1、P2、P3、P4のマップ座標は、P1=(x1、y1)、P2=(x2、y2)、P3=(x3、y3)、P4=(x4、y4)として、(式4)〜(式7)により求められる。
As described above, the position of the visual field range of the
Based on this result, the map coordinates of the vertices P1, P2, P3, and P4 in the visual field range shown in FIG. 5 are P1 = (x1, y1), P2 = (x2, y2), and P3 = (x3, y3). ), P4 = (x4, y4), and (Expression 4) to (Expression 7).
ここで、θPは、撮像装置1のパン角であり、本例では、X軸と撮像装置1の光軸とのなす角を示す。このように、P1〜P4で囲まれた台形の領域が、その形のまま表示できればよいのである。
Here, θ P is the pan angle of the
表示装置10の画面には、撮像装置1の視野範囲の各位置について入力画像をシーン座標へ変換した画像が表示される。
図6には、画面41に表示されるシーン座標の画像の一例を示してある。なお図5、図6は作図技術上の問題で精密さは不十分であり、あくまで模式的に示すものである。
本例では、図6に示される4点P1’、P2’、P3’、P4’がそれぞれ図5に示される4点P1、P2、P3、P4に対応している。この対応とは、例えばP1〜P4で示される台形が、その形のままP1’〜P4’に変換されるような対応である。また、点P3’、P4’が画面41の上部に位置し、点P1’、P2’が画面41の下部に位置するように表示されている。
On the screen of the
FIG. 6 shows an example of a scene coordinate image displayed on the
In this example, the four points P1 ′, P2 ′, P3 ′, and P4 ′ shown in FIG. 6 correspond to the four points P1, P2, P3, and P4 shown in FIG. This correspondence is a correspondence such that, for example, trapezoids indicated by P1 to P4 are converted into P1 ′ to P4 ′ as they are. Further, the points P3 ′ and P4 ′ are displayed at the upper part of the
なお、画面41に表示される画像の奥行きの距離LFに制限を設けて画像を表示することも可能であり、一例として、奥行きを25[m]までに制限した場合には、変換後の画素のr座標が25[m]以上になる部分については画面41に表示されないようにする。
同様に、画面41に表示される画像の手前までの距離LNに制限を設けて画像を表示することも可能であり、一例として、手前までの距離を10[m]までに制限した場合には、変換後の画素のr座標が10[m]未満になる部分については画面41に表示されないようにする。
Note that it is also possible to display an image with a limit on the depth distance L F of the image displayed on the
Similarly, it is possible to display an image by limiting the distance L N to the front of the image displayed on the
座標変換パラメータT4が適切に設定されると、画面41は、図6に示すものから図3に示すものに近付く。そして図3に示したように、領域パラメータT3が地表面上での多角形としてマップ(シーン)座標系で設定され、更に各領域毎に大きさパラメータが設定されうる。
When the coordinate conversion parameter T4 is appropriately set, the
ここで、領域としては、多角形以外にも種々な形を用いて指定が行われてもよい。また、例えば、画面の領域を複数のブロックに分割して、各ブロック毎に対象領域とするか否か(オンかオフか)を設定するような態様が用いられてもよい。
また、シーン画像31で設定する情報としては、特に限定はなく、例えば、距離や、移動速度あるいは加速度や、人であるかあるいは動物であるかを判定するための大きさの条件(例えば、しきい値)などのように、人にとって地図のような平面図上で設定すると分かり易いような種々な情報を用いることができる。例えば、実際の寸法(実際の長さや速度など)を用いて設定を受け付けるような構成とすることも可能である。また、移動速度や加速度などは、最新、1回前、2回前のラベリングされたかたまりの位置から演算でき、物体の種類を判定するのに有用な場合がある。
Here, the area may be specified using various shapes other than the polygon. Further, for example, a mode may be used in which the screen area is divided into a plurality of blocks and whether or not each block is set as a target area (ON or OFF) is set.
The information set in the
また、本例では、撮像装置1により撮像された画像21をシーン画像31の座標へ変換して表示する態様を示したが、他の例として、監視対象領域を含む領域の地図の情報として、設計図あるいは市販の地図あるいは航空写真などの情報を予めメモリに記憶しておいて、撮像装置1により撮像された画像21に対応した領域の地図情報を当該メモリから読み出して表示するような態様を用いることも可能である。
また、画像処理は、例えば、カメラ座標系で行われてもよく、あるいは、シーン座標系で行われてもよいが、通常は、撮像装置1により得られる画像がカメラ座標系であるため、(本例では、領域の設定以外は、)カメラ座標系で行われる方が効率的であると考えられる。
Moreover, in this example, although the aspect which converted and displayed the
Further, for example, the image processing may be performed in a camera coordinate system or may be performed in a scene coordinate system. However, since an image obtained by the
以上説明したように、本実施例1の監視装置(画像処理装置の一例)では、撮像装置1の機能により撮像手段が構成されており、画像処理プロセッサ3が第1座標系(カメラ座標系)の画像を第2座標系(シーン座標系)の画像へ変換する機能により変換手段が構成されており、表示装置10の画面に画像を表示する機能により表示手段が構成されており、指示装置9を操作するユーザにより入力される情報を受け付ける機能により受付手段が構成されている。
また、距離に無関係にほぼ同じ大きさに映る第2座標系としては、例えば、水平な地表面を基準平面として、当該地表面(地面)内に2つの軸を有する正規直交座標系(及びそれに近似する非線形や非直交の座標系も含む)である。第2座標系は、鉛直(高さ)方向の情報を無視すれば、当該地表面を鉛直方向に正投影した2次元の座標系として扱える。第2座標系は、実施例におけるシーン座標系(ξ−ψ−Z)、マップ座標系(X−Y−Z)、グローバル座標系(XG−YG−ZG)に対応する。
これにより、例えば、画像上部と画像下部とで見かけの大きさが違うといったように画像上の位置によって見かけの大きさが違ってしまう問題を解消することができ、建物から一定距離の領域を指定するような場合においても、オペレータはマップ画像等に基づいて容易に領域を指定できる。
As described above, in the monitoring apparatus (an example of the image processing apparatus) according to the first embodiment, the imaging unit is configured by the function of the
In addition, as a second coordinate system that is reflected in almost the same size regardless of the distance, for example, an orthonormal coordinate system having two axes in the ground surface (ground) with the horizontal ground surface as a reference plane (and it) Including non-linear and non-orthogonal coordinate systems to be approximated). If the information in the vertical (height) direction is ignored, the second coordinate system can be handled as a two-dimensional coordinate system in which the ground surface is normally projected in the vertical direction. The second coordinate system corresponds to the scene coordinate system (ξ-ψ-Z), the map coordinate system (XYZ), and the global coordinate system (X G -Y G -Z G ) in the embodiment.
This eliminates the problem that the apparent size differs depending on the position on the image, for example, the apparent size is different between the upper part and the lower part of the image. Even in such a case, the operator can easily specify the area based on the map image or the like.
本実施例2は、先の実施例1の監視装置における領域パラメータを、基準となる検出物体に基づいて適応的に設定し、例えばその基準となる物体に近付いてくる物体を検出するようにしたものである。本実施例2の監視装置のハードウェア構成や大まかな処理手順は、特に言及しない限り図1や図8に示す実施例1のものと同様である。同一ではないが対応する構成には、200を足した符号(図示しない)を付して以下説明する。 In the second embodiment, the region parameter in the monitoring apparatus of the first embodiment is adaptively set based on the detection object serving as a reference, and for example, an object approaching the reference object is detected. Is. The hardware configuration and the rough processing procedure of the monitoring apparatus of the second embodiment are the same as those of the first embodiment shown in FIGS. 1 and 8 unless otherwise specified. Although not identical, corresponding components are denoted by reference numerals (not shown) added with 200 and will be described below.
図10には、画像入力ステップS201で取得される入力画像221が示されている。この入力画像221は、処理結果表示ステップS209で表示装置10に表示される。図10の入力画像221には、例えば、護衛を要する要人や、薬物の密売人などの物体222が写っている。
FIG. 10 shows the
オペレータが、指示装置9を用いてこの物体222を選択し、さらに所定の半径(例えば10m)を指定すると、画像処理プロセッサ3は、設定処理ステップS210において、その物体222の位置(接地位置)を中心とする楕円形の領域223を、入力画像221にオーバーレイ表示する。また、物体222のラベル番号と、領域223の半径(及び位置)が、領域パラメータとして設定される。更にオペレータが選択したときの物体222の大きさに基づいて、物体222用の大きさパラメータが設定される。なお領域223は、その後の処理結果表示ステップS209でも、物体222の最新の位置と前記半径に基づいて、入力画像221にオーバーレイ表示される。
When the operator selects the object 222 using the
図11には、図10の入力画像221をシーン(マップ)座標変換して得られるシーン画像231が示されている。
円形領域232は、領域223に対応し、シーン(マップ)座標系では物体233の接地位置を中心とする円形となる。円形領域232の半径は、オペレータが指定した半径である。
FIG. 11 shows a
The
物体223は、実施例1と同様に、差分処理ステップ(S3)から座標変換ステップ(S7)及び領域判定処理ステップ(S208)の処理により検出され、常に最新の位置が把握されている。
物体223の検出には、テンプレートマッチングなどの他のアルゴリズムを用いても良く、また。物体223が画像の中央に写るように、パンチルト制御(トラッキング)を行っても良い。
Similar to the first embodiment, the
For the detection of the
領域判定処理ステップS208において、画像処理プロセッサ3はまず、領域パラメータに設定されている物体222のラベル番号と同じラベル番号を付されたかたまりが、大きさパラメータを満たすか判定する。大きさパラメータを満たすと判定されたら、そのかたまりを物体223として検出し、その物体222の位置と領域パラメータに基づいて、監視領域を更新する。そして更新された監視領域内に、所定の大きさパラメータを満たす他の物体があるか探索し、他の物体が検出された場合、所定の出力をする。
監視領域内かどうかは、マップ(シーン)座標系における物体222と他の物体との距離を、指定された半径と比べることで判断できる。もし物体222を見失ったとき、つまり同じラベルの大きさパラメータを満たすかたまりが所定回数連続して検出できなかったときは、物体223に対応する領域パラメータを消去する。
In the area determination processing step S208, the
Whether it is within the monitoring region can be determined by comparing the distance between the object 222 and another object in the map (scene) coordinate system with a specified radius. If the object 222 is lost, that is, if a cluster satisfying the same label size parameter cannot be detected for a predetermined number of times, the region parameter corresponding to the
処理結果表示ステップS209において、画像処理プロセッサ3は、領域判定処理ステップS208での所定の出力に応じ、検出された他の物体を画面上に目立たせて表示したり、警報を発したりする。
In the processing result display step S209, the
本例では監視領域は、基本的に水平方向に長軸を持つ楕円となり、中心となる物体と半径のみ指定すればよいので、領域の設定自体はカメラ座標でも困難はない。
また監視領域をカメラ座標系で楕円形の領域223として設定し、領域223内の物体検出もカメラ座標系のまま行うようにしてもよい。つまり領域223を多角形に近似してその頂点の座標を領域パラメータT3として記憶しておき、後は実施例1と同様に多角形領域の内外判定を行う。
In this example, the monitoring area is basically an ellipse having a major axis in the horizontal direction, and it is only necessary to specify the center object and the radius, so the setting of the area itself is not difficult even in camera coordinates.
Alternatively, the monitoring area may be set as an
以上説明したように、本例の監視装置では、監視領域を適宜更新するようにしたので、移動する物体に対しても、その物体のカメラからの距離によらずに、監視領域を適切に設定し維持することができる。 As described above, in the monitoring apparatus of this example, the monitoring area is appropriately updated, so that the monitoring area is appropriately set for a moving object regardless of the distance of the object from the camera. Can be maintained.
本実施例3は、先の実施例1や2の監視装置における座標系変換を、検出すべき物体の大きさ(大きさパラメータ)の指定に好適になるように若干改良したものである。またそのような座標系変換に必要な座標変換パラメータを、ユーザが対話形式で入力できるようにしたものである。 In the third embodiment, the coordinate system conversion in the monitoring devices of the first and second embodiments is slightly improved so as to be suitable for specifying the size (size parameter) of the object to be detected. In addition, coordinate conversion parameters necessary for such coordinate system conversion can be input interactively by the user.
図12には、本例に係る監視システムの構成例を示してある。
本例の監視システムは、撮像装置301と、物体検出装置302と、表示装置303と、設定装置304と、撮像装置1と物体検出装置2とを接続するアクセスライン311と、物体検出装置302と表示装置303とを接続するアクセスライン312と、物体検出装置302と設定装置304とを接続するアクセスライン313を備えている。
FIG. 12 shows a configuration example of the monitoring system according to this example.
The monitoring system of this example includes an
撮像装置301は、例えば、画像(映像)を撮像するカメラから構成されており、監視の対象となる領域(監視対象領域)の画像を撮像し、撮像した画像のデータや、カメラの状態(パン、チルト、ズーム(焦点距離)の値やCCDサイズ等)を、アクセスライン11を介して物体検出装置302へ送信する。以後、カメラにおける実際のパン、チルト、ズームの値を、実カメラパラメータと呼ぶ。
物体検出装置302は、撮像装置301から送信された画像のデータを受信して入力し、入力した画像のデータと、物体の検出のために設定された情報に基づいて、監視対象領域内に侵入する物体を検出し、表示用の情報を、アクセスライン312を介して表示装置303へ送信する。
ここで、物体検出装置302から表示装置303へ送信する情報としては、種々な情報が用いられてもよく、例えば、物体の検出を行った画像の情報(画像データ)や、物体の検出結果を示す情報や、設定装置304により予め設定されたカメラパラメータの情報や、撮像装置301の実カメラパラメータなどの情報や、これら2つ以上の情報に基づいて得られた情報などを用いることができる。これらの情報は、(要求があれば)設定装置304にも送信される。
The
The
Here, various information may be used as information transmitted from the
また、物体検出装置302は、撮像装置301から受信した画像のデータあるいはそれを加工した画像のデータなどを、アクセスライン13を介して設定装置304へ送信する。
表示装置303は、物体検出装置302から送信された情報を受信して入力し、入力した情報あるいはそれを加工したものを画面に表示する。
Further, the
The
設定装置304は、例えば、オペレータ(人)により操作されるキーボードやマウスなどからなる操作部を有しており、オペレータによる操作の内容に応じて各種の設定情報を受け付け、受け付けた設定情報を、アクセスライン313を介して物体検出装置302へ送信する。
また、設定装置304は、現在の設定情報や規定の設定情報を記憶するメモリや、オペレータに対して情報を表示する画面を有しており、物体検出装置2から受信した画像のデータや、オペレータにより各種の設定を行うために参照される情報などを画面に表示出力する。
The
The
各アクセスライン11〜13としては、種々な通信線が用いられてもよく、例えば、アナログ電話網、ISDN(Integrated Services Digital Network)網、デジタル専用線網、IPネットワーク(インターネット)などが用いられる。 Various communication lines may be used as each of the access lines 11 to 13, for example, an analog telephone network, an ISDN (Integrated Services Digital Network) network, a digital leased line network, an IP network (Internet), or the like.
次に、本例の設定装置304により行われる動作について説明する。
図13には、設定装置304により表示される操作画面(設定画面)21の一例を示してある。
本例の操作画面321は、画像を表示する画像表示部331と、ライブ映像を表示させるためのライブボタン332と、ファイルを選択するためのファイル選択ボタン333と、俯角のパラメータを設定するための俯角パラメータ設定テキストボックス(TB)334と、高さのパラメータを設定するための高さパラメータ設定TB335と、視野角のパラメータを設定するための視野角パラメータ設定TB336と、パラメータ設定を指示するためのパラメータ設定ボタン337、座標系選択ラジオボックス338、復元ボタン339を有しており、これらが表示される。
Next, an operation performed by the
FIG. 13 shows an example of the operation screen (setting screen) 21 displayed by the
The
ここで、俯角パラメータ設定TB334、高さパラメータ設定TB335、視野角パラメータ設定TB336の各テキストボックスへ入力される3つの値は、それぞれ、撮像装置301(本例では、例えば、カメラ)の俯角、高さ、視野角(水平方向)のパラメータの値である。本例では、これらのパラメータをカメラパラメータと言う。
Here, the three values input to the text boxes of the depression angle
設定装置304は、第1座標系(本例では、カメラ座標系)の画像のデータを、第2座標系(本例では、完全シーン座標系)と第3座標系(本例では、准シーン座標系)の画像のデータへ変換する機能を有している。
本例では、カメラ座標系の画像は、撮像装置301により撮像された画像そのものであり、また、完全シーン座標系の画像は、監視対象領域の地図に相似する画像であり、准シーン座標系の画像は、物体の鉛直方向の高さが、撮像装置301からの距離に無関係に実際の高さに比例するような画像(それに近い画像も含む)である。第1座標系と第2座標系とは、カメラパラメータに基づいて、互いに変換される。また第1座標系と第3座標系とは、カメラパラメータを修正した修正カメラパラメータに基づいて、互いに変換される。
オペレータは、どちらのカメラパラメータを入力するのかを、座標系選択ラジオボックス338を用いて選択する。
The
In this example, the image in the camera coordinate system is the image itself captured by the
The operator uses the coordinate system
画像表示部331には、撮像装置301によって得られた入力画像(図2と同じ)を、各テキストボックス334〜336に現在入力されているカメラパラメータに基づいて座標系変換した画像が表示される。
なお、カメラパラメータは、設定装置304に予め記憶させておいた値や、実カメラパラメータから算出した値をデフォルト値とし、各テキストボックス334〜336に自動的に入力しておくことができる。ただし、撮像装置301がパンやズームが固定のものの場合のパンズーム値や、高さパラメータは、設定装置304に予め記憶させておくか、デフォルト値無しとする。デフォルト値の一例として、俯角パラメータが45[Deg]、高さパラメータが1.0[M]、視野角パラメータが45[Deg]の値を取りうる。
また、各テキストボックスの右側には、直前のパラメータが表示されており、オペレータが復元ボタン339を押すと、表示されている直前のパラメータがテキストボックスに自動的に入力される。
The
The camera parameters can be automatically input to the
In addition, the previous parameter is displayed on the right side of each text box, and when the operator presses the restore
ここで、画像表示部331に画像を表示する2つの方法について説明する。
(第1の方法)では、オペレータの操作により画面上でライブボタン332を押下すると、設定装置304から物体検出装置302に対して画像の要求が送信され、これを物体検出装置302が受信したことに応じて、撮像装置301により撮像された最新の画像のデータが物体検出装置302から設定装置304に対して送信され、これにより、設定装置304は、取得した当該画像のデータを、各テキストボックス334〜336に入力されているカメラパラメータもしくは修正カメラパラメータに基づいて座標系変換して表示する。
Here, two methods for displaying an image on the
In the (first method), when the
(第2の方法)では、予め撮像装置301により撮像された静止画像を用意しておき、オペレータの操作により画面上でファイル選択ボタン333を押下すると、選択可能なファイルを示すファイル選択ダイアログを画面上に表示し、オペレータの操作により画面上で表示する画像(例えば、画像のファイル名など)を選択すると、該当する画像のデータをワールド座標系の画像のデータへ変換して表示する。
In the (second method), a still image captured by the
第1及び第2の方法は、例えば、動画像を使用して表示を行ってもよい。動画像を使用する場合には、例えば、動画像を再生するためのボタンや一時停止するためのボタンを操作画面321に追加して表示し、動画像を一時停止させた状態でオペレータによりカメラパラメータの設定を行うことができる。
In the first and second methods, for example, display may be performed using moving images. In the case of using a moving image, for example, a button for reproducing the moving image or a button for pausing is added to the
なお、撮像装置301の縦方向の視野角θVは、使用する撮像装置301の撮像素子のアスペクト比(縦横比)によって決定され、例えば、縦3に対して横4の比率の素子を使用する場合には、縦方向の視野角θVは横方向の視野角θHの75%になる。このように、撮像装置1の縦方向の視野角θVと横方向の視野角θHは本質的に1つの情報になるため、本例では、撮像装置301の視野角を横方向の視野角θHで代表して設定する。
Note that the vertical viewing angle θ V of the
オペレータは、設置した撮像装置301の俯角θT、高さH、視野角θHの各パラメータを、各設定テキストボックス334〜336を用いて設定する。
設定装置304は、各テキストボックス34、35、36のパラメータが変更されるたびに、変更後のパラメータに基づいて画像表示部331に表示されるワールド座標系の画像を更新するとともに、変更前のパラメータを記憶し、各テキストボックスの右側に薄い色で表示する。
The operator sets the parameters of the depression angle θ T , the height H, and the viewing angle θ H of the installed
The
オペレータは、画像表示部331に表示されるワールド座標系の画像を見ながら、各テキストボックス334〜336の数値を調節する。
例えば、オペレータが、画像表示部331に表示された画像を見ながら、地表面上の所定の物(例えば道路や駐車場の白線)について撮像装置301からの距離画像に係らずに長さや幅や角度が実物に相似するように調整すると、完全シーン座標系のカメラパラメータとして最適化される。また、所定の高さを有する物体について撮像装置301からの距離画像に係らずに高さが実物に相似するように調整すると、准シーン座標系の修正カメラパラメータとして最適化される。
The operator adjusts the numerical values of the
For example, while viewing the image displayed on the
カメラパラメータが適切に設定されると、完全シーン座標系の画像では、監視対象領域の地図と相似の関係にあり、例えば、画像中に映る道路などは平行な線として表示され、建物の角部分は直角に表示される、などの特徴がある。
このため、例えば、図4に示される画像表示部331の画像のように、道路などについては、画面上の手前と奥とで幅(道幅など)を一定にして、画面上で平行な線にするように、オペレータは、各テキストボックス34〜36を調節すればよい。
When the camera parameters are set appropriately, the image in the complete scene coordinate system has a similar relationship with the map of the monitored area.For example, roads shown in the image are displayed as parallel lines, and the corners of the building Is displayed at right angles.
For this reason, for example, as in the image of the
一方、修正カメラパラメータは、准シーン座標系の画像では、建物の窓、フェンス、橋の欄干、ポールなどのように、高さが一定であるとみなせる構造物が、画像表示部331に表示される座標変換後の画像上で同じ高さになっているか否かをオペレータにより視覚的に確認することで、設定が容易になる。
また、現実に全く同一の形状を有する複数の三角コーン(trafficconeあるいはpylon)が画面上の異なる位置に映っている場合に、画面上において、これら複数の三角コーンの形状(幅や高さなど)が一致するように調節するようなこともできる。
On the other hand, in the modified camera parameter, in the image of the associate scene coordinate system, a structure that can be regarded as having a constant height, such as a building window, a fence, a bridge railing, and a pole, is displayed on the
In addition, when multiple triangular cones (trafficcone or pylon) having the exact same shape are reflected at different positions on the screen, the shape of these multiple triangular cones (width, height, etc.) on the screen Can be adjusted to match.
また、設定装置304は、上記のようなパラメータの調節が行われるに際して、画像表示部331に補助線を描画して表示する機能を備えていてもよい。
補助線としては、例えば、縦線や横線などを用いることができ、また、目盛り付きの線を用いることもでき、また、線の長さを数値で表示する態様が用いられてもよい。また、補助線の追加や削除、コピー、長さの変更、位置の移動などがオペレータの操作により可能な構成とすることもできる。
このような補助線は、例えば、道路などが画面上で平行な線となっているか否かなどを確認するために役立ち、また、画面上における長さ(高さなど)を測定するためにも役立つ。
Further, the
As the auxiliary line, for example, a vertical line or a horizontal line can be used, a scaled line can also be used, and a mode in which the length of the line is displayed numerically may be used. Further, it is also possible to adopt a configuration in which an auxiliary line can be added or deleted, copied, changed in length, moved in position, and the like by an operator's operation.
Such an auxiliary line is useful, for example, to check whether roads are parallel lines on the screen, and to measure the length (height) on the screen. Useful.
設定装置304により設定したカメラパラメータの保存方法について説明する。
本例では、オペレータの操作により画面上でパラメータ設定ボタン337を押下すると、各テキストボックス334〜336により設定された3つのパラメータが、座標系選択ラジオボタンで選択されている座標系用のカメラパラメータとして、現在の実カメラパラメータと一緒に設定装置304のメモリやファイルなどに保存されるとともに、アクセスライン313を介して物体検出装置302へ送信される。
A method for storing camera parameters set by the
In this example, when the
設定装置304は、カメラパラメータの他、実施例1同様の背景画像T1、領域パラメータT2、大きさパラメータT3の入力も受け付けて、物体検出装置302へ送信してもよい。
領域パラメータT2の入力の受け付けは、画像表示部331上でユーザが複数の点を指定することで成される。その際の座標系選択ラジオボックスの状態により、完全シーン座標系若しくは准シーン座標系のどちらで領域パラメータT2が受け付けられたかを判断し、その座標系の情報と一緒に物体検出装置302へ送信する。
大きさパラメータT3の入力は、座標系に依存しない、何メートル等の絶対値で受け付けるか、あるいは領域パラメータT2と同様に画面上で指定された高さや幅を、指定に用いた座標系の情報と共に受け付けることで成される。
なお、カメラパラメータ、修正カメラパラメータ及び実カメラパラメータは、実施例1の座標変換パラメータT4の一種であるとして、以下説明する。
The
The input of the region parameter T2 is made when the user designates a plurality of points on the
The input of the size parameter T3 does not depend on the coordinate system, it is accepted as an absolute value such as how many meters, or the coordinate system information used for specifying the height and width specified on the screen in the same manner as the area parameter T2. It is done by accepting with.
The camera parameter, the modified camera parameter, and the actual camera parameter will be described below assuming that they are a kind of the coordinate conversion parameter T4 of the first embodiment.
次に、本例の物体検出装置302により行われる動作について説明する。
物体検出装置302は、図8に示される実施例1の画像処理とほぼ同様に動作する。ただし、座標系変換処理S7、領域判定処理S8、領域設定処理S10に代えて、座標系変換処理S7’、領域判定処理S8’、パラメータ設定処理S10’を実行する。
Next, an operation performed by the
The
パラメータ設定処理S10’は、設定装置304からそれぞれ受信したカメラパラメータ若しくは修正カメラパラメータを、座標変換パラメータT4として実カメラパラメータと対応付けて格納する。あるいは、カメラパラメータ若しくは修正カメラパラメータと、実カメラパラメータとの差、比、あるいは所定の関数で表現される関係を、記憶するように下も良い。その他のパラメータを受信したときは、単純に記憶する。
The parameter setting process S10 'stores the camera parameter or the modified camera parameter received from the
座標系変換処理S7’は、ラベリングされたかたまりについて、それぞれの位置と高さと幅を、第2座標系(完全シーン座標系)、第3座標系(准シーン座標系)それぞれで変換する。第2及び第3座標系への変換には、パラメータ設定処理S10’で格納されたカメラパラメータ及び修正カメラパラメータをそれぞれ用いる。
ただし、撮像素子301のチルトやズームが変化している場合は、設定装置304から受信した(修正)カメラパラメータと実カメラパラメータとの差、比、あるいは所定の関数で表現される関係を保つように、当該かたまりの元になった画像が撮影されたときの撮像装置の実カメラパラメータに基づいて変換された(修正)カメラパラメータを用いる。
The coordinate system conversion process S7 ′ converts the position, height, and width of the labeled cluster in the second coordinate system (complete scene coordinate system) and the third coordinate system (associative scene coordinate system). For the conversion to the second and third coordinate systems, the camera parameter and the modified camera parameter stored in the parameter setting process S10 ′ are used, respectively.
However, when the tilt or zoom of the
領域判定処理S8’では、領域パラメータT2で指定された領域内に、大きさパラメータT3に該当する長さ(高さ)、幅の有する、ラベリングされたかたまりが存在する場合には、当該かたまりを侵入物体と判断する。その際、座標系変換処理S7’で変換された位置と高さと幅は、各パラメータの指定に使われた座標系と同じ座標系の方を選んで用いる。
本実施例の意図するところでは、領域パラメータT2と大きさパラメータT3の幅に関しては第2座標系で、大きさパラメータT3の高さに関しては第3座標系で指定されていることが望ましい。本実施例の構成では、オペレータが任意に選べるようにしている。
In the area determination process S8 ′, if there is a labeled cluster having a length (height) and a width corresponding to the size parameter T3 in the area specified by the area parameter T2, the cluster is processed. Judged as an intruding object. At that time, the position, height, and width converted in the coordinate system conversion processing S7 ′ are selected and used in the same coordinate system as that used for specifying each parameter.
As intended by the present embodiment, it is desirable that the width of the region parameter T2 and the size parameter T3 is specified in the second coordinate system, and the height of the size parameter T3 is specified in the third coordinate system. In the configuration of the present embodiment, the operator can arbitrarily select.
次に、座標系変換処理S7’で行う座標変換を一般的に説明する。なお、これは座標系変換処理S7にも適合できるものである。
図14には、カメラ座標軸と、シーン座標軸と、撮像装置301を示す斜視図が示されている。
点Mは、撮像装置301のレンズの光学主点であり、光学主点からレンズの光軸を延長し、基準となる地平面に交わる点がP0である。点Mから点P0へ向かうベクトルをCとする。また光学主点から後方の光軸上には、撮像素子101がある。
シーン座標(ξ−ψ−Z座標)は、P0を原点とし、基準となる地平面上のξ軸及びψ軸と、地平面に鉛直なZ軸(図示しない)とを有する。ξ軸は、ベクトルCと直交する。
カメラ座標(x−y座標)は、P0を原点とし、ベクトルCに垂直な面の上のx軸、y軸で定められる。x軸は、ξ軸と同じである。x−y平面上でのカメラ座標が、撮像素子上の座標と完全に相似することは、容易に理解できる。
なお、シーン座標としては完全シーン座標を想定し、カメラ座標、シーン座標は、ともに正規直交座標系とする。
ベクトルCは、シーン座標(ξ−ψ−Z)では、C=[0 −L H]Tである。
Next, the coordinate conversion performed in the coordinate system conversion process S7 ′ will be generally described. This can also be adapted to the coordinate system conversion processing S7.
FIG. 14 is a perspective view showing the camera coordinate axes, the scene coordinate axes, and the
Point M is an optical principal point of the lens of the
The scene coordinates (ξ-ψ-Z coordinate) have P 0 as the origin, and have a ξ axis and a ψ axis on the reference ground plane, and a Z axis (not shown) perpendicular to the ground plane. The ξ axis is orthogonal to the vector C.
Camera coordinates (xy coordinates) are determined by the x-axis and y-axis on the plane perpendicular to the vector C with P 0 as the origin. The x axis is the same as the ξ axis. It can be easily understood that the camera coordinates on the xy plane are completely similar to the coordinates on the image sensor.
The scene coordinates are assumed to be complete scene coordinates, and both the camera coordinates and the scene coordinates are an orthonormal coordinate system.
The vector C is C = [0−L H] T in the scene coordinates (ξ−ψ−Z).
ここで、点Mから任意点PAへ向かうベクトルをSとする。また点P0からPAへ向かうベクトルをAとする。また点P0から、ベクトルSがx−y平面と交差する点へ向かうベクトルをBとする。
カメラ座標(x−y)は、シーン座標(ξ−ψ−Z)を、ξ軸を中心にtan-1(L/H)だけ回転させたものだから、以下の2式が成り立つ。
Since the camera coordinates (xy) are obtained by rotating the scene coordinates (ξ−ψ−Z) by tan −1 (L / H) around the ξ axis, the following two expressions hold.
このとき、A、B、Cの各ベクトルの間には、以下のような関係が成り立つ。
(式10)をベクトルBについて整理し、シーン座標で行列表記すれば、
同様に(式10)をベクトルAについて解けば、
(式10)から(式16)に用いたパラメータのうち、Lは俯角に相当し(すなわち、L=H・cotθT)、αは視野角に相当する(すなわちα∝1/θH)。
Similarly, if (Equation 10) is solved for vector A,
Of the parameters used in (Equation 10) to (Equation 16), L corresponds to the depression angle (that is, L = H · cot θ T ), and α corresponds to the viewing angle (that is, αθ1 / θ H ).
以上を踏まえれば、カメラ画像のピクセル値PC(x,y)から、シーン座標に変換された画像のピクセル値PS(ξ,ψ)を、
なお、准シーン座標系への変換は、上で述べた完全シーン座標系への変換パラメータを修正する(例えば、俯角θTを若干大きくする)ことで、行うことが出来る。俯角θTを若干大きくすると、カメラ画像と、完全シーン座標の画像の中間のような画像になる。あるいは、全く別の変換式を用いても良く、特に広角レンズを用いた際はレンズの収差を補正するような式を用いても良い。 The conversion to associate the scene coordinate system corrects the transformation parameters to complete the scene coordinate system mentioned above (e.g., slightly increasing the depression angle theta T) that is, can be performed. When the depression angle θ T is slightly increased, an image that is halfway between the camera image and the complete scene coordinate image is obtained. Alternatively, a completely different conversion equation may be used, and particularly when a wide-angle lens is used, an equation that corrects lens aberration may be used.
また、シーン座標系(ξ−ψ−Z)から、マップ座標系(X−Y−Z)への変換は、撮像装置301のパン角に応じた座標回転を施せば、容易に行える。更に、マップ座標系(X−Y−Z)から、グローバル座標系(XG−YG−ZG)への変換は、単に撮像装置301の設置位置に相当する座標のオフセットを施せば、容易に行える。従って、これらのマップ座標系やグローバル座標系も、座標系変換処理S7’や領域判定処理S8’で用いる第2及び第3座標系に含まれうる。特に、マップ座標系は、撮像装置301がパンチルト制御できる場合に好適であり、グローバル座標系は、監視対象領域(画角)が一部重複するような複数の撮像装置を有し、複数の撮像装置で侵入者を追跡するようなシステムに好適である。
Also, conversion from the scene coordinate system (ξ-ψ-Z) to the map coordinate system (XYZ) can be easily performed by performing coordinate rotation according to the pan angle of the
以上のように、本例の監視システムでは、監視対象領域を撮像する撮像装置301と、撮像装置301により撮像された画像を処理して監視対象領域の物体(物体の画像)を抽出し、抽出した物体が検出すべき物体であるか否かを検出すべき物体の情報に基づいて判定して、監視対象領域中の物体を検出する物体検出装置302と、物体検出装置302による物体検出の結果に基づく画像などを表示する表示装置303と、オペレータにより調節される各種のパラメータを設定する設定装置304を備え、監視対象領域中の検出すべき物体を検出する。
As described above, in the monitoring system of this example, the
具体的には、本例では、撮像装置301により得られた入力画像の座標系(第1座標系)を、撮像装置301の設置の高さと、撮像装置301の設置の高さから見下ろす俯角と、撮像装置1の視野角といった少なくとも3つのパラメータに基づいて、異なる座標系(第2及び第3座標系)へ変換する。
ここで、第2座標系(完全シーン座標系)は、例えば、監視対象領域の実際の地図上の座標に相似する座標系であり、抽出した物体の位置を判断するときに好適である。
また、第3座標系(准シーン座標系)は、例えば、監視対象領域において、物体の見かけの高さが距離になるべく依存しないよう見せる座標系であり、抽出した物体の高さを判断するときに好適である。
Specifically, in this example, the coordinate system (first coordinate system) of the input image obtained by the
Here, the second coordinate system (complete scene coordinate system) is, for example, a coordinate system similar to the coordinates on the actual map of the monitoring target region, and is suitable for determining the position of the extracted object.
The third coordinate system (associative scene coordinate system) is a coordinate system that makes the apparent height of an object not depend on the distance as much as possible in the monitoring target region, for example, and determines the height of the extracted object It is suitable for.
そして、本例の監視システムは、第1座標系から第2及び第3座標系へ変換するためのカメラパラメータをオペレータにより任意に設定して設定できる構成を有している。特に、オペレータが座標変換された表示画像を見ながらそれらのパラメータを調節するようにしたので、オペレータはパラメータが妥当かどうか視覚的に容易に判断できる。 The monitoring system of this example has a configuration in which camera parameters for conversion from the first coordinate system to the second and third coordinate systems can be arbitrarily set and set by an operator. In particular, since the operator adjusts these parameters while viewing the display image after the coordinate conversion, the operator can easily visually determine whether the parameters are valid.
また、本例では、物体検出のための画像処理はカメラ座標系のまま行う態様を示したが、変換後の画像をオペレータが監視したい場合などは、撮像装置の画像を全て第2若しくは第3座標系(シーン座標系等)に変換して、画像処理や物体検出を行うようにしても良い。
また、本例では、物体検出のための閾値などの情報(領域パラメータT2、大きさパラメータT3)を第2あるいは第3座標系で設定する態様としたが、領域を図9のように3次元的に設定する際に、第2あるいは第3座標系では却って領域の境界線が歪んでしまうような場合は、カメラ座標系のまま設定するようにしてもよい。
In this example, the image processing for object detection is performed in the camera coordinate system. However, when the operator wants to monitor the converted image, the second or third image of the imaging device is all displayed. Image processing and object detection may be performed by converting into a coordinate system (scene coordinate system or the like).
In this example, information such as a threshold value for object detection (region parameter T2, size parameter T3) is set in the second or third coordinate system, but the region is three-dimensional as shown in FIG. If the boundary line of the region is distorted in the second or third coordinate system, the camera coordinate system may be set.
1・・撮像装置、 2・・映像入力回路、 3・・画像処理プロセッサ、 4・・プログラムメモリ、 5・・ワークメモリ、 6・・外部I/F回路、 7・・映像出力回路、 8・・データバス、 9・・指示装置、 10・・表示装置、 21、51、71・・入力画像、 22、72・・建物の画像、 31・・シーン画像、 32、73・・多角形(領域)、 41・・画面、 52・・人型の物体の画像、 53・・背景画像、 54・・差分器、 55・・差分画像、 56・・差分が生じた領域、 57・・二値化器、 58・・二値化画像、 59・・二値化された画素、 60・・物体が存在する領域、101・・撮像素子、
301・・撮像装置、302・・物体検出装置、303・・表示装置、304・・設定装置、311〜313・・アクセスライン。
1 .... Imaging device, 2 .... Video input circuit, 3 .... Image processor, 4 .... Program memory, 5 .... Work memory, 6 .... External I / F circuit, 7 .... Video output circuit, 8 ..・ Data bus, 9 ・ ・ Indicating device, 10 ・ ・ Display device, 21, 51, 71 ・ ・ Input image, 22, 72 ・ ・ Building image, 31 ・ ・ Scene image, 32, 73 ・ ・ Polygon (region) ), 41 .. screen, 52 .. image of humanoid object, 53 .. background image, 54 .. differencer, 55 .. difference image, 56 .. region where difference occurs, 57 .. binarization , 58...
301...
Claims (10)
撮像時の座標系である第1座標系の画像を、基準となる平面上に設けられた第2座標系の画像へ変換する変換手段と、
前記変換手段により変換された画像を表示する表示手段と、
前記表示手段による画像の表示に応じてユーザにより入力される設定情報を受け付ける受付手段と、
前記受け付けた設定情報を用いて、前記撮影された画像もしくは/及び検出するためのパラメータを変換してから、前記撮影された画像から前記パラメータを用いて物体を検出する検出手段と、
を備えた画像処理装置。 In an image processing apparatus that processes an image captured by a camera and detects an object in the image,
Conversion means for converting an image of the first coordinate system, which is a coordinate system at the time of imaging, into an image of a second coordinate system provided on a reference plane;
Display means for displaying the image converted by the conversion means;
Receiving means for receiving setting information input by a user in accordance with display of an image by the display means;
Detection means for detecting an object using the parameter from the captured image after converting the captured image or / and a parameter for detection using the received setting information;
An image processing apparatus.
前記基準となる物体以外の物体が当該領域の中にあること第2座標系において判断することを特徴とする画像処理装置。 The image processing apparatus according to claim 3, wherein each time the reference object is detected, the region parameter is updated so that the periphery of the reference object is set as a region.
An image processing apparatus that determines in the second coordinate system that an object other than the reference object is in the region.
第2座標系で指定された前記領域パラメータを、前記基準となる物体の位置に応じて第1座標系に変換し、
前記基準となる物体以外の物体が当該領域の中にあること第1座標系の画像上で判断することを特徴とする画像処理装置。 The image processing apparatus according to claim 3, wherein each time the reference object is detected, the region parameter is updated so that the periphery of the reference object is set as a region.
The region parameter specified in the second coordinate system is converted into the first coordinate system according to the position of the reference object,
An image processing apparatus that determines on the image of the first coordinate system that an object other than the reference object is in the region.
前記変換手段は、撮像時の座標系である第1座標系の画像を、第2座標系とは異なる第3座標系の画像へも変換し、
前記受付手段は、設定情報を、第1座標系、第2座標系、第3座標系のいずれかの値として受け付け、
前記検出手段は、大きさパラメータと、領域パラメータとで、前記第1ないし第1座標系のうち異なる座標系を用いて物体を検出する、
を備えた画像処理装置。 The image processing apparatus according to claim 3.
The converting means converts the image of the first coordinate system, which is the coordinate system at the time of imaging, into an image of a third coordinate system different from the second coordinate system,
The accepting means accepts the setting information as a value of any of the first coordinate system, the second coordinate system, and the third coordinate system,
The detection means detects an object using a different coordinate system of the first to first coordinate systems for a size parameter and a region parameter.
An image processing apparatus.
前記設定情報は、第1座標系を第2座標系もしくは第3座標系に変換するための座標変換パラメータを有することを特徴とする画像処理装置。 The image processing apparatus according to claim 7.
The image processing apparatus, wherein the setting information includes a coordinate conversion parameter for converting the first coordinate system to the second coordinate system or the third coordinate system.
前記設定情報は、第1座標系を第2座標系もしくは第3座標系に変換するための座標変換パラメータを有することを特徴とする画像処理装置。 The image processing apparatus according to claim 8.
The image processing apparatus, wherein the setting information includes a coordinate conversion parameter for converting the first coordinate system to the second coordinate system or the third coordinate system.
前記座標変換パラメータは、前記カメラの俯角と、設置高さと、視野角とに相当する、3つの独立パラメータからなることを特徴とする画像処理装置。 The image processing apparatus according to claim 9.
2. The image processing apparatus according to claim 1, wherein the coordinate conversion parameter includes three independent parameters corresponding to a depression angle, an installation height, and a viewing angle of the camera.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007284719A JP5183152B2 (en) | 2006-12-19 | 2007-11-01 | Image processing device |
US11/957,533 US8189962B2 (en) | 2006-12-19 | 2007-12-17 | Image processing apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006341438 | 2006-12-19 | ||
JP2006341438 | 2006-12-19 | ||
JP2007284719A JP5183152B2 (en) | 2006-12-19 | 2007-11-01 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008176768A true JP2008176768A (en) | 2008-07-31 |
JP5183152B2 JP5183152B2 (en) | 2013-04-17 |
Family
ID=39703712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007284719A Expired - Fee Related JP5183152B2 (en) | 2006-12-19 | 2007-11-01 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5183152B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012124230A1 (en) * | 2011-03-17 | 2012-09-20 | 日本電気株式会社 | Image capturing apparatus, image capturing method, and program |
JP2012221437A (en) * | 2011-04-14 | 2012-11-12 | Hitachi Ltd | Object recognition device and object recognition method |
JP2015039125A (en) * | 2013-08-19 | 2015-02-26 | キヤノン株式会社 | Monitoring device |
WO2016113997A1 (en) * | 2015-01-16 | 2016-07-21 | オリンパス株式会社 | Imaging apparatus and display method of imaging apparatus |
JP2017227993A (en) * | 2016-06-20 | 2017-12-28 | 日本電信電話株式会社 | Image normalization device, method, and recording medium capable of reading computer |
JP2018142907A (en) * | 2017-02-28 | 2018-09-13 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, control method and program of information processing apparatus |
CN110009571A (en) * | 2019-03-08 | 2019-07-12 | 重庆广睿达科技有限公司 | Calculation of longitude & latitude method, system and the storage medium of position are detected in camera image |
KR102339625B1 (en) * | 2021-01-29 | 2021-12-16 | 주식회사 맥스트 | Apparatus and method for updating space map |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08138057A (en) * | 1994-11-04 | 1996-05-31 | Fuji Electric Co Ltd | Object monitoring device |
JPH10332334A (en) * | 1997-06-04 | 1998-12-18 | Hitachi Ltd | Position measuring method by image processing and its device |
JP2003250070A (en) * | 2002-02-21 | 2003-09-05 | Sharp Corp | Camera device and supervisory system |
-
2007
- 2007-11-01 JP JP2007284719A patent/JP5183152B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08138057A (en) * | 1994-11-04 | 1996-05-31 | Fuji Electric Co Ltd | Object monitoring device |
JPH10332334A (en) * | 1997-06-04 | 1998-12-18 | Hitachi Ltd | Position measuring method by image processing and its device |
JP2003250070A (en) * | 2002-02-21 | 2003-09-05 | Sharp Corp | Camera device and supervisory system |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012124230A1 (en) * | 2011-03-17 | 2012-09-20 | 日本電気株式会社 | Image capturing apparatus, image capturing method, and program |
JP5958462B2 (en) * | 2011-03-17 | 2016-08-02 | 日本電気株式会社 | Imaging apparatus, imaging method, and program |
JP2012221437A (en) * | 2011-04-14 | 2012-11-12 | Hitachi Ltd | Object recognition device and object recognition method |
JP2015039125A (en) * | 2013-08-19 | 2015-02-26 | キヤノン株式会社 | Monitoring device |
WO2016113997A1 (en) * | 2015-01-16 | 2016-07-21 | オリンパス株式会社 | Imaging apparatus and display method of imaging apparatus |
JP2017227993A (en) * | 2016-06-20 | 2017-12-28 | 日本電信電話株式会社 | Image normalization device, method, and recording medium capable of reading computer |
JP2018142907A (en) * | 2017-02-28 | 2018-09-13 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, control method and program of information processing apparatus |
CN110009571A (en) * | 2019-03-08 | 2019-07-12 | 重庆广睿达科技有限公司 | Calculation of longitude & latitude method, system and the storage medium of position are detected in camera image |
KR102339625B1 (en) * | 2021-01-29 | 2021-12-16 | 주식회사 맥스트 | Apparatus and method for updating space map |
Also Published As
Publication number | Publication date |
---|---|
JP5183152B2 (en) | 2013-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5183152B2 (en) | Image processing device | |
JP6587113B2 (en) | Image processing apparatus and image processing method | |
US8189962B2 (en) | Image processing apparatus | |
EP2640057B1 (en) | Image processing device, image processing method and program | |
AU2011343674B2 (en) | Zooming factor computation | |
JP5603663B2 (en) | Moving object locus display device and moving object locus display program | |
CN112714287B (en) | Cloud deck target conversion control method, device, equipment and storage medium | |
CN102148965A (en) | Video monitoring system for multi-target tracking close-up shooting | |
US8134614B2 (en) | Image processing apparatus for detecting an image using object recognition | |
CN112399033B (en) | Camera assembly and monitoring camera | |
JP2004334819A (en) | Stereo calibration device and stereo image monitoring device using same | |
TW200818916A (en) | Wide-area site-based video surveillance system | |
JP4976939B2 (en) | Image processing device | |
JP2009017026A (en) | Coordinate conversion method, parameter-adjusting method and monitoring system | |
JP2007243509A (en) | Image processing device | |
WO2012081319A1 (en) | Video monitoring apparatus | |
WO2012049941A1 (en) | Video distribution system, and video distribution method | |
KR100888935B1 (en) | Method for cooperation between two cameras in intelligent video surveillance systems | |
KR100623835B1 (en) | Object detecting method and apparatus | |
JP4198536B2 (en) | Object photographing apparatus, object photographing method and object photographing program | |
JP4581512B2 (en) | Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method | |
JP2005303493A (en) | Obstacle-adaptive projection type display | |
JP6269014B2 (en) | Focus control device and focus control method | |
JP2008026999A (en) | Obstacle detection system and obstacle detection method | |
KR101670247B1 (en) | System for magnifying-moving object using one click of cctv real-time image and method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101028 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130115 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5183152 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160125 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |