JP5105972B2 - Coordinate conversion method, parameter adjustment method, and monitoring system - Google Patents

Coordinate conversion method, parameter adjustment method, and monitoring system Download PDF

Info

Publication number
JP5105972B2
JP5105972B2 JP2007174258A JP2007174258A JP5105972B2 JP 5105972 B2 JP5105972 B2 JP 5105972B2 JP 2007174258 A JP2007174258 A JP 2007174258A JP 2007174258 A JP2007174258 A JP 2007174258A JP 5105972 B2 JP5105972 B2 JP 5105972B2
Authority
JP
Japan
Prior art keywords
input
image
height
imaging
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007174258A
Other languages
Japanese (ja)
Other versions
JP2009017026A (en
Inventor
一成 岩永
光恵 伊藤
渡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2007174258A priority Critical patent/JP5105972B2/en
Publication of JP2009017026A publication Critical patent/JP2009017026A/en
Application granted granted Critical
Publication of JP5105972B2 publication Critical patent/JP5105972B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、監視システムに関するものである。   The present invention relates to a monitoring system.

例えば、テレビジョンカメラ(TVカメラ)等の撮像装置を用いて、監視対象領域内に侵入する物体を監視することが行われている。また、監視員による有人監視ではなく、装置或いはシステムが自動的に監視を行う技術が検討等されている。   For example, using an imaging device such as a television camera (TV camera), an object that enters the monitoring target area is monitored. In addition, a technique in which a device or a system automatically performs monitoring instead of manned monitoring by a monitor is being studied.

監視対象領域内に侵入する物体を自動的に検出する技術の一例として、背景差分法と呼ばれる方法を用いた監視技術が従来より広く用いられている。背景差分法による物体検出方法は、撮像装置等から得られる入力画像と検出すべき物体が映っていない基準となる背景画像との輝度(或いは、画素値)の差分を算出し、当該検出値が所定の閾値(しきい値)と比べて大きい変化領域に検出すべき物体が存在する或いはその可能性があるとして監視を行なう。検出すべき物体を監視する方法として、背景差分法以外にも、異なる時刻に得られた複数の入力画像の差分を用いるフレーム間差分や、2つの画像間の局所部分の動きを算出することで画像内の動きの流れを検出するオプティカルフロー法などがあり、監視対象領域の環境条件に応じて適切な方法が実装される。   As an example of a technique for automatically detecting an object that enters a monitoring target area, a monitoring technique using a method called a background difference method has been widely used. The object detection method based on the background difference method calculates a difference in luminance (or pixel value) between an input image obtained from an imaging device or the like and a reference background image on which an object to be detected is not reflected, and the detected value is Monitoring is performed on the assumption that an object to be detected exists in a change area larger than a predetermined threshold value (threshold value) or that there is a possibility of such an object. As a method for monitoring an object to be detected, in addition to the background subtraction method, by calculating a difference between frames using a difference between a plurality of input images obtained at different times and a motion of a local portion between two images. There is an optical flow method for detecting the flow of motion in an image, and an appropriate method is implemented according to the environmental conditions of the monitoring target area.

監視システムでは、撮像した画像から前記方法によって検出した物体が、本当に検出すべき物体であるか判定するために、基準となる情報(例えば検出すべき物体の大きさ情報が広く用いられる)と、入力画像から抽出した物体の情報を比較して判断する。この基準となる情報は、監視システムを動作させる前に予め設定する必要がある。例えば、上記例で用いた基準となる情報として大きさ情報を用いた場合、画像上の物体の見かけの大きさがカメラと物体の距離に応じて変わってしまう。すなわち、物体がカメラに近い場所(画像下部)に存在する場合は画像上大きく見え、カメラから離れている場所(画像上部)に存在する場合は小さく見えてしまうため、画像上の各位置において検出すべき物体が見える大きさを設定しなければならない。従来の方式では、画像上の少なくとも2つの位置において検出すべき物体の画像上での大きさを指定し、指定されなかった位置に存在する物体の画像上の大きさは、指定された位置の画像上の大きさから補間するという方法が取られる。この方法では、原理上2つの位置において検出すべき物体の大きさ情報があれば、画像上の任意の位置での大きさ情報を補間できるが、通常、画像上で指定する物体の位置の数を増やして大きさ設定の誤差を減らす必要があり、非常に煩雑な作業となる。
特開2001−273500号公報 特開2005−57743号公報
In the monitoring system, in order to determine whether the object detected by the method from the captured image is really an object to be detected, reference information (for example, size information of the object to be detected is widely used) Judgment is made by comparing the information of the object extracted from the input image. This reference information needs to be set in advance before operating the monitoring system. For example, when the size information is used as the reference information used in the above example, the apparent size of the object on the image changes according to the distance between the camera and the object. In other words, if the object is close to the camera (lower part of the image), it will appear larger on the image, and if it is away from the camera (upper part of the image), it will appear smaller. You must set the size to see the object to be viewed. In the conventional method, the size on the image of the object to be detected is specified at at least two positions on the image, and the size on the image of the object existing at the position not specified is set at the specified position. A method of interpolating from the size on the image is taken. In this method, in principle, if there is size information of an object to be detected at two positions, the size information at an arbitrary position on the image can be interpolated. Usually, however, the number of positions of the object specified on the image It is necessary to increase the size and reduce the size setting error, which is a very complicated operation.
JP 2001-273500 A JP-A-2005-57743

従来の監視システムでは、前述のとおり、入力画像から抽出した物体が検出すべき物体か否かを判定するために、画像上で検出すべき物体の情報を設定する必要がある。この設定では、誤差を少なくするために、数多くの情報を設定する必要があるため、設定作業が非常に煩雑になるという問題がある。   In the conventional monitoring system, as described above, in order to determine whether the object extracted from the input image is an object to be detected, it is necessary to set information on the object to be detected on the image. In this setting, in order to reduce an error, it is necessary to set a lot of information, and there is a problem that the setting work becomes very complicated.

本発明は、このような従来の事情に鑑みなされたもので、撮像した入力画像から抽出した第1の座標系で表現される物体を、監視領域の地図に相似する第2の座標系に変換するようにして、画像上の位置による見かけの情報の変化を解決し、より少ない作業でも監視システムを設定できる座標変換方法及びパラメータ調整方法及び監視システムを提供することを目的とする。   The present invention has been made in view of such a conventional situation, and converts an object expressed in a first coordinate system extracted from a captured input image into a second coordinate system similar to a map of a monitoring area. Thus, an object of the present invention is to provide a coordinate conversion method, a parameter adjustment method, and a monitoring system that can solve a change in apparent information due to a position on an image and can set a monitoring system with less work.

本発明は、上述の問題を解決するために、監視領域を撮像レンズおよび撮像素子を有する撮像装置などの手段によって撮像して得られた入力画像を処理し、検出すべき物体の情報に基づいて画像から抽出した物体が検出すべき物体か否かを判定し、前記撮像装置などの手段によって得られた入力画像の第一の座標系を、前記撮像装置などの手段の設置の高さと、前記撮像装置などの手段の設置の高さから見下ろす俯角と、前記撮像装置などの手段の視野角もしくは焦点距離の少なくとも3つのパラメータに基づいて第二の座標系に変換する座標系変換手段を有する監視システムにおいて、
前記視野角もしくは焦点距離は、前記撮像装置などの手段が有する撮像素子の大きさ、及び前記撮像装置などの手段が有する撮像レンズの焦点距離に基づいて算出される、または、
前記前記設置高さからみ下ろす俯角は、前記第一の座標系で設定された矩形もしくは線分のいずれか1つの座標の幅情報の少なくとも2つに基づいて算出される、または、
前記設置高さは、前記前記第一の座標系で設定された矩形もしくは線分のいずれか1つの座標の高さ情報の少なくとも1つに基づいて算出されることの少なくとも一方を実施することを特徴とするパラメータ調整方法である。
In order to solve the above-described problem, the present invention processes an input image obtained by imaging a monitoring area by means of an imaging device having an imaging lens and an imaging element, and based on information on an object to be detected. It is determined whether or not the object extracted from the image is an object to be detected, and the first coordinate system of the input image obtained by the means such as the imaging device is set to the height of installation of the means such as the imaging device, and Monitoring having a coordinate system conversion means for converting to a second coordinate system based on at least three parameters: a depression angle looking down from the height of installation of the means such as an imaging device and a viewing angle or a focal length of the means such as the imaging device In the system,
The viewing angle or the focal length is calculated based on the size of the imaging element included in the unit such as the imaging device and the focal length of the imaging lens included in the unit such as the imaging device, or
The depression angle to be looked down from the installation height is calculated based on at least two of the width information of any one coordinate of the rectangle or the line segment set in the first coordinate system, or
The installation height is calculated based on at least one of height information of any one coordinate of a rectangle or a line segment set in the first coordinate system. This is a characteristic parameter adjustment method.

また上記のパラメータ調整方法を用いたことを特徴とする監視システムである。   A monitoring system is characterized by using the parameter adjustment method described above.

本発明によれば、前記撮像装置などの手段の設置の高さと、前記撮像設置などの手段の設置の高さから見下ろす俯角と、前記撮像装置などの手段の視野角もしくは焦点距離の少なくとも3つのパラメータに基づいて入力画像から抽出した物体の情報を第一の座標系から第二の座標系に変換するようにし、3つのパラメータで入力画像から抽出した物体を検出すべき物体か否かを判定できるようにすることで、監視システムの設定の作業を削減し、オペレータが容易に設定を行える座標変換方法及びパラメータ調整方法及び監視システムを実現できる。   According to the present invention, at least three of the height of installation of the means such as the imaging device, the depression angle looking down from the height of installation of the means such as the imaging installation, and the viewing angle or focal length of the means such as the imaging device The information of the object extracted from the input image is converted from the first coordinate system to the second coordinate system based on the parameters, and it is determined whether the object extracted from the input image is to be detected by the three parameters. By doing so, it is possible to reduce the setting work of the monitoring system, and to realize a coordinate conversion method, a parameter adjustment method, and a monitoring system that can be easily set by the operator.

本発明に係る第一の実施例を、図面を参照して説明する。図1は、本発明に係る監視システムの構成を示すブロック図である。本例の監視システムは、撮像装置101、物体検出装置102、表示装置103、設定装置104、アクセスライン105〜107によって構成されている。撮像装置101は、監視の対象となる領域を撮像し、撮像された入力画像は、物体検出装置102で監視対象領域内に侵入する物体を検出し、検出画像と、検出結果および設定装置104で予め設定されたカメラパラメータより算出された値とを用いて得られた情報が表示装置103に表示される。アクセスライン105〜107は、例えばアナログ電話網やISDN網、デジタル専用線網、インターネットなどのネットワークに接続されていても良い。   A first embodiment according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a monitoring system according to the present invention. The monitoring system of this example includes an imaging device 101, an object detection device 102, a display device 103, a setting device 104, and access lines 105 to 107. The imaging device 101 captures an area to be monitored, and the captured input image detects an object that enters the monitoring target area by the object detection device 102. The detection image, the detection result, and the setting device 104 Information obtained by using values calculated from camera parameters set in advance is displayed on the display device 103. The access lines 105 to 107 may be connected to a network such as an analog telephone network, an ISDN network, a digital leased line network, or the Internet.

侵入物体を追尾し、監視するTVカメラに監視対象ではない民家やプライバシー等の監視対象以外の領域をTVカメラの視野内に映さないようにTVカメラを制御し、監視領域に侵入した物体を正確に検出、追尾する。   By tracking the intruding object and controlling the TV camera so that areas other than the monitoring target such as private houses and privacy that are not the monitoring target are not reflected in the field of view of the TV camera, the object that has entered the monitoring area is accurately Detect and track.

撮像方向及びズームの少なくとも一方を制御可能に構成された撮像装置で侵入物体を追尾する追尾方法は、該撮像装置からの画像を1フレーム取り込み、該画像から侵入物体の現在位置を検出し、前記撮像装置の現在のまたは予測視野範囲を算出し、該算出した現在または予測視野範囲が撮像禁止領域を含むか否かを判定し、含まないとき、前記侵入物体の検出情報に基き前記撮像装置の撮像方向及びズームの少なくとも一方を制御し、前記撮像装置で前記現在または予測視野範囲を撮像して警報/追尾情報を表示するように構成される。   A tracking method for tracking an intruding object with an imaging device configured to be able to control at least one of the imaging direction and zoom, captures one frame of an image from the imaging device, detects the current position of the intruding object from the image, and The current or predicted field of view of the imaging device is calculated, and it is determined whether or not the calculated current or predicted field of view includes the imaging prohibited region. If not, the imaging device is configured based on the detection information of the intruding object. It is configured to control at least one of an imaging direction and zoom, and to display the alarm / tracking information by imaging the current or predicted visual field range with the imaging device.

次に、設定装置104の動作について図2を用いて説明する。図2は、設定装置104の操作画面の一例である。操作画面201は、画像表示部202、俯角パラメータ設定203、高さパラメータ設定204、視野角パラメータ設定205、パラメータ設定ボタン206、ライブボタン207、ファイル選択ボタン208を持つ。以下、俯角パラメータ設定203、高さパラメータ設定204、視野角パラメータ設定205の3つによって設定される3つの値をカメラパラメータと呼ぶ。また、初めてカメラパラメータを設定する時には、予めカメラパラメータにはデフォルト値(例えば、俯角パラメータを45 [°]、高さパラメータを1.0 [m]、視野角パラメータを45 [°])が設定されているものとする。   Next, the operation of the setting device 104 will be described with reference to FIG. FIG. 2 is an example of an operation screen of the setting device 104. The operation screen 201 includes an image display unit 202, a depression angle parameter setting 203, a height parameter setting 204, a viewing angle parameter setting 205, a parameter setting button 206, a live button 207, and a file selection button 208. Hereinafter, three values set by the depression angle parameter setting 203, the height parameter setting 204, and the viewing angle parameter setting 205 are referred to as camera parameters. Also, when setting camera parameters for the first time, default values (for example, 45 ° for the depression angle parameter, 1.0 [m] for the height parameter, and 45 ° for the viewing angle parameter) are set in advance. It shall be.

画像表示部202には、撮像装置101によって得られた第1の座標系(以下、カメラ座標系と呼ぶ)で表される入力画像を、カメラパラメータに基づく第2の座標系(以下、ワールド座標系と呼ぶ)に変換した画像が表示される。   In the image display unit 202, an input image represented by a first coordinate system (hereinafter referred to as a camera coordinate system) obtained by the imaging device 101 is displayed on a second coordinate system (hereinafter referred to as world coordinates) based on camera parameters. The image converted to (system) is displayed.

ここで、画像表示部202に画像を表示する2つの方法について説明する。第1の方法として、ライブボタン207を押下することにより、撮像装置101で撮像された最新の画像が領域設定装置より送信され、取得した画像をワールド座標系の画像に変換して表示する。第2の方法として、予め撮像装置101で撮像した静止画像を用意しておき、ファイル選択ボタンを押下することでファイル選択ダイアログを表示し、表示する画像を選択すると該当する画像をワールド座標系の画像に変換して表示する。例えば、図4の画像を操作画面201表示すると、画像表示部202の画像のようにワールド座標系の画像に変換されて表示される。画像をワールド座標系の画像に変換する手段については後述する。   Here, two methods for displaying an image on the image display unit 202 will be described. As a first method, when the live button 207 is pressed, the latest image captured by the imaging apparatus 101 is transmitted from the area setting apparatus, and the acquired image is converted into an image of the world coordinate system and displayed. As a second method, a still image captured by the imaging apparatus 101 is prepared in advance, a file selection dialog is displayed by pressing a file selection button, and when an image to be displayed is selected, the corresponding image is displayed in the world coordinate system. Convert to image and display. For example, when the image of FIG. 4 is displayed on the operation screen 201, it is converted into an image of the world coordinate system and displayed like the image of the image display unit 202. A means for converting an image into a world coordinate system image will be described later.

上記では使用する画像を静止画としたが、動画像を用いるようにしても良い。その場合は、操作画面201には動画像を再生するためのボタンや一時停止するボタンを追加し(図示しない)、動画像を一時停止した状態でカメラパラメータの設定を行なう。   In the above description, the image to be used is a still image, but a moving image may be used. In this case, a button for playing back a moving image and a button for pause (not shown) are added to the operation screen 201, and camera parameters are set with the moving image paused.

次に、カメラパラメータを設定する方法について図2、5および6を用いて説明する。カメラパラメータは、俯角パラメータ設定203、高さパラメータ設定204および横方向視野角パラメータ設定205の3つを使用して変更する。俯角パラメータ設定203では、撮像装置101の俯角501を設定する。高さパラメータ設定204では、撮像装置101を設置した高さ502を設定する。視野角設定205では、撮像装置101の横方向の視野角601を設定する。オペレータは、設置した撮像装置101の俯角、高さ、視野角の各パラメータを、各設定を用いて設定する。なお、撮像装置101の縦方向の視野角503は、使用する撮像装置101の撮像素子のアスペクト比(縦横比)によって決定され、例えば縦3に対して横4の比率の素子を使用する場合、縦方向の視野角503は、横方向の視野角601の75%になる。したがって、撮像装置101の縦方向と横方向の視野角は本質的に1つの情報になるため、撮像装置101の視野角は、横方向の視野角601で代表して設定される。また、各設定のパラメータを変更した時、変更したパラメータに基づいて画像表示部202のワールド座標系の画像が更新される。   Next, a method for setting camera parameters will be described with reference to FIGS. The camera parameters are changed using three of the depression angle parameter setting 203, the height parameter setting 204, and the lateral viewing angle parameter setting 205. In the depression angle parameter setting 203, the depression angle 501 of the imaging apparatus 101 is set. In the height parameter setting 204, the height 502 where the imaging apparatus 101 is installed is set. In the viewing angle setting 205, the horizontal viewing angle 601 of the imaging apparatus 101 is set. The operator sets the depression angle, height, and viewing angle parameters of the installed imaging apparatus 101 using each setting. Note that the vertical viewing angle 503 of the imaging device 101 is determined by the aspect ratio (aspect ratio) of the imaging device of the imaging device 101 to be used. For example, when an element having a ratio of 4 to 3 is used, The viewing angle 503 in the vertical direction is 75% of the viewing angle 601 in the horizontal direction. Therefore, since the viewing angle in the vertical direction and the horizontal direction of the imaging device 101 is essentially one piece of information, the viewing angle of the imaging device 101 is set as a representative by the viewing angle 601 in the horizontal direction. When the parameters for each setting are changed, the image in the world coordinate system of the image display unit 202 is updated based on the changed parameters.

カメラパラメータを設定する別の方法について説明する。設置した撮像装置101の俯角、高さ、視野角のカメラパラメータを入力画像から算出する場合、画像表示部202に表示されたワールド座標系の画像を見ながら、画像の位置に係らず幅および高さが一定になるように、俯角パラメータ設定203、高さパラメータ設定204、横方向視野角パラメータ設定205を変更することでカメラパラメータを設定することができる。例えば図3に示す画像表示部202の画像のように、道路などは平行な線にすることで幅を一定にし、異なる場所に設置されている同じ高さの道路標識の高さを一定にすることで高さを一定になるように、各設定スライダーを調節する。この時、平行な線となっているか確認するための補助線を表示するようにしても良い。また、入力画像に写る、例えば窓やフェンス、橋の欄干など、高さが一定であるとみなせる構造物が、画像表示202に表示される変換後の画像上で同じ高さになっているか確認することで、カメラパラメータの設定が容易になる。この場合、高さが一定であるとみなせる構造物が、画像表示202に表示される変換後の画像上で同じ高さになっているか確認するために、例えば画像上に線を描画してその線の長さを操作画面201上に表示するようにしても良い。   Another method for setting camera parameters will be described. When calculating the camera parameters of the depression angle, height, and viewing angle of the installed image sensing device 101 from the input image, while looking at the image of the world coordinate system displayed on the image display unit 202, the width and height are considered regardless of the position of the image. The camera parameters can be set by changing the depression angle parameter setting 203, the height parameter setting 204, and the horizontal viewing angle parameter setting 205 so that the angle becomes constant. For example, as in the image of the image display unit 202 shown in FIG. 3, roads and the like are made parallel by making the width constant, and the height of road signs of the same height installed in different places is made constant. Adjust each setting slider so that the height remains constant. At this time, auxiliary lines for confirming whether the lines are parallel may be displayed. Also, make sure that structures that appear in the input image, such as windows, fences, bridge railings, etc., that can be considered to have a constant height, have the same height on the converted image displayed in the image display 202. This makes it easy to set camera parameters. In this case, in order to confirm whether the structure that can be regarded as having a constant height is the same height on the converted image displayed on the image display 202, for example, a line is drawn on the image and the structure is The length of the line may be displayed on the operation screen 201.

ここで、設定したカメラパラメータの保存方法について説明する。パラメータ設定ボタン206を押下することによって、俯角パラメータ設定203、高さパラメータ設定204および横方向視野角パラメータ設定205の3つで設定した3つのパラメータが、例えばファイルなどに保存され、アクセスライン106を介して物体検出装置102へ送信される。物体検出装置102では、カメラパラメータを保存したファイルを受信した場合、そのファイルの各パラメータを読み出し、入力画像から抽出した物体が検出すべき物体か否かを判定するカメラパラメータとして使用する。   Here, a method for saving the set camera parameters will be described. By pressing the parameter setting button 206, the three parameters set by the depression angle parameter setting 203, the height parameter setting 204, and the horizontal viewing angle parameter setting 205 are stored in, for example, a file, and the access line 106 is set. To the object detection device 102. When the object detection device 102 receives a file storing camera parameters, each parameter of the file is read and used as a camera parameter for determining whether or not the object extracted from the input image is an object to be detected.

次に、設定したカメラパラメータを用いて画像座標から実座標を求める方法について説明する。ここで、撮像装置101の俯角をθT、撮像装置101の設置の高さをH、撮像装置101の横方向の視野角をθH、撮像装置101の縦方向の視野角をθVとする。なお、撮像装置101の縦方向の視野角θVは、前述の通り、撮像装置101の横方向の視野角θHから算出されるため、説明した俯角θT、高さH、視野角θHが図3で説明されるカメラパラメータに一致している。   Next, a method for obtaining real coordinates from image coordinates using set camera parameters will be described. Here, the depression angle of the imaging device 101 is θT, the installation height of the imaging device 101 is H, the horizontal viewing angle of the imaging device 101 is θH, and the vertical viewing angle of the imaging device 101 is θV. Since the vertical viewing angle θV of the imaging device 101 is calculated from the horizontal viewing angle θH of the imaging device 101 as described above, the described depression angle θT, height H, and viewing angle θH are shown in FIG. Match the described camera parameters.

撮像装置の俯角θT、高さh、横方向の視野角である画角θH、縦方向の視野角である画角θVを用いて視野範囲に含まれるカメラ座標系の画像上の各位置をワールド座標系へ変換することができる。
例えば、入力画像上のある点(x',y')を、ワールド座標(x,y)に変換する一例を以下に示す。
例えば、画像上(x',y')で表される画素を撮像する俯角θyは、入力画像の縦方向の画素数を480画素とすると、(式1)で表される。
(式1)


Each position on the image of the camera coordinate system included in the field of view is calculated using the angle of view θT, height h, field angle θH which is the horizontal viewing angle, and field angle θV which is the vertical viewing angle of the imaging device. Can be converted to a coordinate system.
For example, an example of converting a certain point (x ′, y ′) on the input image into world coordinates (x, y) is shown below.
For example, the depression angle θy for imaging the pixel represented by (x ′, y ′) on the image is represented by (Expression 1) when the number of pixels in the vertical direction of the input image is 480 pixels.
(Formula 1)


また、カメラ座標における画素(x',y') を撮像する回転角θxは、入力画像の画素数を640とすると、点Dを撮像する回転角θxは、(式2)で表される。
(式2)


Further, the rotation angle θx for imaging the pixel (x ′, y ′) in the camera coordinates is expressed by (Expression 2) when the number of pixels of the input image is 640.
(Formula 2)


したがって、カメラ座標系の入力画像上の(x',y')で表される任意の位置の画素は、ワールド座標系のワールド画像の座標(x,y)として、(式3)により求められる。
(式3)






すなわち、ワールド画像は、入力画像を(式1)〜(式3)に従って座標変換することで得られる。なお、視野範囲の位置の座標は、撮像装置のパンやチルトやズームにより変化し得る。また、ワールド座標系に変換した画像は、(式1)〜(式3)で表される変換の逆変換を行うことで、カメラ座標系に戻すことができる。
Therefore, the pixel at an arbitrary position represented by (x ′, y ′) on the input image in the camera coordinate system is obtained by (Equation 3) as the coordinates (x, y) of the world image in the world coordinate system. .
(Formula 3)






That is, the world image is obtained by performing coordinate conversion on the input image according to (Expression 1) to (Expression 3). Note that the coordinates of the position of the visual field range can be changed by panning, tilting, or zooming of the imaging apparatus. Further, the image converted into the world coordinate system can be returned to the camera coordinate system by performing the inverse conversion of the conversion expressed by (Expression 1) to (Expression 3).

また、撮像装置の横方向の視野角である画角θH、及び縦方向の視野角である画角θVは、焦点距離f、及び撮像素子サイズ横幅H,撮像素子サイズ縦幅Vを用いて、例えば、図式4及び図式5で表現する事が可能である。
(式4)



(式5)



すなわち、焦点距離及び撮像素子の大きさ情報があれば、視野角の情報に代替するカメラパラメータとして、焦点距離をワールド座標系への変換に利用することが可能である。
In addition, the angle of view θH that is the horizontal viewing angle of the imaging device and the angle of view θV that is the vertical viewing angle are determined using the focal length f, the imaging element size horizontal width H, and the imaging element size vertical width V. For example, it can be expressed by Scheme 4 and Diagram 5.
(Formula 4)



(Formula 5)



In other words, if there is information on the focal length and the size of the image sensor, the focal length can be used for conversion to the world coordinate system as a camera parameter that is substituted for the information on the viewing angle.

画像表示部202には、上記式によって算出されるワールド座標系で表される4点P1、P2、P3、P4に基づいて、入力画像を変換した画像が表示される。図2の画像表示部202に表示される画像は、前記4点P1、P2、P3、P4に対応する画像表示部202上の4点P1’、P2’、P3’、P4’を頂点として入力画像を変換して表示される。例えば、P1’及びP2’を画像表示部202の下部に、P3’及びP4’を画像表示部202の上部になるように表示させることができる。また、撮像装置101から画像表示202に表示される奥行きの距離(上記式中LFで表される距離)に制限を設けて画像を表示することも可能で、例えば、奥行きを25[m]と制限した場合、変換後の画素のY座標が25[m]以上になる部分は、画像表示部202に表示されないようにする。さらに、撮像装置101から画像表示202に表示される手前までの距離(上記式中LNで表される距離)制限を設けて画像を表示することも可能で、例えば、手前までの距離を10[m]と制限した場合、変換後の画素のY座標が10[m]以上になる部分は、画像表示部202に表示されないようにする。   The image display unit 202 displays an image obtained by converting the input image based on the four points P1, P2, P3, and P4 expressed in the world coordinate system calculated by the above formula. The image displayed on the image display unit 202 in FIG. 2 is input with the four points P1 ′, P2 ′, P3 ′, and P4 ′ on the image display unit 202 corresponding to the four points P1, P2, P3, and P4 as vertices. The image is converted and displayed. For example, P1 ′ and P2 ′ can be displayed below the image display unit 202, and P3 ′ and P4 ′ can be displayed above the image display unit 202. It is also possible to display an image with a limit on the depth distance (distance represented by LF in the above formula) displayed on the image display 202 from the imaging device 101. For example, the depth is 25 [m]. When the restriction is applied, a portion where the Y coordinate of the converted pixel is 25 [m] or more is prevented from being displayed on the image display unit 202. Furthermore, it is also possible to display an image with a restriction on the distance from the imaging device 101 to the near side displayed on the image display 202 (distance represented by LN in the above formula). m], the portion where the Y coordinate of the converted pixel is 10 [m] or more is prevented from being displayed on the image display unit 202.

以上のようにすることで、カメラ座標系からワールド座標系に変換するカメラパラメータを設定することが可能となり、さらには、従来カメラ座標系で、入力画像から抽出した物体の位置、大きさ、領域などの判定を行っていたものを、ワールド座標系で判定することが可能となる。すなわち、従来入力画像上の各位置において物体の見かけの大きさの違いを考慮しながら入力画像から抽出した物体の判定を行わなければならなかったものを、地図に相似するワールド座標系(各位置において、同一物体の大きさは同じになる)で判定できるようになる。従って、物体の見かけの大きさの違いを監視システムに設定する必要がなくなる。   By doing so, it is possible to set the camera parameters to be converted from the camera coordinate system to the world coordinate system. Furthermore, in the conventional camera coordinate system, the position, size, and area of the object extracted from the input image It is possible to determine what has been determined in the world coordinate system. In other words, an object extracted from an input image while taking into account the difference in the apparent size of the object at each position on the input image, a world coordinate system similar to a map (each position The same object has the same size). Therefore, it is not necessary to set the difference in the apparent size of the object in the monitoring system.

本発明では、領域設定において設置した撮像装置101の俯角、高さ、視野角をカメラパラメータとしたが、俯角の代わりに仰角を、また視野角の代わりに焦点距離(この場合、使用する撮像装置101の撮像素子の大きさの情報が必要となる)をパラメータとして設定を行なうことも可能である。   In the present invention, the depression angle, height, and viewing angle of the imaging device 101 installed in the area setting are used as camera parameters, but the elevation angle is substituted for the depression angle, and the focal length is substituted for the viewing angle (in this case, the imaging device to be used). It is also possible to set as a parameter that information on the size of 101 image sensors is required).

本発明に関わる第二の実施例を、図面を参照して説明する。
本実施例では、本発明(当該座標変換方法及びパラメータ調整方法及び監視システム)を利用するために必要となるカメラパラメータ(ピクセル単位の焦点距離、カメラの俯角、カメラの高さ)を、撮像装置より撮像された画像中において大きさが既知の物体や撮像装置の素子サイズなどを用いて推定することで、対話形式(ウィザードと呼ぶ)で簡単に設定し、カメラパラメータが未知の場合でも物体の位置や大きさをワールド座標系で判定することを可能とする方法である。
A second embodiment according to the present invention will be described with reference to the drawings.
In this embodiment, camera parameters (focal length in units of pixels, camera depression angle, camera height) required to use the present invention (the coordinate conversion method, parameter adjustment method, and monitoring system) are converted into an imaging device. By estimating using an object with a known size in the captured image or the element size of the imaging device, it can be easily set in an interactive format (called a wizard), and even if the camera parameter is unknown This is a method that makes it possible to determine the position and size in the world coordinate system.

本発明に関わる監視システムの構成は、設定装置104の内部構成を除いて、第一の実施例と同等である。第二の実施例における設定装置104の動作について図7を用いて説明する。
図7は、設定装置104の操作画面の一例である。操作画面700は、画像表示部701、パラメータ決定ウィザード表示部702の2つの表示部を持つ。画像表示部701には、撮像装置101によって得られたカメラ座標系での入力画像が表示される。本例における入力画像のサイズ(幅:w×高さ:h)は640×480(pix)であるとする。ウィザード表示部702は、設定装置104を扱うユーザーへの指示703、ステップ番号704、情報設定ウィンドウ705、”次へ進む”ボタン706を持つ。本例では、ウィザード表示部702に表示されるユーザへの指示703に従って、画像表示部701及び情報設定ウィンドウ705に対して数回の入出力動作を実施することで、カメラパラメータを決定、及び設定する。
The configuration of the monitoring system according to the present invention is the same as that of the first embodiment except for the internal configuration of the setting device 104. The operation of the setting device 104 in the second embodiment will be described with reference to FIG.
FIG. 7 is an example of an operation screen of the setting device 104. The operation screen 700 has two display parts, an image display part 701 and a parameter determination wizard display part 702. The image display unit 701 displays an input image in the camera coordinate system obtained by the imaging device 101. It is assumed that the size (width: w × height: h) of the input image in this example is 640 × 480 (pix). The wizard display unit 702 includes an instruction 703 for a user who handles the setting device 104, a step number 704, an information setting window 705, and a “next” button 706. In this example, camera parameters are determined and set by performing several input / output operations on the image display unit 701 and the information setting window 705 in accordance with an instruction 703 to the user displayed on the wizard display unit 702. To do.

本設定装置104のカメラパラメータ設定操作の一例を以下に示す。
ウィザードでの最初の操作をステップ1とする。ステップ1では本監視システムに用いる撮像装置のピクセル単位の焦点距離のカメラパラメータを設定する。カメラパラメータ設定操作の開始時は、一例として、図7のようにステップ1を実行するためのユーザへの指示703、及び情報設定ウィンドウ705が表示されているとし、情報設定ウィンドウ705は、焦点距離入力フォーム707、CCDサイズ選択フォーム708を持つとする。ステップ1では、ユーザは焦点距離入力フォーム707に撮像装置が持つレンズの焦点距離をmm単位で入力する。また、撮像装置に用いられているCCD撮像素子の大きさをCCDサイズ選択フォーム708より1つ選択する。CCDサイズ選択フォーム708では、一般的に用いられるCCDサイズ、例えば2/3インチ(幅W:8.8mm×高さH:6.6mm)、1/2インチ(W:6.4mm×H:4.8mm)などをウィザード上に記載し、選択式で選べるようにしてあるが、任意のCCD撮像素子の大きさW, Hをユーザが直接入力できるようにしてもよい。入力が完了したら、”次へ進む”ボタン706を押すことで入力情報は設定装置に記憶されて、次の処理、例えばステップ2へ進む。本例で用いる撮像装置は、焦点距離8.4mm、CCDサイズ2/3インチであるとし、図8のように情報設定ウィンドウ704に該情報を入力する。本例のステップ1で得た焦点距離Fmmは、カメラパラメータの計算に用いるための便宜的な措置として、CCD撮像素子の大きさH,V 、入力画像のピクセルサイズw, hを用いて、ピクセル単位の値Fpに変換する。(式6)はその計算式の一例である。
(式6)


An example of the camera parameter setting operation of the setting device 104 is shown below.
Step 1 is the first operation in the wizard. In step 1, the camera parameter of the focal length of the pixel unit of the imaging device used for this monitoring system is set. At the start of the camera parameter setting operation, as an example, it is assumed that an instruction 703 to the user for executing step 1 and an information setting window 705 are displayed as shown in FIG. Assume that an input form 707 and a CCD size selection form 708 are provided. In step 1, the user inputs the focal length of the lens of the imaging device in mm on the focal length input form 707. Also, one size of the CCD image pickup element used in the image pickup apparatus is selected from the CCD size selection form 708. In the CCD size selection form 708, commonly used CCD size, for example, 2/3 inch (width W: 8.8 mm x height H: 6.6 mm), 1/2 inch (W: 6.4 mm x H: 4.8 mm) Are described on the wizard and can be selected by a selection formula. However, the user may be able to directly input the sizes W and H of any CCD image sensor. When the input is completed, the input information is stored in the setting device by pressing a “next” button 706, and the process proceeds to the next process, for example, step 2. The imaging apparatus used in this example has a focal length of 8.4 mm and a CCD size of 2/3 inch, and inputs the information to the information setting window 704 as shown in FIG. The focal length Fmm obtained in step 1 of this example is calculated by using the CCD image sensor size H and V and the input image pixel size w and h as a convenient measure for calculating the camera parameters. Convert to unit value Fp. (Formula 6) is an example of the calculation formula.
(Formula 6)


次にステップ2の操作を説明する。ステップ2では、画像表示部701上に、実際の幅[m]が既知の矩形領域もしくは線分を少なくとも2つ以上選択し、それぞれの矩形及び線分の座標と実際の幅との対応関係からカメラの俯角のカメラパラメータを設定する。前述で得た値により、例えば、撮像装置101の俯角を計算する事が出来る。例えば、表示部701における道路709が、画像上での見かけの幅によらず実際の幅3[m]と一定であることが既知の時、図9のように、画像表示部701の道路709上の近方と遠方に、矩形901、902を描く。矩形901、902は、例えばマウスなどの入力装置を用いて直線もしくは多角形の形で描写する。選択した2つの矩形901、902の座標情報などは、ウィザード表示部702において、自動的に表示される。例えば、矩形によって設定する場合は、矩形901については、矩形の座標903、ピクセル幅904、ピクセル高さ905、矩形902は、矩形の座標906、ピクセル幅907、ピクセル高さ908がそれぞれウィザード表示部702に表示される。また、線分の場合は端点の座標、ピクセル幅、ピクセル高さがウィザード表示部702に表示される(図示しない)。次に、該矩形901、902または線分の実際の幅を、それぞれ実幅入力フォーム909、910に入力する。本例では、矩形901、矩形902の実際の幅を3[m]としていたので、それぞれのフォーム909、910に入力する。入力終了後、”次に進む”ボタン706を押す事で、矩形901、902の座標、及び実際の幅の値を用いて撮像装置101の俯角が瞬時に計算され、ウィザード表示部702が、次の処理、例えばステップ3の操作を行うための画面に更新される。   Next, the operation of step 2 will be described. In step 2, at least two or more rectangular areas or line segments with known actual width [m] are selected on the image display unit 701, and the correspondence between the coordinates of each rectangle and line segment and the actual width is selected. Set camera parameters for camera depression. For example, the depression angle of the imaging apparatus 101 can be calculated based on the value obtained above. For example, when it is known that the road 709 in the display unit 701 is constant as the actual width 3 [m] regardless of the apparent width on the image, as shown in FIG. Draw rectangles 901 and 902 on the top and near. The rectangles 901 and 902 are drawn in a straight or polygonal shape using an input device such as a mouse. The coordinate information and the like of the two selected rectangles 901 and 902 are automatically displayed on the wizard display unit 702. For example, when setting with a rectangle, for the rectangle 901, the rectangular coordinates 903, pixel width 904, pixel height 905, and rectangle 902 are the rectangular coordinates 906, pixel width 907, and pixel height 908, respectively. 702 is displayed. In the case of a line segment, the coordinates of the end points, the pixel width, and the pixel height are displayed on the wizard display unit 702 (not shown). Next, the actual widths of the rectangles 901 and 902 or line segments are input to the actual width input forms 909 and 910, respectively. In this example, the actual widths of the rectangle 901 and the rectangle 902 are set to 3 [m]. When the “Next” button 706 is pressed after the input is completed, the depression angle of the imaging device 101 is instantaneously calculated using the coordinates of the rectangles 901 and 902 and the actual width value, and the wizard display unit 702 For example, the screen for performing the operation of step 3 is updated.

一例として、撮像装置101の俯角θelvは、ステップ2で入力した選択矩形(1)901のカメラ座標の始点(左上)を(x11,y11)、終点(右下)を(x12,y12)、実際の幅909をW1、選択矩形(2)902のカメラ座標の始点(左上)を(x21,y21)、終点(右下)を(x22,y22)、実際の幅910をW2、撮像装置101の焦点距離をFpとした時、(式7)により計算される。
(式7)





As an example, the depression angle θelv of the imaging device 101 is actually set to (x11, y11) for the start point (upper left) and (x12, y12) for the end point (lower right) of the camera coordinates of the selected rectangle (1) 901 input in step 2. The width 909 is W1, the start point (upper left) of the selected rectangle (2) 902 is (x21, y21), the end point (lower right) is (x22, y22), the actual width 910 is W2, and the imaging device 101 When the focal length is Fp, it is calculated by (Equation 7).
(Formula 7)





次にステップ3の操作を説明する。ステップ3では、画像表示部701上に、実の高さ[m]が既知の矩形領域もしくは線分を少なくとも1つ以上選択し、選択領域の座標と実際の高さとの対応関係からカメラの高さのカメラパラメータを設定する。これにより、例えば、撮像装置101の高さを計算する事が出来る。例として、表示部701における人型のオブジェクトの実際の高さが1.8[m]と既知の時、図10のように、画像表示部701上で該オブジェクトを囲うように矩形131を描く。矩形131は、例えばマウスなどの入力装置を用いて直線もしくは多角形の形で描写する。選択した矩形131の情報は、ウィザード表示部702において、例えば、座標132やピクセルサイズ133が自動的に表示される。次に、該矩形132の実際の高さを、それぞれ実高さ入力フォーム134に入力する。本例では、矩形132の実際の幅は1.8[m]と既知であるので、入力フォーム134に該値を入力する。入力終了後、”次に進む”ボタン706を押す事で、矩形132の座標、実際の高さ134、及びステップ2で算出した撮像装置101の俯角を用いて、撮像装置101の高さについて瞬時に算出される。   Next, the operation of step 3 will be described. In step 3, at least one rectangular area or line segment with a known actual height [m] is selected on the image display unit 701, and the camera height is determined from the correspondence between the coordinates of the selected area and the actual height. Set the camera parameters. Thereby, for example, the height of the imaging apparatus 101 can be calculated. As an example, when the actual height of a humanoid object on the display unit 701 is known to be 1.8 [m], a rectangle 131 is drawn on the image display unit 701 so as to surround the object as shown in FIG. The rectangle 131 is drawn in the form of a straight line or a polygon using an input device such as a mouse. The information of the selected rectangle 131 is automatically displayed on the wizard display unit 702, for example, the coordinates 132 and the pixel size 133. Next, the actual height of the rectangle 132 is input to the actual height input form 134, respectively. In this example, since the actual width of the rectangle 132 is known as 1.8 [m], the value is input to the input form 134. After completing the input, by pressing the “Next” button 706, the height of the imaging device 101 is instantaneously calculated using the coordinates of the rectangle 132, the actual height 134, and the depression angle of the imaging device 101 calculated in step 2. Is calculated.

一例として、撮像装置101の高さHcは、ステップ3で入力した選択矩形131のカメラ座標132の始点(左上)を(x31,y31)、終点(右下)を(x32,y32)、実際の高さ134をH3、とした時、撮像装置101の焦点距離Fp及び俯角θelvを用いて、以下のように計算される。
(式8)


As an example, the height Hc of the imaging device 101 is set such that the start point (upper left) of the camera coordinates 132 of the selected rectangle 131 input in step 3 is (x31, y31), the end point (lower right) is (x32, y32), and the actual When the height 134 is H3, the calculation is performed as follows using the focal length Fp and the depression angle θelv of the imaging apparatus 101.
(Formula 8)


以上、ステップ1、ステップ2及びステップ3により、撮像装置101の高さHc、俯角θelvといったカメラパラメータの推定値が得られた。尚、本実施例では、これらの処理をステップ1〜3と三段階に分けて処理を行ったが、ステップ1〜3で入力を求めた値について、例えば1回のステップでまとめて入力する形し、一段階で処理を行ってもよい。
次にステップ4の操作を説明する。ステップ4では、前述で算出したカメラパラメータ推定値を用いて、画像中に存在する物体の大きさが正しく推定できるかどうかを確認する。すなわち、カメラパラメータ推定値に基づいて、入力画像をカメラ座標系を仮のワールド座標系に変換し、画像中の任意のオブジェクトの大きさが仮のワールド座標系上で正しく推定されているかどうかを確認することで、カメラパラメータ推定値の妥当性を検討する。本操作が必要となる理由は、ステップ1〜3における入力、例えば矩形の選択などが人の手によるものであることなどから、計算に誤差が生じ、所望する値が正しく推定出来ない可能性があることによる。本例では、ユーザが画像表示部701上の任意の領域を、例えば、図11における矩形141のように選択する。選択する矩形141は、大きさ情報が既知、もしくは主観的な判断などによりおよその大きさ情報が推定できる領域であることが望ましい。本例で選択した矩形141は、人型のオブジェクトであり、高さが1.8m前後、幅が0.7m前後であることが主観的に推測可能もしくは既知であるとする。次に、選択した矩形141のカメラ座標系での座標142を用いて、カメラパラメータ推定値で変換したワールド座標系に基づいて、該矩形141の実際の幅推定値144及び高さ推定値145を算出し、瞬時にウィザード702上に表示する。表示された推定値144、145の値と、既知もしくは推測可能な大きさ情報とを比較し、その差が許容範囲内であるかを特定の判断基準などにより判断する。一例として、本実施例の選択矩形141について、高さ1.7m、幅0.7mという推定値が得られた時、ユーザが推定値の誤差の許容範囲をそれぞれ±0.3mとしていた場合、推定値は許容範囲内であり、カメラパラメータ推定値で大きさ情報が正しく推定出来ていると言える。画像表示部701上に任意の矩形を選択し、幅推定値144及び高さ推定値145を得るまでの一連の動作は、ステップ4において何度でも実施する事が出来る。従って、距離や大きさの異なるオブジェクトなど、あらゆる領域について、カメラパラメータ推定値の評価を行える。カメラパラメータ推定値が十分に正しい事を確認できた場合、”確定”ボタン146を押すことで、カメラパラメータ推定値を本監視システムにおけるカメラパラメータとして決定する。決定されたパラメータは例えば図12におけるカメラ設定値150のように表示され、物体検出装置102に設定する事が出来る。一方で、カメラパラメータ推定値が適切であると判断できない場合、”やり直す”ボタン147を押し、ステップを途中からやり直してカメラパラメータを推定しなおす。
尚、ステップ4は推定したカメラパラメータを確認するためのものであるため、ウィザードにより推定したカメラパラメータの誤差が実用上考えなくてもよい場合は、ステップ4を省略してもよい。
As described above, the estimated values of the camera parameters such as the height Hc and the depression angle θelv of the imaging device 101 are obtained by Step 1, Step 2, and Step 3. In this embodiment, these processes are divided into steps 1 to 3 and performed in three stages, but the values obtained in steps 1 to 3 are input in a single step, for example. However, the process may be performed in one stage.
Next, the operation of step 4 will be described. In step 4, it is confirmed whether the size of the object existing in the image can be estimated correctly using the camera parameter estimated value calculated above. That is, based on the camera parameter estimation value, the input image is converted from the camera coordinate system to the temporary world coordinate system, and whether or not the size of any object in the image is correctly estimated on the temporary world coordinate system. By confirming, the validity of the camera parameter estimation value is examined. The reason why this operation is necessary is that the input in Steps 1 to 3, for example, selection of a rectangle or the like is performed manually, so that there is a possibility that an error occurs in the calculation and the desired value cannot be estimated correctly. It depends. In this example, the user selects an arbitrary area on the image display unit 701 as, for example, a rectangle 141 in FIG. The rectangle 141 to be selected is desirably an area where the size information is known or the approximate size information can be estimated by subjective judgment or the like. It is assumed that the rectangle 141 selected in this example is a humanoid object and can be subjectively estimated or known to have a height of about 1.8 m and a width of about 0.7 m. Next, using the coordinates 142 of the selected rectangle 141 in the camera coordinate system, based on the world coordinate system converted by the camera parameter estimated values, the actual width estimated value 144 and height estimated value 145 of the rectangle 141 are obtained. Calculate and display on the wizard 702 instantly. The values of the displayed estimated values 144 and 145 are compared with known or predictable size information, and it is determined by a specific determination criterion whether the difference is within an allowable range. As an example, when the estimated values of 1.7 m in height and 0.7 m in width are obtained for the selection rectangle 141 of the present embodiment, if the user sets the allowable error range of the estimated value to be ± 0.3 m, the estimated value is It is within the allowable range, and it can be said that the size information is correctly estimated by the camera parameter estimation value. A series of operations from selecting an arbitrary rectangle on the image display unit 701 and obtaining the estimated width value 144 and the estimated height value 145 can be performed any number of times in Step 4. Therefore, camera parameter estimation values can be evaluated for all regions such as objects having different distances and sizes. When it is confirmed that the camera parameter estimated value is sufficiently correct, the camera parameter estimated value is determined as a camera parameter in the monitoring system by pressing the “confirm” button 146. The determined parameter is displayed, for example, as a camera setting value 150 in FIG. 12, and can be set in the object detection apparatus 102. On the other hand, if it is not possible to determine that the camera parameter estimated value is appropriate, the “redo” button 147 is pressed, and the steps are repeated from the middle to reestimate the camera parameters.
Since step 4 is for confirming the estimated camera parameter, step 4 may be omitted if the error of the camera parameter estimated by the wizard need not be considered in practice.

以上により、カメラ座標系からワールド座標系に変換するカメラパラメータを設定することが可能となり、第一の実施例で説明した座標変換方法により、入力画像中の任意の画像座標より実座標を求めることが出来る。本実施例では、特に、カメラパラメータが未知であり、従来であればワールド座標系を用いることが出来ない場合であっても、ウィザード形式で簡単にカメラパラメータを推定及び設定することが可能で、大きさ判定などワールド座標系に基づく処理を、監視システム上でより容易に用いることが出来るようになる。   As described above, it is possible to set camera parameters for conversion from the camera coordinate system to the world coordinate system, and the actual coordinates are obtained from arbitrary image coordinates in the input image by the coordinate conversion method described in the first embodiment. I can do it. In this embodiment, in particular, even if the camera parameters are unknown and the world coordinate system cannot be used in the past, it is possible to easily estimate and set the camera parameters in the wizard format. Processing based on the world coordinate system such as size determination can be used more easily on the monitoring system.

本発明の監視システムの構成例を示すである。It is an example of a structure of the monitoring system of this invention. 本発明の設定装置の操作画面の一例を説明するための図である。It is a figure for demonstrating an example of the operation screen of the setting apparatus of this invention. 本発明の設定装置の操作画面の一例を説明するための図である。It is a figure for demonstrating an example of the operation screen of the setting apparatus of this invention. 本発明の設定装置の表示を説明するための図である。It is a figure for demonstrating the display of the setting apparatus of this invention. 本発明の設定方法を説明するための図である。It is a figure for demonstrating the setting method of this invention. 本発明の設定方法を説明するための図である。It is a figure for demonstrating the setting method of this invention. 本発明の設定装置の操作画面の一例を示す図である。It is a figure which shows an example of the operation screen of the setting apparatus of this invention. 本発明の設定方法を説明するための図である。It is a figure for demonstrating the setting method of this invention. 本発明の設定方法を説明するための図である。It is a figure for demonstrating the setting method of this invention. 本発明の設定方法を説明するための図である。It is a figure for demonstrating the setting method of this invention. 本発明の設定方法を説明するための図である。It is a figure for demonstrating the setting method of this invention. 本発明の設定方法を説明するための図である。It is a figure for demonstrating the setting method of this invention.

符号の説明Explanation of symbols

101:撮像装置、102:物体検出装置、103:表示装置、104:設定装置、105:アクセスライン、106:アクセスライン、107:アクセスライン、203:俯角パラメータ設定、204:高さパラメータ設定、205:視野角パラメータ設定、206:パラメータ設定ボタン、207:ライブボタン、208:ファイル選択ボタン208、501:撮像装置の俯角、502:撮像装置の設置の高さ、503:撮像装置の縦方向の視野角、601:撮像装置の横方向の視野角、700:操作画面、701:画像表示部、702:ウィザード表示部、703:ユーザへの指示、704:ステップ番号、705:情報設定ウィンドウ、706:"次へ進む"ボタン、707:焦点距離入力フォーム、708:CCDサイズ選択フォーム、709:道路、901:選択矩形、902:選択矩形、903:選択矩形の座標、904:選択矩形のピクセル幅、905:選択矩形のピクセル高さ、906:選択矩形の座標、907:選択矩形のピクセル幅、908:選択矩形のピクセル高さ、909:選択矩形の実幅入力フォーム、910:選択矩形の実幅入力フォーム、131:選択矩形、132:選択矩形の座標、133:選択矩形のピクセル幅、134:選択矩形のピクセル高さ、141:選択矩形、142:選択矩形の座標情報、143:選択矩形のピクセルサイズ、144:選択矩形の実幅推定値、145:選択矩形の実高さ推定値、146:確定ボタン、147:やりなおすボタン、150:カメラ設定値 101: imaging device, 102: object detection device, 103: display device, 104: setting device, 105: access line, 106: access line, 107: access line, 203: depression angle parameter setting, 204: height parameter setting, 205 : Viewing angle parameter setting, 206: parameter setting button, 207: live button, 208: file selection button 208, 501: depression angle of imaging device, 502: height of imaging device installation, 503: vertical viewing field of imaging device Angle, 601: Horizontal viewing angle of imaging device, 700: Operation screen, 701: Image display unit, 702: Wizard display unit, 703: Instruction to user, 704: Step number, 705: Information setting window, 706: “Next” button, 707: Focal length input form, 708: CCD size selection form, 709: Road, 901: Selection rectangle, 902: Selection rectangle, 903: Coordinates of selection rectangle, 904: Pixel width of selection rectangle, 905: Pixel of selected rectangle Height, 906: Coordinate of selected rectangle, 907: Pixel width of selected rectangle, 908: Pixel height of selected rectangle, 909: Actual width input form of selected rectangle, 910: Actual width input form of selected rectangle, 131: Selected Rectangle, 132: Coordinate of selected rectangle, 133: Pixel width of selected rectangle, 134: Pixel height of selected rectangle, 141: Selected rectangle, 142: Coordinate information of selected rectangle, 143: Pixel size of selected rectangle, 144: Selected Estimated actual width of rectangle, 145: Estimated actual height of selected rectangle, 146: Confirm button, 147: Redo button, 150: Camera setting value

Claims (4)

撮像レンズおよび撮像素子を有する撮像装置によって監視領域を撮像して得られた入力画像を処理し前記撮像装置によって得られた入力画像の第一の座標系を、前記撮像装置の設置の高さと、前記撮像装置の設置の高さから見下ろす俯角と、前記撮像装置の視野角もしくは焦点距離の少なくとも3つのパラメータに基づいて第二の座標系に変換し、検出すべき物体の情報に基づいて、画像から抽出した物体が検出すべき物体か否かを前記第二の座標系で判定する監視システムにおけるパラメータ調整方法であって、
前記視野角もしくは焦点距離は、前記撮像装置が有する撮像素子の大きさ、及び前記撮像装置が有する撮像レンズの焦点距離に基づいて算出され、
記俯角は、前記第一の座標系で設定された矩形もしくは線分における2つの幅情報に基づいて算出され
前記設置高さは、前記第一の座標系で設定された矩形もしくは線分における1つの高さ情報に基づいて算出されることを特徴とするパラメータ調整方法。
Processing the input image obtained by imaging the result monitoring region to an imaging equipment having an imaging lens and an imaging device, the first coordinate system thus obtained input image on the imaging equipment, the imaging equipment the height of the installation, and the depression angle overlooking the height of installation of the imaging equipment, into a second coordinate system based on at least three parameters of the viewing angle or the focal length of the imaging equipment, should be detected based on the object information, a Contact Keru parameter adjustment method in a monitoring system object extracted from the image is determined in the second coordinate system whether an object to be detected,
The viewing angle or focal length, the size of the imaging element the imaging equipment has, and is calculated based on the focal length of the imaging instrumentation imaging lens location has,
Before Ki俯 angle is calculated based on two width information in the rectangular or line segments set in the first coordinate system,
The installation height of the previous SL parameter adjustment wherein the benzalkonium calculated based on one of the height of the rectangle or a line segment set in the first coordinate system.
撮像レンズおよび撮像素子を有する撮像装置によって監視領域を撮像して得られた入力画像を処理し、検出すべき物体の情報に基づいて画像から抽出した物体が検出すべき物体か否かを判定し、前記撮像装置によって得られたカメラ座標系での入力画像を、前記撮像装置の設置の高さと、前記撮像装置の設置の高さから見下ろす俯角と、前記撮像装置の視野角もしくは焦点距離の少なくとも3つのパラメータに基づいてワールド座標系に変換する監視システムにおけるパラメータ調整方法であって、
該監視システムが有する操作画面に焦点距離入力フォームと撮像素子サイズ選択フォームとを表示し、前記撮像素子の大きさ及び前記撮像レンズの焦点距離Fmmの入力を受け付ける第1ステップと、
前記操作画面に前記入力画像と2つの実幅入力フォームとを表示し、該監視システムが有する入力装置を用いて該表示された入力画像上で2つの矩形領域もしくは線分を描画する操作と、前記2つの実幅入力フォームへ該2つの矩形領域もしくは線分の実際の幅の値を入力する操作とを受け付け、該描画された2つの矩形領域もしくは線分の前記カメラ座標系での座標と該入力された2つの実際の幅の値と前記第1ステップでの入力とに基づいて前記俯角θelvを算出する第2ステップと、
前記操作画面に前記入力画像と実高さ入力フォームとを表示し、前記入力装置を用いて該表示された入力画像上で1つの矩形領域もしくは線分を描画する操作と、前記実幅入力フォームへ該1つの矩形領域もしくは線分の実際の高さの値を入力する操作とを受け付け、該描画された1つの矩形領域もしくは線分の前記カメラ座標系での座標と該入力された2つの幅の値と前記第1ステップでの入力と前記第ステップで算出した俯角θelvとに基づいて前記設置の高さHcを算出する第3ステップと、
前記操作画面に前記入力画像を表示し、前記入力装置を用いて該表示された入力画像上で任意のオブジェクトに対応させて矩形領域もしくは線分を描画する操作を受け付け、該オブジェクトに対応する矩形領域もしくは線分の前記カメラ座標系での座標と、前記第1乃至第3ステップで求めた3つのパラメータとに基づいて、該オブジェクトのワールド座標系での幅もしくは高さの値を推定して表示し、ユーザに該推定の正しさの確認を求める第4ステップと、を備え、
前記第1乃至第4ステップを、ウイザード形式で進めることを特徴とするパラメータ調整方法。
An input image obtained by imaging a monitoring area by an imaging device having an imaging lens and an imaging element is processed, and it is determined whether an object extracted from the image is an object to be detected based on information on the object to be detected. The input image in the camera coordinate system obtained by the imaging device is at least of the installation height of the imaging device, the depression angle looking down from the installation height of the imaging device, and the viewing angle or focal length of the imaging device A parameter adjustment method in a surveillance system that converts to a world coordinate system based on three parameters,
A first step of the operation screen having the said monitoring system displays the focal length input form and the imaging device size selection form, accepts input of focal length F mm in size and the image pickup lens of the image pickup device,
An operation of displaying the input image and two actual width input forms on the operation screen and drawing two rectangular areas or line segments on the displayed input image using an input device included in the monitoring system; An operation of inputting the actual width value of the two rectangular areas or line segments to the two actual width input forms, and the coordinates of the drawn two rectangular areas or line segments in the camera coordinate system; A second step of calculating the depression angle θelv based on the two actual width values input and the input in the first step;
An operation for displaying the input image and the actual height input form on the operation screen, and drawing one rectangular area or line segment on the displayed input image using the input device, and the actual width input form And an operation of inputting the actual height value of the one rectangular area or line segment, and the coordinates of the drawn one rectangular area or line segment in the camera coordinate system and the two input A third step of calculating a height Hc of the installation based on a width value, an input in the first step, and a depression angle θelv calculated in the second step;
The input image is displayed on the operation screen, and an operation for drawing a rectangular region or a line segment corresponding to an arbitrary object on the displayed input image using the input device is received, and the rectangle corresponding to the object is displayed. Based on the coordinates of the area or line segment in the camera coordinate system and the three parameters obtained in the first to third steps, the width or height value of the object in the world coordinate system is estimated. And a fourth step for prompting the user to confirm the correctness of the estimation,
A parameter adjustment method, wherein the first to fourth steps are advanced in a wizard format.
請求項2記載のパラメータ調整方法において、
前記第1ステップは、ピクセル単位の焦点距離Fpを
により算出し、
前記第2ステップは、前記描画された一方の矩形領域もしくは線分について始点と終点を(x11,y11)と(x12,y12)、実際の幅をW1とし、他方の矩形領域もしくは線分について始点と終点を(x21,y21)と(x22,y22)、実際の幅W2として、前記俯角θelvを
により算出し、
前記第3ステップは、前記描画された矩形領域もしくは線分について始点と終点を(x31,y31)と(x32,y32)、実際の幅をH3として、前記設置の高さHcを
により算出し、
前記第4ステップは、前記推定の正しさが十分でないときに、前記第1から第4ステップによるパラメータ調整を途中からやり直す指示を受け付けることを特徴とするパラメータ調整方法。
The parameter adjustment method according to claim 2,
In the first step, the focal length Fp in pixels is set.
Calculated by
In the second step, the starting point and the ending point are (x11, y11) and (x12, y12) for one of the drawn rectangular areas or line segments, the actual width is W1, and the starting point for the other rectangular area or line segment And the end point (x21, y21) and (x22, y22), the actual width W2, and the depression angle θelv
Calculated by
In the third step, the height Hc of the installation is set with the drawn width and the starting point of the rectangular region or line segment drawn as (x31, y31) and (x32, y32), the actual width as H3.
Calculated by
The parameter adjustment method according to claim 4, wherein the fourth step receives an instruction to redo the parameter adjustment in the first to fourth steps when the estimation accuracy is not sufficient.
請求項1乃至3のいずれかに記載のパラメータ調整方法を用いた監視システム。 Monitoring system using a parameter adjustment method according to any one of claims 1 to 3.
JP2007174258A 2007-07-02 2007-07-02 Coordinate conversion method, parameter adjustment method, and monitoring system Active JP5105972B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007174258A JP5105972B2 (en) 2007-07-02 2007-07-02 Coordinate conversion method, parameter adjustment method, and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007174258A JP5105972B2 (en) 2007-07-02 2007-07-02 Coordinate conversion method, parameter adjustment method, and monitoring system

Publications (2)

Publication Number Publication Date
JP2009017026A JP2009017026A (en) 2009-01-22
JP5105972B2 true JP5105972B2 (en) 2012-12-26

Family

ID=40357409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007174258A Active JP5105972B2 (en) 2007-07-02 2007-07-02 Coordinate conversion method, parameter adjustment method, and monitoring system

Country Status (1)

Country Link
JP (1) JP5105972B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5716273B2 (en) * 2009-11-27 2015-05-13 日本電気株式会社 Search target position specifying device, search target position specifying method and program
JP5706190B2 (en) * 2011-02-28 2015-04-22 綜合警備保障株式会社 Calculation apparatus, calculation method, and calculation program
JP5325251B2 (en) * 2011-03-28 2013-10-23 株式会社日立製作所 Camera installation support method, image recognition method
EP2732198B1 (en) 2011-07-15 2016-09-14 LG Innotek Co., Ltd. Lighting device
CN103065412B (en) * 2012-12-06 2014-12-17 广东省林业科学研究院 Interference source intelligent shielding method and device thereof applied to forest fire monitoring system
US10032249B2 (en) 2014-09-05 2018-07-24 Sakai Display Products Corporation Image generating apparatus, image generating method, and computer program
JP6341108B2 (en) * 2015-02-05 2018-06-13 住友電気工業株式会社 Imaging parameter determination device, portable terminal device, imaging parameter determination system, imaging parameter determination method, and imaging parameter determination program
JP2018142907A (en) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method and program of information processing apparatus
JP7224832B2 (en) * 2018-10-01 2023-02-20 キヤノン株式会社 Information processing device, information processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991439A (en) * 1995-09-26 1997-04-04 Fuji Electric Co Ltd Object monitor
JP2000137790A (en) * 1998-10-29 2000-05-16 Hitachi Ltd Method and device for monitoring image of man conveyor
JP3758511B2 (en) * 2000-02-28 2006-03-22 株式会社日立国際電気 Object detection apparatus and object detection program
JP2002056381A (en) * 2000-08-11 2002-02-20 Fujitsu Ltd Road state image processing device

Also Published As

Publication number Publication date
JP2009017026A (en) 2009-01-22

Similar Documents

Publication Publication Date Title
JP5105972B2 (en) Coordinate conversion method, parameter adjustment method, and monitoring system
US9001222B2 (en) Image processing device, image processing method, and program for image processing for correcting displacement between pictures obtained by temporally-continuous capturing
US8798387B2 (en) Image processing device, image processing method, and program for image processing
KR101964861B1 (en) Cameara apparatus and method for tracking object of the camera apparatus
JP5958716B2 (en) Optimal camera setting device and optimal camera setting method
KR101053405B1 (en) Structure Deformation Detection System and Method
US10127456B2 (en) Information processing apparatus that corrects image distortion to set a passage detection line, information processing method, and medium
US20120206618A1 (en) Object detection from image profiles
US9131155B1 (en) Digital video stabilization for multi-view systems
KR20170041636A (en) Display control apparatus, display control method, and program
JP4848312B2 (en) Height estimating apparatus and height estimating method
JP5183152B2 (en) Image processing device
US10200607B2 (en) Image capturing apparatus, method of controlling the same, monitoring camera system, and storage medium
JP6617150B2 (en) Object detection method and object detection apparatus
KR100623835B1 (en) Object detecting method and apparatus
JP2800530B2 (en) Inter-vehicle distance detection device
US10432843B2 (en) Imaging apparatus, control method of imaging apparatus, and non-transitory recording medium for judging an interval between judgement targets
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP3491029B2 (en) Automatic monitoring device
KR20160043484A (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
KR101051390B1 (en) Apparatus and method for estimating object information of surveillance camera
JP4744789B2 (en) Object identification method and object identification apparatus
JP4801264B2 (en) Method and apparatus for adjusting field angle deviation of surveillance camera, and medium for controlling the apparatus
JP2003240622A (en) Liquid level recognition processing device and liquid level monitoring system
JP4039423B2 (en) Edge position calculation device, obstacle detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120927

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121002

R150 Certificate of patent or registration of utility model

Ref document number: 5105972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250