JP6022423B2 - Monitoring device and monitoring device control program - Google Patents

Monitoring device and monitoring device control program Download PDF

Info

Publication number
JP6022423B2
JP6022423B2 JP2013159987A JP2013159987A JP6022423B2 JP 6022423 B2 JP6022423 B2 JP 6022423B2 JP 2013159987 A JP2013159987 A JP 2013159987A JP 2013159987 A JP2013159987 A JP 2013159987A JP 6022423 B2 JP6022423 B2 JP 6022423B2
Authority
JP
Japan
Prior art keywords
image
map
camera
target point
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013159987A
Other languages
Japanese (ja)
Other versions
JP2015032069A (en
Inventor
小川 雄三
雄三 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toa Corp
Original Assignee
Toa Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toa Corp filed Critical Toa Corp
Priority to JP2013159987A priority Critical patent/JP6022423B2/en
Publication of JP2015032069A publication Critical patent/JP2015032069A/en
Application granted granted Critical
Publication of JP6022423B2 publication Critical patent/JP6022423B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視装置及び監視装置の制御プログラムに係り、さらに詳しくは、カメラ撮影されたカメラ画像を平面地図上に表示する監視装置の改良に関する。   The present invention relates to a monitoring apparatus and a control program for the monitoring apparatus, and more particularly to an improvement of a monitoring apparatus that displays a camera image captured by a camera on a planar map.

監視装置は、監視カメラによって撮影されたカメラ画像をモニター上に表示する端末装置であり、監視カメラの撮影範囲内を監視することができる。この様な監視装置には、平面地図上に監視カメラの位置及び撮影範囲を表示し、ユーザが平面地図上で設置位置を指定した監視カメラの向きや撮影倍率を制御するものがある。また、カメラ画像を射影変換してマッピング画像を生成し、このマッピング画像を平面地図上に重畳させた画像合成地図を表示することができる監視装置も知られている(例えば、特許文献1)。   The monitoring device is a terminal device that displays a camera image captured by the monitoring camera on the monitor, and can monitor the imaging range of the monitoring camera. Some of such monitoring devices display the position and shooting range of the monitoring camera on a planar map, and control the direction and shooting magnification of the monitoring camera for which the user has specified the installation position on the planar map. There is also known a monitoring device capable of generating a mapping image by projective transformation of a camera image and displaying an image composite map obtained by superimposing the mapping image on a planar map (for example, Patent Document 1).

通常、カメラ画像と平面地図とを合成する場合、カメラ画像上の位置と平面地図上の位置とを互いに対応づけるカメラキャリブレーションを行う必要がある。例えば、カメラキャリブレーションは、ユーザがカメラ画像上の複数の参照点と平面地図上の複数の目標点とをそれぞれ指定するとともに、これらの位置情報をカメラ画像及び平面地図間で互いに関連づけることによって行われ、上記射影変換の変換係数が求められる。   Normally, when combining a camera image and a planar map, it is necessary to perform camera calibration that associates a position on the camera image with a position on the planar map. For example, camera calibration is performed by a user specifying a plurality of reference points on a camera image and a plurality of target points on a planar map, and associating these positional information between the camera image and the planar map. Thus, a conversion coefficient of the projective conversion is obtained.

この様な従来の監視装置では、カメラキャリブレーションの精度が低いという問題があった。例えば、カメラのレンズ収差に起因してカメラ画像にはレンズ歪みがある。また、カメラから水平面上の参照点までの実際の距離に応じてカメラ画像の分解能が異なり、カメラから遠ざかるほど、参照点の位置情報に含まれる誤差が大きくなる。さらに、位置情報から変換係数を求める際のデジタル演算には、計算誤差が含まれる。これらの影響により、カメラキャリブレーションを正確に行うことは困難であった。   Such a conventional monitoring apparatus has a problem that the accuracy of camera calibration is low. For example, the camera image has lens distortion due to camera lens aberration. Further, the resolution of the camera image differs depending on the actual distance from the camera to the reference point on the horizontal plane, and the error included in the position information of the reference point increases as the distance from the camera increases. Furthermore, the digital calculation for obtaining the conversion coefficient from the position information includes a calculation error. Due to these effects, it has been difficult to accurately perform camera calibration.

特開2005−286685号公報JP 2005-286585 A

本発明は、上記事情に鑑みてなされたものであり、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度を向上させることができる監視装置を提供することを目的とする。また、本発明は、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度を向上させた監視装置の制御プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a monitoring device capable of improving the accuracy of camera calibration between a camera image and a planar map. It is another object of the present invention to provide a monitoring apparatus control program that improves the accuracy of camera calibration between a camera image and a planar map.

本発明の第一の態様による監視装置は、カメラ撮影されたカメラ画像を平面地図上に表示する監視装置であって、上記平面地図に対し、上記カメラ画像を射影変換し、マッピング画像を生成する射影変換手段と、上記平面地図及び上記マッピング画像を合成した画像合成地図を生成する画像合成手段と、上記カメラ画像上の予め指定された2以上の参照点、及び、上記平面地図上の予め指定された2以上の目標点に基づいて、上記参照点を対応する上記目標点に一致させる上記射影変換の変換係数を求める第1キャリブレーション手段と、上記目標点と共に上記画像合成地図を表示する合成地図表示手段と、ユーザ操作に基づいて、上記目標点の位置を変更する目標点変更手段と、上記目標点変更手段による変更後の目標点に基づいて、上記変換係数を補正する第2キャリブレーション手段とを備えて構成される。   A monitoring device according to a first aspect of the present invention is a monitoring device that displays a camera image captured by a camera on a planar map, and performs projective transformation on the planar map to generate a mapping image. Projection transformation means, image synthesis means for generating an image synthesis map obtained by synthesizing the planar map and the mapping image, two or more reference points designated in advance on the camera image, and designation in advance on the planar map First calibration means for obtaining a conversion coefficient of the projective transformation for matching the reference point with the corresponding target point based on the two or more target points, and a composition for displaying the image composition map together with the target point Based on the map display means, the target point changing means for changing the position of the target point based on the user operation, and the target point after the change by the target point changing means, Constructed a second calibration means for correcting the 換係 number.

この監視装置では、第1キャリブレーションによって求められた変換係数を用いて射影変換を行うことにより、カメラ画像上の任意の位置が平面地図上の位置に対応づけられたマッピング画像をカメラ画像から得ることができる。その様なマッピング画像と平面地図とを合成した画像合成地図を表示することにより、ユーザは、マッピング画像及び平面地図間において特徴部分の位置にずれがあるか否か、また、ずれがある場合にずれの大きさや方向を容易に認識することができる。この様な第1キャリブレーションに対する精度検証の結果、ユーザが画像合成地図上の目標点の位置を変更すれば、射影変換の変換係数が補正されるので、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度を向上させることができる。   In this monitoring device, by performing projective transformation using the transformation coefficient obtained by the first calibration, a mapping image in which an arbitrary position on the camera image is associated with a position on the planar map is obtained from the camera image. be able to. By displaying an image composite map in which such a mapping image and a plane map are combined, the user can determine whether or not there is a shift in the position of the feature portion between the mapping image and the plane map. The magnitude and direction of the deviation can be easily recognized. If the user changes the position of the target point on the image composite map as a result of the accuracy verification for the first calibration, the conversion coefficient of the projective transformation is corrected, so that the camera calibration between the camera image and the planar map is performed. Accuracy can be improved.

本発明の第二の態様による監視装置は、上記構成に加え、上記画像合成手段が、透明化した上記マッピング画像を上記平面地図上に重畳させた画像合成地図を生成するように構成される。この様な構成によれば、透明化したマッピング画像を介して平面地図上の表示オブジェクトが認識可能になるので、マッピング画像及び平面地図間で特徴部分のずれ具合を容易に認識することができる。   In addition to the above-described configuration, the monitoring apparatus according to the second aspect of the present invention is configured such that the image synthesis unit generates an image synthesis map in which the transparent mapping image is superimposed on the planar map. According to such a configuration, the display object on the planar map can be recognized via the transparent mapping image, so that the degree of shift of the feature portion can be easily recognized between the mapping image and the planar map.

特に、マッピング画像の全体にわたってずれ具合を認識でき、マッピング画像上のどの辺りが大きくずれているのかといったことを容易に識別することができる。従って、画像合成地図上で目標点の位置を変更する際に、マッピング画像の全体にわたってずれが小さくなるような位置を容易に見つけることができる。   In particular, the degree of displacement can be recognized over the entire mapping image, and it can be easily identified which part of the mapping image is greatly displaced. Therefore, when changing the position of the target point on the image composite map, it is possible to easily find a position where the deviation is reduced over the entire mapping image.

本発明の第三の態様による監視装置は、上記構成に加え、ユーザ操作に基づいて、上記画像合成地図における上記マッピング画像の透明度を調整する透明度調整手段を備えて構成される。この様な構成によれば、カメラ画像及び平面地図の明るさやコントラストに応じてマッピング画像の透明度を調整することにより、第1キャリブレーションの上述した精度検証を容易化することができるとともに、画像合成地図上で目標点の位置を変更する際に適切な位置を容易に見つけることができる。   The monitoring apparatus according to the third aspect of the present invention is configured to include a transparency adjusting means for adjusting the transparency of the mapping image in the image composite map based on a user operation in addition to the above configuration. According to such a configuration, the above-described accuracy verification of the first calibration can be facilitated by adjusting the transparency of the mapping image in accordance with the brightness and contrast of the camera image and the planar map, and image synthesis is performed. An appropriate position can be easily found when changing the position of the target point on the map.

本発明の第四の態様による監視装置は、上記構成に加え、上記カメラ画像に対し、レンズ歪みを補正する歪み補正変換を行う歪み補正手段と、ユーザ操作に基づいて、上記歪み補正変換の変換係数を調整する補正係数調整手段とを備え、上記射影変換手段が、上記歪み補正手段による歪み補正変換後のカメラ画像に対し、上記射影変換を行うように構成される。   In addition to the above-described configuration, the monitoring device according to the fourth aspect of the present invention includes a distortion correction unit that performs distortion correction conversion for correcting lens distortion, and conversion of the distortion correction conversion based on a user operation. Correction coefficient adjusting means for adjusting the coefficient, and the projective conversion means is configured to perform the projective conversion on the camera image after the distortion correction conversion by the distortion correction means.

この様な構成によれば、カメラ画像の歪み具合に応じて歪み補正変換の変換係数を調整することにより、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度をさらに向上させることができる。   According to such a configuration, the accuracy of camera calibration between the camera image and the planar map can be further improved by adjusting the conversion coefficient of the distortion correction conversion according to the degree of distortion of the camera image.

本発明の第五の態様による監視装置の制御プログラムは、カメラ撮影されたカメラ画像を平面地図上に表示する監視装置の制御プログラムであって、上記平面地図に対し、上記カメラ画像を射影変換し、マッピング画像を生成する射影変換手順と、上記平面地図及び上記マッピング画像を合成した画像合成地図を生成する画像合成手順と、上記カメラ画像上の予め指定された2以上の参照点、及び、上記平面地図上の予め指定された2以上の目標点に基づいて、上記参照点を対応する上記目標点に一致させる上記射影変換の変換係数を求める第1キャリブレーション手順と、上記目標点と共に上記画像合成地図を表示する合成地図表示手順と、ユーザ操作に基づいて、上記目標点の位置を変更する目標点変更手順と、上記目標点変更手順における変更後の目標点に基づいて、上記変換係数を補正する第2キャリブレーション手順とにより構成される。   A control program for a monitoring apparatus according to a fifth aspect of the present invention is a control program for a monitoring apparatus that displays a camera image captured by a camera on a planar map, and performs projective transformation of the camera image on the planar map. A projective transformation procedure for generating a mapping image, an image synthesis procedure for generating an image synthesis map obtained by synthesizing the planar map and the mapping image, two or more reference points designated in advance on the camera image, and the above A first calibration procedure for obtaining a conversion coefficient of the projective transformation for matching the reference point with the corresponding target point based on two or more target points specified in advance on a planar map, and the image together with the target point A composite map display procedure for displaying a composite map, a target point change procedure for changing the position of the target point based on a user operation, and a target point change procedure described above. Based on the target point after the change that, constituted by a second calibration procedure to correct the conversion factor.

本発明による監視装置では、ユーザが画像合成地図上の目標点を変更すれば、射影変換の変換係数が補正されるので、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度を向上させることができる。また、本発明による制御プログラムでは、コンピュータを上述した様な監視装置として機能させることができる。   In the monitoring apparatus according to the present invention, if the user changes the target point on the image composite map, the conversion coefficient of the projective transformation is corrected, so that the accuracy of camera calibration between the camera image and the planar map can be improved. . In addition, the control program according to the present invention allows a computer to function as a monitoring device as described above.

本発明の実施の形態による監視装置10を含む監視システム1の一構成例を示したシステム図である。1 is a system diagram showing a configuration example of a monitoring system 1 including a monitoring device 10 according to an embodiment of the present invention. 図1の監視装置10内の機能構成の一例を示したブロック図である。It is the block diagram which showed an example of the function structure in the monitoring apparatus 10 of FIG. 図2の監視装置10の動作の一例を示した図であり、ディスプレイ装置11上に表示されるカメラ画像13及びマップ画像14が示されている。FIG. 3 is a diagram illustrating an example of the operation of the monitoring device 10 in FIG. 2, in which a camera image 13 and a map image 14 displayed on the display device 11 are illustrated. 図2の監視装置10の動作の一例を示した図であり、マップ画像14及びマッピング画像15を合成した画像合成地図16が示されている。FIG. 3 is a diagram illustrating an example of the operation of the monitoring apparatus 10 in FIG. 2, and an image synthesis map 16 in which a map image 14 and a mapping image 15 are synthesized is illustrated. 図2の監視装置10の動作の一例を示した図であり、ディスプレイ装置11上に表示されるカメラ設定画面30が示されている。FIG. 3 is a diagram illustrating an example of the operation of the monitoring device 10 in FIG. 2, and shows a camera setting screen 30 displayed on the display device 11. 図2の監視装置10の動作の一例を示した図であり、第1キャリブレーション後に表示される精度検証画面40が示されている。FIG. 3 is a diagram showing an example of the operation of the monitoring apparatus 10 in FIG. 2, and shows an accuracy verification screen 40 displayed after the first calibration. 図2の監視装置10の動作の一例を示した図であり、マッピング画像15の透明度を50%にした場合が示されている。It is the figure which showed an example of operation | movement of the monitoring apparatus 10 of FIG. 2, and the case where the transparency of the mapping image 15 is 50% is shown. 図2の監視装置10の動作の一例を示した図であり、マップ画像14及びマッピング画像15間で特徴部分の位置にずれが生じている場合が示されている。FIG. 3 is a diagram showing an example of the operation of the monitoring apparatus 10 in FIG.

<監視システム1>
図1は、本発明の実施の形態による監視装置10を含む監視システム1の一構成例を示したシステム図である。この監視システム1は、2以上の監視カメラ2と、これらの監視カメラ2がLAN(ローカルエリアネットワーク)20を介して接続され、カメラ撮影されたカメラ画像を平面地図上に表示する監視装置10とからなる。
<Monitoring system 1>
FIG. 1 is a system diagram showing a configuration example of a monitoring system 1 including a monitoring device 10 according to an embodiment of the present invention. The monitoring system 1 includes two or more monitoring cameras 2 and a monitoring device 10 that connects these monitoring cameras 2 via a LAN (local area network) 20 and displays a camera image captured by the camera on a planar map. Consists of.

監視カメラ2は、被写体を撮影し、カメラ画像を生成する撮像装置であり、LAN20を介してエリア監視装置10へ画像データを送信する機能を有する。例えば、カメラ画像は、リアルタイムの動画像からなり、ライブ映像として送信される。監視カメラ2は、屋外又は屋内のいずれにも設置可能であり、屋外設置の場合は、地面、舗装道路の路面などの水平面に向けて設置され、水平面上の移動体が撮影される。移動体には、人や自動車がある。屋内設置の場合には、床面などの水平面に向けて設置される。例えば、監視カメラ2は、向き及び撮影倍率が固定された固定カメラである。   The monitoring camera 2 is an imaging device that captures a subject and generates a camera image, and has a function of transmitting image data to the area monitoring device 10 via the LAN 20. For example, the camera image consists of a real-time moving image and is transmitted as a live video. The surveillance camera 2 can be installed either outdoors or indoors. In the case of outdoor installation, the surveillance camera 2 is installed toward a horizontal plane such as the ground or a road surface of a paved road, and a moving body on the horizontal plane is photographed. Mobile objects include people and cars. In the case of indoor installation, it is installed facing the horizontal surface such as the floor. For example, the surveillance camera 2 is a fixed camera with a fixed orientation and shooting magnification.

監視装置10は、監視カメラ2から取得したカメラ画像や平面地図を表示するディスプレイ装置11と、ユーザ操作を受け付ける操作部12とを備えた端末装置であり、カメラ画像を用いてエリア監視を行うとともに、LAN20上の監視カメラ2を制御する機能を有する。操作部12は、マウスやキーボードからなる。   The monitoring device 10 is a terminal device that includes a display device 11 that displays a camera image or a planar map acquired from the monitoring camera 2 and an operation unit 12 that receives a user operation, and performs area monitoring using the camera image. And has a function of controlling the surveillance camera 2 on the LAN 20. The operation unit 12 includes a mouse and a keyboard.

この監視装置10は、カメラマップ表示機能、検知物体マッピング機能及び複数映像統合機能を有する。カメラマップ表示機能は、平面地図上に監視カメラ2の位置及び撮影範囲を表示する機能である。検知物体マッピング機能は、カメラ画像を解析して移動体を検知し、検知した移動体やその軌跡を平面地図上にリアルタイムに表示する機能である。   The monitoring device 10 has a camera map display function, a detected object mapping function, and a plurality of video integration functions. The camera map display function is a function for displaying the position and shooting range of the monitoring camera 2 on a planar map. The detected object mapping function is a function that detects a moving object by analyzing a camera image, and displays the detected moving object and its trajectory on a planar map in real time.

複数映像統合機能は、カメラ画像に対し、当該カメラ画像上の位置を平面地図上の位置に対応づける射影変換を行ってマッピング画像を生成し、このマッピング画像及び平面地図を合成した画像合成地図を表示する機能である。例えば、2以上の監視カメラ2から取得した複数のカメラ画像を共通の平面地図に埋め込んだ画像合成地図を表示することができる。この様な画像合成地図を閲覧すれば、複数の監視カメラ2の撮影範囲を跨って移動する移動体を容易に監視し、或いは、追跡することができる。   The multiple video integration function generates a mapping image by performing projective transformation that associates a position on the camera image with a position on the plane map for the camera image, and generates an image composite map obtained by combining the mapping image and the plane map. It is a function to display. For example, an image composite map in which a plurality of camera images acquired from two or more surveillance cameras 2 are embedded in a common plane map can be displayed. By browsing such an image composite map, it is possible to easily monitor or track a moving body that moves across the imaging ranges of the plurality of monitoring cameras 2.

検知物体マッピング機能や複数映像統合機能を実現するには、カメラ画像及び平面地図間において位置情報を互いに対応づけるカメラキャリブレーションを行う必要がある。監視装置10では、ユーザがカメラ画像上の2以上の参照点と平面地図上の2以上の目標点とをそれぞれ指定するとともに、これらの位置情報をカメラ画像及び平面地図間で互いに関連づけることによってカメラキャリブレーションが行われ、上記射影変換の変換係数が求められる。   In order to realize the detected object mapping function and the multiple video integration function, it is necessary to perform camera calibration that associates position information with each other between the camera image and the planar map. In the monitoring device 10, the user designates two or more reference points on the camera image and two or more target points on the planar map, and associates the positional information between the camera image and the planar map to each other. Calibration is performed to obtain a conversion coefficient of the projective transformation.

<監視装置10>
図2は、図1の監視装置10内の機能構成の一例を示したブロック図である。この監視装置10は、ディスプレイ装置11、地図情報記憶部101、設定画面表示部102、射影変換部103、画像合成部104、変換係数記憶部105,113、位置指定部106、位置情報記憶部107、第1キャリブレーション部108、目標点変更部109、第2キャリブレーション部110、透明度調整部111、歪み補正部112及び補正係数調整部114により構成される。
<Monitoring device 10>
FIG. 2 is a block diagram illustrating an example of a functional configuration in the monitoring apparatus 10 of FIG. The monitoring device 10 includes a display device 11, a map information storage unit 101, a setting screen display unit 102, a projection conversion unit 103, an image composition unit 104, conversion coefficient storage units 105 and 113, a position designation unit 106, and a position information storage unit 107. , A first calibration unit 108, a target point changing unit 109, a second calibration unit 110, a transparency adjusting unit 111, a distortion correcting unit 112, and a correction coefficient adjusting unit 114.

例えば、監視装置10は、制御プログラムに基づいてコンピュータを動作させることにより実現することができる。また、その様な制御プログラムは、CD−ROMなどのコンピュータ読み取り可能な記録媒体に記録して提供され、或いは、ネットワークを介して提供される。   For example, the monitoring device 10 can be realized by operating a computer based on a control program. Further, such a control program is provided by being recorded on a computer-readable recording medium such as a CD-ROM or provided via a network.

地図情報記憶部101には、平面地図を画面表示するための地図情報が保持される。例えば、上空から撮影された静止画像からなるマップ画像が平面地図として用いられる。平面地図には、マップ画像のように撮影画像からなるものの他に、建物の輪郭線、道路の境界線、駐車区画を示すペイント線などの図形のみで構成されるものや、図形と建物、構造物などを示すシンボルとで構成されるものを用いることができる。   The map information storage unit 101 holds map information for displaying a planar map on the screen. For example, a map image made up of still images taken from above is used as a planar map. In addition to the map image, which consists of captured images, the planar map is composed only of figures such as building outlines, road boundaries, and paint lines indicating parking spaces, as well as figures and buildings and structures. A symbol composed of a symbol indicating an object or the like can be used.

設定画面表示部102は、カメラキャリブレーションのためのカメラ設定画面をディスプレイ装置11上に表示する。カメラ設定画面は、監視カメラ2から取得したカメラ画像と、地図情報記憶部101内に保持されているマップ画像とを並べて表示し、参照点及び目標点の位置指定を受け付ける校正用入力画面である。   The setting screen display unit 102 displays a camera setting screen for camera calibration on the display device 11. The camera setting screen is a calibration input screen that displays the camera image acquired from the monitoring camera 2 and the map image stored in the map information storage unit 101 side by side, and receives the designation of the reference point and the target point. .

射影変換部103は、平面地図に対し、カメラ画像を射影変換し、平面地図に貼り付けるためのマッピング画像を生成するマッピング画像生成部である。この射影変換は、カメラ画像上の2以上の参照点を平面地図上の2以上の目標点に対応づけることにより、カメラ画像における水平面上の任意の幾何形状を平面地図に一致させる幾何変換である。   The projective conversion unit 103 is a mapping image generation unit that performs projective conversion of a camera image on a planar map and generates a mapping image to be pasted on the planar map. This projective transformation is a geometric transformation in which two or more reference points on the camera image are associated with two or more target points on the planar map so that an arbitrary geometric shape on the horizontal plane in the camera image matches the planar map. .

例えば、カメラ画像上にx軸及びy軸からなる座標軸を定め、参照点の位置を(x,y)と表し、また、平面地図上にX軸及びY軸からなる座標軸を定め、目標点の位置を(X,Y)と表せば、カメラ画像の射影変換は、次式(1)により表される。
X=(ax+by+c)/(ax+by+c
Y=(ax+by+c)/(ax+by+c) ・・・(1)
For example, a coordinate axis composed of an x-axis and a y-axis is defined on the camera image, the position of the reference point is represented as (x, y), a coordinate axis composed of the X-axis and the Y-axis is defined on the plane map, and the target point If the position is expressed as (X, Y), the projective transformation of the camera image is expressed by the following equation (1).
X = (a 1 x + b 1 y + c 1 ) / (a 3 x + b 3 y + c 3 )
Y = (a 2 x + b 2 y + c 2 ) / (a 3 x + b 3 y + c 3 ) (1)

上式(1)には、射影変換の変換係数を表す9つのパラメータa〜a,b〜b,c〜cが含まれている。上式(1)は、パラメータa〜cのうちのゼロでないパラメータ、例えば、cで分母子を除算しても数式の関係は変わらない。そこで、c=1と固定すれば、残りの独立変数は8個である。従って、8つのパラメータa〜a,b〜b,c,cを指定することにより、1つの射影変換が決定される。変換係数記憶部105には、この様な射影変換を規定するパラメータが保持される。 The above equation (1) includes nine parameters a 1 to a 3 , b 1 to b 3 , and c 1 to c 3 representing the conversion coefficients of the projective transformation. In the above equation (1), even if the denominator is divided by a non-zero parameter among the parameters a 3 to c 3 , for example, c 3 , the relationship of the equation does not change. Therefore, if c 3 = 1 is fixed, the remaining independent variables are eight. Accordingly, one projective transformation is determined by designating the eight parameters a 1 to a 3 , b 1 to b 3 , c 1 and c 2 . The conversion coefficient storage unit 105 holds parameters that define such projective transformation.

画像合成部104は、地図情報記憶部101内に保持されている平面地図と、射影変換部103により生成されたマッピング画像とを合成した画像合成地図を生成する合成地図生成部である。具体的には、マッピング画像を平面地図上に重畳させることにより、画像合成地図を生成する。ディスプレイ装置11は、目標点と共に画像合成地図を表示する。   The image composition unit 104 is a composite map generation unit that generates an image composite map obtained by combining the planar map stored in the map information storage unit 101 and the mapping image generated by the projective conversion unit 103. Specifically, an image composite map is generated by superimposing a mapping image on a planar map. The display device 11 displays the image composite map together with the target points.

位置指定部106は、ユーザ操作に基づいて、カメラ画像上の2以上の参照点と、平面地図上の2以上の目標点とをそれぞれ指定するとともに、これらの位置情報をカメラ画像及び平面地図間で互いに関連づける。位置情報記憶部107には、参照点及び目標点の位置情報と、関連づけの情報とが保持される。   The position designating unit 106 designates two or more reference points on the camera image and two or more target points on the planar map based on a user operation, and the position information is assigned between the camera image and the planar map. To associate with each other. The position information storage unit 107 holds position information of reference points and target points and association information.

第1キャリブレーション部108は、位置情報記憶部107内に保持されている参照点及び目標点の位置情報と関連づけの情報とに基づいて、参照点を対応する目標点に一致させる射影変換の変換係数を求めるカメラ画像校正部である。どの3点も同一直線上にない4つの参照点と、対応する4つの目標点とが指定されれば、変換係数を求めることができる。   The first calibration unit 108 performs projective transformation to match the reference point with the corresponding target point based on the reference point and the position information of the target point and the association information held in the position information storage unit 107. It is a camera image proofreading part which calculates | requires a coefficient. If four reference points where none of the three points are on the same straight line and four corresponding target points are designated, a conversion coefficient can be obtained.

具体的には、参照点及び目標点の各組合せに対し、数式(1)を用いれば、8つの方程式が導出される。すなわち、1組の参照点と目標点とで、x及びy座標に関して2つの方程式が立てられるので、合計4組の参照点及び目標点から8つの方程式が得られる。これらの方程式を連立させて解くことにより、8つのパラメータa〜a,b〜b,c,cを求めることができる。カメラキャリブレーションによって求められた変換係数を用いて射影変換を行うことにより、カメラ画像上の任意の位置が平面地図上の位置に対応づけられたマッピング画像をカメラ画像から得ることができる。 Specifically, using Equation (1) for each combination of reference points and target points, eight equations are derived. That is, since two equations are established for the x and y coordinates with a set of reference points and target points, eight equations are obtained from a total of four sets of reference points and target points. Eight parameters a 1 to a 3 , b 1 to b 3 , c 1 and c 2 can be obtained by solving these equations simultaneously. By performing projective transformation using the transformation coefficient obtained by camera calibration, a mapping image in which an arbitrary position on the camera image is associated with a position on the planar map can be obtained from the camera image.

ここで、2以上の監視カメラ2からカメラ画像を取得し、これらのカメラ画像を共通の平面地図上に埋め込んで画像合成地図を作成する場合、射影変換の変換係数は、監視カメラ2ごとに求められる。また、画像合成部104は、複数のマッピング画像を共通の平面地図上に重畳させて画像合成地図を生成する。   Here, when camera images are acquired from two or more surveillance cameras 2 and these camera images are embedded on a common plane map to create an image composite map, a conversion coefficient for projective transformation is obtained for each surveillance camera 2. It is done. In addition, the image composition unit 104 generates an image composition map by superimposing a plurality of mapping images on a common plane map.

目標点変更部109は、ユーザ操作に基づいて、目標点の位置を変更し、位置情報記憶部107内に保持されている目標点の位置情報を更新する位置情報編集部である。この目標点変更部109は、ユーザ操作に基づいて、画像合成地図上における目標点の変更に伴う参照点の変更を受け付け、位置情報記憶部107内に保持されている参照点の位置情報を更新する。   The target point changing unit 109 is a position information editing unit that changes the position of the target point based on a user operation and updates the position information of the target point held in the position information storage unit 107. The target point changing unit 109 accepts a reference point change accompanying a change of the target point on the image composite map based on a user operation, and updates the position information of the reference point held in the position information storage unit 107. To do.

第2キャリブレーション部110は、目標点変更部109による変更後の目標点に基づいて、射影変換の変換係数を補正し、変換係数記憶部105内に保持されているパラメータを更新するカメラ画像校正部である。なお、第1キャリブレーションや第2キャリブレーションに用いるカメラ画像には、ライブ映像に代えて、ライブ映像を構成する静止画像や、ライブ映像とは別個に撮影された静止画像を用いることができる。   The second calibration unit 110 corrects the transformation coefficient of the projective transformation based on the target point changed by the target point changing unit 109, and updates the parameters held in the transformation coefficient storage unit 105. Part. In addition, as a camera image used for the first calibration and the second calibration, a still image constituting the live video or a still image taken separately from the live video can be used instead of the live video.

透明度調整部111は、ユーザ操作に基づいて、画像合成地図におけるマッピング画像の透明度を調整する。画像合成部104は、透明化したマッピング画像を平面地図上に重畳させた画像合成地図を生成する。ディスプレイ装置11には、マッピング画像が透明化された画像合成地図が表示される。   The transparency adjustment unit 111 adjusts the transparency of the mapping image in the image composite map based on a user operation. The image composition unit 104 generates an image composition map in which the transparent mapping image is superimposed on the planar map. The display device 11 displays an image composite map in which the mapping image is made transparent.

歪み補正部112は、監視カメラ2から取得したカメラ画像に対し、レンズ歪みを補正する歪み補正変換を行い、歪み補正変換後のカメラ画像を設定画面表示部102及び射影変換部103へ出力する画像処理部である。レンズ歪みは、光学レンズの径方向の歪み(歪曲収差)である。   The distortion correction unit 112 performs distortion correction conversion for correcting lens distortion on the camera image acquired from the monitoring camera 2, and outputs the camera image after distortion correction conversion to the setting screen display unit 102 and the projection conversion unit 103. It is a processing unit. Lens distortion is radial distortion (distortion aberration) of an optical lens.

例えば、カメラ画像上にx軸及びy軸からなる座標軸を定め、光学レンズの中心軸の位置に対応するカメラ画像上の位置を原点として、歪み補正変換前後のカメラ画像上の位置をそれぞれ(x,y)、(x,y)と表せば、カメラ画像の歪み補正変換は、次式(2)により表される。
=(1+k+k)×x
=(1+k+k)×y ・・・(2)
=x +y
For example, a coordinate axis composed of an x-axis and a y-axis is defined on the camera image, and the position on the camera image before and after the distortion correction conversion is defined as (x) with the position on the camera image corresponding to the position of the central axis of the optical lens as the origin. 1 , y 1 ), (x 2 , y 2 ), camera image distortion correction conversion is expressed by the following equation (2).
x 2 = (1 + k 1 r 2 + k 2 r 4 ) × x 1
y 2 = (1 + k 1 r 2 + k 2 r 4 ) × y 1 (2)
r 2 = x 1 2 + y 1 2

上式(2)には、歪み補正変換の変換係数を表す2つのパラメータk,kが含まれている。これらのパラメータk,kを指定することにより、歪み補正変換が決定される。ただし、レンズ歪みは、パラメータkが実際的には支配的であることから、レンズ歪みの補正は、パラメータkのみを調整することにより、簡易的に行うことが可能である。そこで、本実施の形態では、パラメータkのみを変更可能とし、パラメータkを固定し、或いは、無視して上式(2)を用いることにより、歪み補正変換が行われる。変換係数記憶部113には、この様な歪み補正変換を規定するパラメータが保持される。補正係数調整部114は、ユーザ操作に基づいて、歪み補正変換の変換係数を調整し、変換係数記憶部113内に保持されているパラメータを更新する。 The above equation (2) includes two parameters k 1 and k 2 representing conversion coefficients for distortion correction conversion. By specifying these parameters k 1 and k 2 , distortion correction conversion is determined. However, the lens distortion, since the parameter k 1 is practical to dominant, correction of lens distortion, by adjusting only the parameters k 1, can be performed in a simplified manner. Therefore, in the present embodiment, only the parameter k 1 can be changed, and the parameter k 2 is fixed or ignored, and the distortion correction conversion is performed by using the above equation (2). The conversion coefficient storage unit 113 holds parameters that define such distortion correction conversion. The correction coefficient adjustment unit 114 adjusts the conversion coefficient of the distortion correction conversion based on the user operation, and updates the parameter held in the conversion coefficient storage unit 113.

<カメラ画像13及びマップ画像14>
図3は、図2の監視装置10の動作の一例を示した図であり、ディスプレイ装置11上に表示されるカメラ画像13及びマップ画像14が示されている。図中の(a)には、監視カメラ2から取得したカメラ画像13が示され、(b)には、マップ画像14が示されている。
<Camera image 13 and map image 14>
FIG. 3 is a diagram illustrating an example of the operation of the monitoring device 10 in FIG. 2, and shows a camera image 13 and a map image 14 displayed on the display device 11. In the figure, (a) shows a camera image 13 acquired from the surveillance camera 2, and (b) shows a map image 14.

監視カメラ2は、屋外、例えば、建物の屋上に設置され、路面上の移動体を撮影する。このカメラ画像13には、舗装道路13a、建物13b、駐車区画内に停車中の自動車13cなどが撮影されている。第1キャリブレーションのための参照点4には、マップ画像14との対応づけが容易なカメラ画像13上の特徴部分が指定される。   The surveillance camera 2 is installed outdoors, for example, on the rooftop of a building, and images a moving body on the road surface. In this camera image 13, a paved road 13a, a building 13b, a car 13c stopped in the parking area, and the like are photographed. For the reference point 4 for the first calibration, a characteristic portion on the camera image 13 that can be easily associated with the map image 14 is designated.

例えば、駐車区画を示すペイント線の角(かど)部、建物13bの角、街路灯などの構造物の根元等が参照点4として指定される。参照点4の指定は、マウスポインタ6をカメラ画像13上で移動させて位置を指示することにより行われる。具体的には、カメラ画像13の中央に4つの参照点4を頂点とする矩形がデフォルト設定として表示され、ドラッグ操作により参照点4を所望の位置まで移動させる。   For example, the corner of the paint line indicating the parking area, the corner of the building 13b, the base of a structure such as a street light, etc. are designated as the reference point 4. The reference point 4 is designated by moving the mouse pointer 6 on the camera image 13 to indicate the position. Specifically, a rectangle having four reference points 4 as vertices is displayed as a default setting in the center of the camera image 13, and the reference point 4 is moved to a desired position by a drag operation.

マップ画像14は、監視カメラ2の撮影範囲の一部又は全部を含む平面地図であり、路面上の建物13bや構造物を鉛直方向の上方向から見た様子が描画されている。このマップ画像14には、建物13b、走行車線、駐車区画、監視カメラ2の撮影方向を表す図形と、監視カメラ2の設置位置を示すシンボル3とが描画されている。   The map image 14 is a planar map that includes a part or all of the shooting range of the surveillance camera 2, and depicts a state in which the building 13b and the structure on the road surface are viewed from above in the vertical direction. In this map image 14, a figure representing the building 13 b, the traveling lane, the parking area, the shooting direction of the monitoring camera 2, and the symbol 3 indicating the installation position of the monitoring camera 2 are drawn.

目標点5には、参照点4に対応するマップ画像14上の位置が指定される。目標点5の指定は、マウスポインタ6をマップ画像14上で移動させて位置を指示することにより行われる。第1キャリブレーションは、参照点4及び目標点5からなる4つの組合せに基づいて、射影変換の変換係数を求めることにより行われる。   For the target point 5, a position on the map image 14 corresponding to the reference point 4 is designated. The target point 5 is designated by moving the mouse pointer 6 on the map image 14 to indicate the position. The first calibration is performed by obtaining transformation coefficients for projective transformation based on four combinations of the reference point 4 and the target point 5.

カメラ画像13上において、2つの参照点4を結ぶ線分(図中では、破線により表示)上にマウスポインタ6を合わせ、クリック操作を行えば、参照点4を追加することができる。参照点4を追加した場合、参照点4及び目標点5からなる5以上の組合せに基づいて射影変換の変換係数を求めることになる。例えば、5以上の組合せから4つの組合せを抽出して変換係数を求めることを繰り返し、得られた変換係数から統計的手法を用いて変換係数の最適値又は平均値が算出される。   On the camera image 13, the reference point 4 can be added by placing the mouse pointer 6 on a line segment connecting the two reference points 4 (indicated by a broken line in the figure) and performing a click operation. When the reference point 4 is added, the conversion coefficient of the projective transformation is obtained based on a combination of 5 or more including the reference point 4 and the target point 5. For example, it is repeated that four combinations are extracted from five or more combinations to obtain conversion coefficients, and an optimal value or average value of the conversion coefficients is calculated from the obtained conversion coefficients using a statistical method.

なお、ここでは、参照点4及び目標点5からなる4つの組合せ又は5以上の組合せを指定することにより、射影変換の変換係数が求められるものとして説明した。しかし、ユーザがカメラ画像13やマップ画像14上で指定する参照点4や目標点5の個数はこれに限定されるものではない。例えば、監視カメラ2の水平面(路面)からの高さ、仰俯角方向の角度が既知である場合や、水平面上の基準とするマーク、構造物がカメラ画像上の特定の位置に撮影されるように、監視カメラ2の位置、向きが予め調整されている場合には、ユーザが指定する参照点4や目標点5の個数は4未満であっても良い。つまり、撮影状況が限定的であれば、ユーザが2つ又は3つの参照点4又は目標点5を指定することにより、射影変換の変換係数が決定される場合もある。   Here, it has been described that the transformation coefficient of the projective transformation is obtained by designating four combinations of the reference point 4 and the target point 5 or five or more combinations. However, the number of reference points 4 and target points 5 specified by the user on the camera image 13 or the map image 14 is not limited to this. For example, when the height of the surveillance camera 2 from the horizontal plane (road surface) and the angle in the elevation angle direction are known, a reference mark or structure on the horizontal plane is photographed at a specific position on the camera image. In addition, when the position and orientation of the monitoring camera 2 are adjusted in advance, the number of reference points 4 and target points 5 designated by the user may be less than 4. In other words, if the shooting situation is limited, the conversion coefficient of the projective transformation may be determined by the user specifying two or three reference points 4 or target points 5.

<画像合成地図16>
図4は、図2の監視装置10の動作の一例を示した図であり、マップ画像14及びマッピング画像15を合成した画像合成地図16が示されている。マッピング画像15は、カメラ画像13に対し、射影変換を行うことによって作成される。すなわち、カメラ画像13における任意の画素の位置情報が、射影変換によってマップ画像14における画素の位置情報に変換される。
<Image Composite Map 16>
FIG. 4 is a diagram showing an example of the operation of the monitoring apparatus 10 of FIG. 2, and shows an image synthesis map 16 in which the map image 14 and the mapping image 15 are synthesized. The mapping image 15 is created by performing projective transformation on the camera image 13. That is, the position information of an arbitrary pixel in the camera image 13 is converted into the position information of the pixel in the map image 14 by projective transformation.

この射影変換では、路面上の幾何学的な形状がマップ画像14に合わせ込まれる。このため、舗装道路や駐車区画のペイント線、舗装道路の境界線といった路面近傍の静止物は、その形状が真上から見た場合の形状に変換され、マップ画像14における形状と一致する。   In this projective transformation, the geometric shape on the road surface is adjusted to the map image 14. For this reason, a stationary object in the vicinity of the road surface, such as a paint line of a paved road or a parking area, or a boundary line of the paved road, is converted into a shape when viewed from directly above and matches the shape in the map image 14.

一方、路面から高さ方向に突出した静止物や移動体は、その形状が路面に射影した形状に変換され、歪んで見える。画像合成地図16は、マッピング画像15における任意の画素をマップ画像14上の対応する位置に配置することにより、マッピング画像15をマップ画像14上に重畳させた合成画像として作成される。この様な画像合成地図16をディスプレイ装置11上に表示することにより、ユーザは、マッピング画像15及びマップ画像14間において特徴部分の位置にずれがあるか否か、また、ずれがある場合にずれの大きさや方向を容易に認識することができる。   On the other hand, a stationary object or moving body protruding in the height direction from the road surface is transformed into a shape projected onto the road surface and appears distorted. The image composite map 16 is created as a composite image in which the mapping image 15 is superimposed on the map image 14 by arranging arbitrary pixels in the mapping image 15 at corresponding positions on the map image 14. By displaying such an image composite map 16 on the display device 11, the user can determine whether or not there is a shift in the position of the feature portion between the mapping image 15 and the map image 14, and if there is a shift, Can be easily recognized.

<カメラ設定画面30>
図5は、図2の監視装置10の動作の一例を示した図であり、ディスプレイ装置11上に表示されるカメラ設定画面30が示されている。カメラ設定画面30は、カメラキャリブレーションのための校正用入力画面であり、カメラ画像13の表示領域31と、歪み補正調整用のスライダー32と、マップ画像14の表示領域33と、参照点4及び目標点5の表示ボタン34とが配置されている。
<Camera setting screen 30>
FIG. 5 is a diagram illustrating an example of the operation of the monitoring device 10 of FIG. 2, and shows a camera setting screen 30 displayed on the display device 11. The camera setting screen 30 is a calibration input screen for camera calibration, and includes a display area 31 for the camera image 13, a slider 32 for adjusting distortion correction, a display area 33 for the map image 14, the reference point 4, and A display button 34 for the target point 5 is arranged.

スライダー32を操作することにより、表示領域31内のカメラ画像13に対し、レンズ歪みを補正する歪み補正変換の変換係数を調整することができる。歪み補正変換の変換係数は、補正量=ゼロから補正量=上限値までの範囲内で調整することができる。補正量=0では、歪み補正変換を行わず、カメラ画像13が歪み補正部112をスルーして射影変換部103に入力される。一方、補正量=上限値では、歪み補正変換を規定するパラメータkが最大になる。 By operating the slider 32, the conversion coefficient of the distortion correction conversion for correcting the lens distortion can be adjusted for the camera image 13 in the display area 31. The conversion coefficient of the distortion correction conversion can be adjusted within a range from correction amount = zero to correction amount = upper limit value. When the correction amount = 0, the distortion correction conversion is not performed, and the camera image 13 passes through the distortion correction unit 112 and is input to the projection conversion unit 103. On the other hand, when the correction amount is equal to the upper limit value, the parameter k 1 that defines the distortion correction conversion is maximized.

カメラのレンズ収差に起因してカメラ画像13にはレンズ歪みがある。特に、広角レンズを使用した監視カメラ2の場合、カメラ画像13の中央部に比べ、周縁部の歪みが大きい。このため、水平面上の直線は、カメラ画像13の周縁部において曲がって映し出される。この様なカメラ画像13上に撮影されている幾何学的な形状の歪みは、スライダー32を操作して補正量を調整することにより、除去することができる。   The camera image 13 has lens distortion due to camera lens aberration. In particular, in the case of the surveillance camera 2 using a wide-angle lens, the distortion at the peripheral edge is larger than that at the center of the camera image 13. For this reason, the straight line on the horizontal plane is bent and projected at the peripheral edge of the camera image 13. Such distortion of the geometric shape photographed on the camera image 13 can be removed by operating the slider 32 and adjusting the correction amount.

表示ボタン34を操作すれば、第1キャリブレーション用の参照点4及び目標点5をカメラ画像13及びマップ画像14上にそれぞれ表示させることができる。カメラ画像13を歪み補正してから参照点4を指定し、第1キャリブレーションを行うことにより、第1キャリブレーションの精度を向上させることができる。   By operating the display button 34, the reference point 4 and the target point 5 for the first calibration can be displayed on the camera image 13 and the map image 14, respectively. The accuracy of the first calibration can be improved by specifying the reference point 4 after correcting the distortion of the camera image 13 and performing the first calibration.

<精度検証画面40>
図6は、図2の監視装置10の動作の一例を示した図であり、第1キャリブレーション後に表示される精度検証画面40が示されている。また、図7は、図2の監視装置10の動作の一例を示した図であり、マッピング画像15の透明度を50%にした場合が示されている。
<Accuracy verification screen 40>
FIG. 6 is a diagram illustrating an example of the operation of the monitoring apparatus 10 in FIG. 2, and shows an accuracy verification screen 40 displayed after the first calibration. FIG. 7 is a diagram showing an example of the operation of the monitoring apparatus 10 of FIG. 2, and shows a case where the transparency of the mapping image 15 is 50%.

この精度検証画面40は、カメラ画像13及びマップ画像14間における位置情報の対応づけの精度を検証するためのカメラキャリブレーション編集画面であり、カメラ画像13の表示領域41と、画像合成地図16の表示領域42と、マッピング画像15の透明度調整用のスライダー43と、修正キャリブレーションボタン44とが配置されている。   This accuracy verification screen 40 is a camera calibration editing screen for verifying the accuracy of the correspondence between the position information between the camera image 13 and the map image 14. The display area 41 of the camera image 13 and the image composite map 16 A display area 42, a slider 43 for adjusting the transparency of the mapping image 15, and a correction calibration button 44 are arranged.

スライダー43を操作することにより、表示領域42内の画像合成地図16に対し、マッピング画像15の透明度を調整することができる。マッピング画像15の透明度は、透明度=100%から透明度=0%までの範囲内で調整することができる。透明度=100%では、マッピング画像15が完全に透明であり、マップ画像14の全体を視認することができる。一方、透明度=0%では、マッピング画像15が完全に不透明であり、マッピング画像15との重複部分について、マップ画像14を視認することができない。   By operating the slider 43, the transparency of the mapping image 15 can be adjusted with respect to the image composite map 16 in the display area 42. The transparency of the mapping image 15 can be adjusted within a range from transparency = 100% to transparency = 0%. When the transparency is 100%, the mapping image 15 is completely transparent, and the entire map image 14 can be visually recognized. On the other hand, when the transparency is 0%, the mapping image 15 is completely opaque, and the map image 14 cannot be visually recognized with respect to the overlapping portion with the mapping image 15.

透明度を50%程度にすれば、マッピング画像15は半透明な状態である。この様に透明化したマッピング画像15がマップ画像14上に重畳された画像合成地図16を表示することにより、透明化したマッピング画像15を介してマップ画像14上の表示オブジェクトが認識可能になるので、マッピング画像15及びマップ画像14間で特徴部分のずれ具合を容易に認識することができる。   If the transparency is about 50%, the mapping image 15 is translucent. The display object on the map image 14 can be recognized through the transparent mapping image 15 by displaying the image composite map 16 in which the transparent mapping image 15 is superimposed on the map image 14 in this way. Thus, it is possible to easily recognize the deviation of the feature portion between the mapping image 15 and the map image 14.

表示領域41には、第1キャリブレーションにおいて使用した複数の参照点4がカメラ画像13と共に表示されている。また、表示領域42には、第1キャリブレーションにおいて使用した複数の目標点5が画像合成地図16と共に表示されている。そこで、マップ画像14及びマッピング画像15間で特徴部分の位置にずれが生じていれば、マウスポインタ6を移動させて、カメラ画像13上の参照点4の位置と、画像合成地図16上の目標点5の位置とを変更することができる。   In the display area 41, a plurality of reference points 4 used in the first calibration are displayed together with the camera image 13. In the display area 42, a plurality of target points 5 used in the first calibration are displayed together with the image composite map 16. Therefore, if there is a shift in the position of the feature portion between the map image 14 and the mapping image 15, the mouse pointer 6 is moved, and the position of the reference point 4 on the camera image 13 and the target on the image composite map 16 are moved. The position of the point 5 can be changed.

図8は、図2の監視装置10の動作の一例を示した図であり、マップ画像14及びマッピング画像15間で特徴部分の位置にずれが生じている場合が示されている。監視カメラ2から所定の距離の水平面に関し、カメラ画像13上における水平面内の幾何形状は、カメラ画像13のレンズ歪みに起因して、実際の幾何形状と異なっている。また、監視カメラ2から水平面上の参照点4までの実際の距離に応じてカメラ画像13の分解能が異なることから、監視カメラ2から遠い参照点4の位置情報には、大きな誤差が含まれる。さらに、位置情報から射影変換の変換係数を求める際のデジタル演算には、計算誤差が含まれる。   FIG. 8 is a diagram illustrating an example of the operation of the monitoring apparatus 10 in FIG. 2, and illustrates a case where the position of the characteristic portion is shifted between the map image 14 and the mapping image 15. Regarding the horizontal plane at a predetermined distance from the monitoring camera 2, the geometric shape in the horizontal plane on the camera image 13 is different from the actual geometric shape due to lens distortion of the camera image 13. Further, since the resolution of the camera image 13 varies depending on the actual distance from the monitoring camera 2 to the reference point 4 on the horizontal plane, the position information of the reference point 4 far from the monitoring camera 2 includes a large error. Further, the digital calculation when obtaining the conversion coefficient of the projective transformation from the position information includes a calculation error.

このため、画像合成地図16において、マッピング画像15上の特徴部分の位置と、マップ画像14上の対応する特徴部分の位置との間に、ずれが生じる場合がある。この例では、建物13bの角(かど)の位置がマッピング画像15とマップ画像14との間で大きくずれている。この様なずれは、透明化したマッピング画像15が埋め込まれた画像合成地図16を閲覧することにより、容易に識別することができる。   For this reason, in the image composition map 16, there may be a deviation between the position of the feature portion on the mapping image 15 and the position of the corresponding feature portion on the map image 14. In this example, the position of the corner (corner) of the building 13 b is greatly shifted between the mapping image 15 and the map image 14. Such a shift can be easily identified by browsing the image composite map 16 in which the transparent mapping image 15 is embedded.

第1キャリブレーションは、駐車区画を示すペイント線を目印にして参照点4及び目標点5を指定することにより行われた。この第1キャリブレーションでは、駐車区画付近ではずれが少ないが、カメラ画像13の周縁部に撮影されている建物13bの角ではずれが大きいことが、画像合成地図16から容易に確認できる。建物13bの角のずれが大きいのは、レンズ歪みや計算誤差の影響である。   The first calibration was performed by designating the reference point 4 and the target point 5 using the paint line indicating the parking area as a mark. In the first calibration, it can be easily confirmed from the image composite map 16 that there is little deviation in the vicinity of the parking section, but that the deviation is large at the corner of the building 13b photographed at the periphery of the camera image 13. The large deviation of the corner of the building 13b is due to the influence of lens distortion and calculation error.

そこで、画像合成地図16上で駐車区画内の目標点5の位置を微調整し、或いは、カメラ画像13上で駐車区画内の参照点4の位置を微調整し、第2キャリブレーションを行う。第2キャリブレーションは、精度検証画面40内の修正キャリブレーションボタン44を操作することにより実行され、射影変換の変換係数が補正される。この修正キャリブレーションの後、建物13bの角のずれ具合も、画像合成地図16によって容易に確認することができる。この様な修正キャリブレーションを繰り返すことにより、第1キャリブレーションにおいて使用した4点以外の地点についても位置ずれが減少し、マッピング画像15の全体にわたってマップ画像14との位置ずれを少なくすることができる。   Therefore, the second calibration is performed by finely adjusting the position of the target point 5 in the parking area on the image composite map 16 or finely adjusting the position of the reference point 4 in the parking area on the camera image 13. The second calibration is executed by operating the correction calibration button 44 in the accuracy verification screen 40, and the conversion coefficient of the projective transformation is corrected. After this correction calibration, the angle deviation of the building 13b can also be easily confirmed by the image composite map 16. By repeating such correction calibration, the positional deviation is reduced at points other than the four points used in the first calibration, and the positional deviation from the map image 14 can be reduced over the entire mapping image 15. .

さらに、必要であれば、建物13bの角付近に目標点5を追加指定し、カメラ画像13上にも対応する参照点4を指定し、参照点4及び目標点5の5つの組によって修正キャリブレーションを行うこともできる。なお、参照点4又は目標点5が変更されれば、修正キャリブレーションを自動的に実行するような構成であっても良い。   Further, if necessary, the target point 5 is additionally specified near the corner of the building 13b, the corresponding reference point 4 is also specified on the camera image 13, and the correction calibration is performed by the five sets of the reference point 4 and the target point 5. Can also be performed. If the reference point 4 or the target point 5 is changed, the correction calibration may be automatically executed.

本実施の形態によれば、第1キャリブレーションによって求められた変換係数を用いて射影変換を行うことにより、カメラ画像13上の任意の位置が平面地図上の位置に対応づけられたマッピング画像15をカメラ画像13から得ることができる。その様なマッピング画像15と平面地図とを合成した画像合成地図16を表示することにより、第1キャリブレーションの精度検証を容易化することができる。また、第1キャリブレーションに対する精度検証の結果、ユーザが画像合成地図16上の目標点5の位置を変更すれば、射影変換の変換係数が補正されるので、カメラ画像13及び平面地図間におけるカメラキャリブレーションの精度を向上させることができる。   According to the present embodiment, by performing projective transformation using the transformation coefficient obtained by the first calibration, the mapping image 15 in which an arbitrary position on the camera image 13 is associated with a position on the planar map. Can be obtained from the camera image 13. By displaying the image composite map 16 in which such a mapping image 15 and the planar map are combined, the accuracy verification of the first calibration can be facilitated. Further, if the user changes the position of the target point 5 on the image composite map 16 as a result of the accuracy verification for the first calibration, the conversion coefficient of the projective transformation is corrected, so that the camera between the camera image 13 and the planar map is corrected. Calibration accuracy can be improved.

さらに、透明化したマッピング画像15を介して平面地図上の表示オブジェクトが認識可能になるので、マッピング画像15及び平面地図間で特徴部分のずれ具合を容易に認識することができる。また、カメラ画像13及び平面地図の明るさやコントラストに応じてマッピング画像15の透明度を調整することにより、第1キャリブレーションの精度検証を容易化することができるとともに、画像合成地図16上で目標点5の位置を変更する際に適切な位置を容易に見つけることができる。   Furthermore, since the display object on the planar map can be recognized via the transparent mapping image 15, it is possible to easily recognize the deviation of the feature portion between the mapping image 15 and the planar map. Further, by adjusting the transparency of the mapping image 15 according to the brightness and contrast of the camera image 13 and the planar map, the accuracy verification of the first calibration can be facilitated, and the target point on the image composite map 16 can be obtained. When changing the position of 5, an appropriate position can be easily found.

なお、本実施の形態では、マッピング画像15を平面地図上に重畳させて画像合成地図16が作成される場合の例について説明したが、本発明は平面地図及びマッピング画像を合成した画像合成地図の構成をこれに限定するものではない。例えば、平面地図が図形又はシンボルからなる場合や、透明化した平面地図を用いる場合には、平面地図をマッピング画像上に重畳させることによって画像合成地図が形成されるような構成であっても良い。   In the present embodiment, an example in which the image composite map 16 is created by superimposing the mapping image 15 on the plane map has been described. However, the present invention is an image composite map obtained by combining the plane map and the mapping image. The configuration is not limited to this. For example, when the planar map is composed of figures or symbols, or when a transparent planar map is used, the configuration may be such that the image composite map is formed by superimposing the planar map on the mapping image. .

また、本実施の形態では、第1キャリブレーションに使用する参照点4及び目標点5の位置をユーザが指定する場合の例について説明したが、本発明は参照点4及び目標点5の指定方法をこれに限定するものではない。例えば、カメラ画像13及びマップ画像14から特徴部分を自動抽出し、抽出された特徴部分に基づいて参照点4及び目標点5を指定するような構成であっても良い。   In the present embodiment, an example in which the user specifies the positions of the reference point 4 and the target point 5 used for the first calibration has been described. However, the present invention describes a method for specifying the reference point 4 and the target point 5. However, the present invention is not limited to this. For example, the configuration may be such that a feature portion is automatically extracted from the camera image 13 and the map image 14 and the reference point 4 and the target point 5 are designated based on the extracted feature portion.

画像上の特徴部分には、エッジや、2つのエッジが交差したコーナーがあり、輝度分布や輝度の変化率に基づいて抽出される。また、カメラ画像13やマップ画像14から抽出したエッジやコーナーを画像合成地図16上に表示することにより、マッピング画像15及びマップ画像14間で特徴部分のずれ具合を容易に認識することができる。   The feature portion on the image includes an edge and a corner where two edges intersect, and is extracted based on the luminance distribution and the luminance change rate. Further, by displaying the edges and corners extracted from the camera image 13 and the map image 14 on the image composite map 16, it is possible to easily recognize the deviation of the feature portion between the mapping image 15 and the map image 14.

また、カメラ画像13から抽出したエッジやコーナーの位置と、マップ画像14から抽出したエッジやコーナーの位置との間でずれがあれば、カメラ画像13とマップ画像14との合致度合をユーザに認識させるために、エッジやコーナーを表すシンボルの表示態様、例えば、色をずれの大きさに応じて異ならせるような構成であっても良い。   In addition, if there is a deviation between the edge or corner position extracted from the camera image 13 and the edge or corner position extracted from the map image 14, the user recognizes the degree of match between the camera image 13 and the map image 14. In order to achieve this, a display mode of symbols representing edges and corners, for example, a configuration in which the color is varied depending on the magnitude of the shift may be used.

また、本実施の形態では、監視装置10がディスプレイ装置11及び操作部12を備えた端末装置からなる場合の例について説明したが、本発明は監視装置10の構成をこれに限定するものではない。例えば、監視カメラ2からカメラ画像を取得して処理する演算装置と、カメラ画像や処理結果を表示し、ユーザ操作を受け付ける端末装置とが、インターネットなどの通信ネットワークを介して接続された監視システムにも本発明は適用することができる。   In the present embodiment, an example in which the monitoring device 10 includes a terminal device including the display device 11 and the operation unit 12 has been described. However, the present invention does not limit the configuration of the monitoring device 10. . For example, a computing device that acquires and processes camera images from the monitoring camera 2 and a terminal device that displays camera images and processing results and receives user operations are connected to a monitoring system connected via a communication network such as the Internet. The present invention can also be applied.

1 監視システム
2 監視カメラ
4 参照点
5 目標点
6 マウスポインタ
10 監視装置
11 ディスプレイ装置
12 操作部
13 カメラ画像
14 マップ画像
15 マッピング画像
16 画像合成地図
101 地図情報記憶部
102 設定画面表示部
103 射影変換部
104 画像合成部
105,113 変換係数記憶部
106 位置指定部
107 位置情報記憶部
108 第1キャリブレーション部
109 目標点変更部
110 第2キャリブレーション部
111 透明度調整部
112 歪み補正部
114 補正係数調整部
20 LAN
DESCRIPTION OF SYMBOLS 1 Monitoring system 2 Monitoring camera 4 Reference point 5 Target point 6 Mouse pointer 10 Monitoring apparatus 11 Display apparatus 12 Operation part 13 Camera image 14 Map image 15 Mapping image 16 Image composite map 101 Map information storage part 102 Setting screen display part 103 Projection conversion Unit 104 image composition unit 105, 113 conversion coefficient storage unit 106 position designation unit 107 position information storage unit 108 first calibration unit 109 target point change unit 110 second calibration unit 111 transparency adjustment unit 112 distortion correction unit 114 correction coefficient adjustment Part 20 LAN

Claims (5)

カメラ撮影されたカメラ画像を平面地図上に表示する監視装置において、
上記平面地図に対し、上記カメラ画像を射影変換し、マッピング画像を生成する射影変換手段と、
上記平面地図及び上記マッピング画像を合成した画像合成地図を生成する画像合成手段と、
上記カメラ画像上の予め指定された2以上の参照点、及び、上記平面地図上の予め指定された2以上の目標点に基づいて、上記参照点を対応する上記目標点に一致させる上記射影変換の変換係数を求める第1キャリブレーション手段と、
上記目標点と共に上記画像合成地図を表示する合成地図表示手段と、
ユーザ操作に基づいて、上記目標点の位置を変更する目標点変更手段と、
上記目標点変更手段による変更後の目標点に基づいて、上記変換係数を補正する第2キャリブレーション手段とを備えたことを特徴とする監視装置。
In a monitoring device that displays a camera image captured by a camera on a planar map,
Projective transformation means for projectively transforming the camera image with respect to the planar map to generate a mapping image;
Image synthesis means for generating an image synthesis map obtained by synthesizing the planar map and the mapping image;
The projective transformation for matching the reference point with the corresponding target point based on the two or more reference points specified in advance on the camera image and the two or more target points specified in advance on the planar map. First calibration means for obtaining a conversion coefficient of
Synthetic map display means for displaying the image composite map together with the target point;
Target point changing means for changing the position of the target point based on a user operation;
A monitoring apparatus comprising: second calibration means for correcting the conversion coefficient based on the target point changed by the target point changing means.
上記画像合成手段は、透明化した上記マッピング画像を上記平面地図上に重畳させた画像合成地図を生成することを特徴とする請求項1に記載の監視装置。   The monitoring apparatus according to claim 1, wherein the image composition unit generates an image composition map obtained by superimposing the transparent mapping image on the planar map. ユーザ操作に基づいて、上記画像合成地図における上記マッピング画像の透明度を調整する透明度調整手段を備えたことを特徴とする請求項2に記載の監視装置。   The monitoring apparatus according to claim 2, further comprising: a transparency adjusting unit that adjusts transparency of the mapping image in the image composite map based on a user operation. 上記カメラ画像に対し、レンズ歪みを補正する歪み補正変換を行う歪み補正手段と、
ユーザ操作に基づいて、上記歪み補正変換の変換係数を調整する補正係数調整手段とを備え、
上記射影変換手段は、上記歪み補正手段による歪み補正変換後のカメラ画像に対し、上記射影変換を行うことを特徴とする請求項1〜3のいずれかに記載の監視装置。
Distortion correction means for performing distortion correction conversion for correcting lens distortion for the camera image;
Correction coefficient adjusting means for adjusting the conversion coefficient of the distortion correction conversion based on a user operation,
The monitoring apparatus according to claim 1, wherein the projective conversion unit performs the projective conversion on the camera image after the distortion correction conversion by the distortion correction unit.
カメラ撮影されたカメラ画像を平面地図上に表示する監視装置の制御プログラムであって、
上記平面地図に対し、上記カメラ画像を射影変換し、マッピング画像を生成する射影変換手順と、
上記平面地図及び上記マッピング画像を合成した画像合成地図を生成する画像合成手順と、
上記カメラ画像上の予め指定された2以上の参照点、及び、上記平面地図上の予め指定された2以上の目標点に基づいて、上記参照点を対応する上記目標点に一致させる上記射影変換の変換係数を求める第1キャリブレーション手順と、
上記目標点と共に上記画像合成地図を表示する合成地図表示手順と、
ユーザ操作に基づいて、上記目標点の位置を変更する目標点変更手順と、
上記目標点変更手順における変更後の目標点に基づいて、上記変換係数を補正する第2キャリブレーション手順とをコンピュータに実行させることを特徴とする監視装置の制御プログラム。
A control program for a monitoring device for displaying a camera image taken by a camera on a planar map,
Projection conversion procedure for projectively converting the camera image to generate a mapping image for the planar map,
An image synthesis procedure for generating an image synthesis map obtained by synthesizing the planar map and the mapping image;
The projective transformation for matching the reference point with the corresponding target point based on the two or more reference points specified in advance on the camera image and the two or more target points specified in advance on the planar map. A first calibration procedure for obtaining a conversion coefficient of
A composite map display procedure for displaying the image composite map together with the target point;
A target point changing procedure for changing the position of the target point based on a user operation;
A control program for a monitoring apparatus, which causes a computer to execute a second calibration procedure for correcting the conversion coefficient based on the target point after the change in the target point changing procedure.
JP2013159987A 2013-07-31 2013-07-31 Monitoring device and monitoring device control program Active JP6022423B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013159987A JP6022423B2 (en) 2013-07-31 2013-07-31 Monitoring device and monitoring device control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013159987A JP6022423B2 (en) 2013-07-31 2013-07-31 Monitoring device and monitoring device control program

Publications (2)

Publication Number Publication Date
JP2015032069A JP2015032069A (en) 2015-02-16
JP6022423B2 true JP6022423B2 (en) 2016-11-09

Family

ID=52517350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013159987A Active JP6022423B2 (en) 2013-07-31 2013-07-31 Monitoring device and monitoring device control program

Country Status (1)

Country Link
JP (1) JP6022423B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7363750B2 (en) 2020-11-19 2023-10-18 トヨタ車体株式会社 Vehicle body water drainage structure

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833366B2 (en) * 2016-07-06 2021-02-24 キヤノン株式会社 Information processing device, control method and program of information processing device
US20220284599A1 (en) * 2019-09-04 2022-09-08 Nec Corporation Position estimating method, position estimating system, and position estimating apparatus
CN114266876B (en) 2021-11-30 2023-03-28 北京百度网讯科技有限公司 Positioning method, visual map generation method and device
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319218A (en) * 2000-02-29 2001-11-16 Hitachi Ltd Image monitoring device
JP4424031B2 (en) * 2004-03-30 2010-03-03 株式会社日立製作所 Image generating apparatus, system, or image composition method.
JP4874280B2 (en) * 2008-03-19 2012-02-15 三洋電機株式会社 Image processing apparatus and method, driving support system, and vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7363750B2 (en) 2020-11-19 2023-10-18 トヨタ車体株式会社 Vehicle body water drainage structure

Also Published As

Publication number Publication date
JP2015032069A (en) 2015-02-16

Similar Documents

Publication Publication Date Title
US10366477B2 (en) Image processing apparatus and image processing method
US10602102B2 (en) Projection system, image processing apparatus, projection method
US9818377B2 (en) Projection system, image processing apparatus, and correction method
US9706135B2 (en) Method and apparatus for generating an image cut-out
CN108475437B (en) 360 degree look-around system for vehicle with corner-mounted camera, calibration system and method
CN105979234B (en) A kind of method and projection arrangement of projection image correction
JP4637845B2 (en) Geometric correction method in multi-projection system
JP6022423B2 (en) Monitoring device and monitoring device control program
JP4268206B2 (en) Fisheye lens camera device and image distortion correction method thereof
JP5491235B2 (en) Camera calibration device
JP4243767B2 (en) Fisheye lens camera device and image extraction method thereof
US9349157B2 (en) Method and apparatus for controlling a virtual camera
US8491128B2 (en) System and method for projection correction by capturing projection image
CN105308503A (en) System and method for calibrating a display system using a short throw camera
JP2015056834A (en) Projection system, image processing system, projection method and program
JP2007183949A (en) Method and apparatus for providing panoramic view with improved image matching speed and blending method
JP2006060447A (en) Keystone correction using partial side of screen
CN111083457A (en) Method and device for correcting projection images of multiple light machines and projection instrument of multiple light machines
KR20160031966A (en) Muti-projection system and method for projector calibration thereof
JP2012142669A (en) Projection controller, projection system, test chart, and projection area determination method
GB2494697A (en) Viewing home decoration using markerless augmented reality
JP5959311B2 (en) Data deriving apparatus and data deriving method
JP2004015205A (en) Multi-projection system and correction data acquisition method in multi-projection system
JP2011228857A (en) Calibration device for on-vehicle camera
US20220006989A1 (en) Method for Automatically Restoring a Calibrated State of a Projection System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161005

R150 Certificate of patent or registration of utility model

Ref document number: 6022423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250