JP6022423B2 - Monitoring device and monitoring device control program - Google Patents
Monitoring device and monitoring device control program Download PDFInfo
- Publication number
- JP6022423B2 JP6022423B2 JP2013159987A JP2013159987A JP6022423B2 JP 6022423 B2 JP6022423 B2 JP 6022423B2 JP 2013159987 A JP2013159987 A JP 2013159987A JP 2013159987 A JP2013159987 A JP 2013159987A JP 6022423 B2 JP6022423 B2 JP 6022423B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- map
- camera
- target point
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 29
- 238000013507 mapping Methods 0.000 claims description 71
- 238000006243 chemical reaction Methods 0.000 claims description 67
- 238000012544 monitoring process Methods 0.000 claims description 53
- 238000012937 correction Methods 0.000 claims description 45
- 239000002131 composite material Substances 0.000 claims description 44
- 230000009466 transformation Effects 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 16
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 239000000203 mixture Substances 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 15
- 238000012795 verification Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 239000003973 paint Substances 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Description
本発明は、監視装置及び監視装置の制御プログラムに係り、さらに詳しくは、カメラ撮影されたカメラ画像を平面地図上に表示する監視装置の改良に関する。 The present invention relates to a monitoring apparatus and a control program for the monitoring apparatus, and more particularly to an improvement of a monitoring apparatus that displays a camera image captured by a camera on a planar map.
監視装置は、監視カメラによって撮影されたカメラ画像をモニター上に表示する端末装置であり、監視カメラの撮影範囲内を監視することができる。この様な監視装置には、平面地図上に監視カメラの位置及び撮影範囲を表示し、ユーザが平面地図上で設置位置を指定した監視カメラの向きや撮影倍率を制御するものがある。また、カメラ画像を射影変換してマッピング画像を生成し、このマッピング画像を平面地図上に重畳させた画像合成地図を表示することができる監視装置も知られている(例えば、特許文献1)。 The monitoring device is a terminal device that displays a camera image captured by the monitoring camera on the monitor, and can monitor the imaging range of the monitoring camera. Some of such monitoring devices display the position and shooting range of the monitoring camera on a planar map, and control the direction and shooting magnification of the monitoring camera for which the user has specified the installation position on the planar map. There is also known a monitoring device capable of generating a mapping image by projective transformation of a camera image and displaying an image composite map obtained by superimposing the mapping image on a planar map (for example, Patent Document 1).
通常、カメラ画像と平面地図とを合成する場合、カメラ画像上の位置と平面地図上の位置とを互いに対応づけるカメラキャリブレーションを行う必要がある。例えば、カメラキャリブレーションは、ユーザがカメラ画像上の複数の参照点と平面地図上の複数の目標点とをそれぞれ指定するとともに、これらの位置情報をカメラ画像及び平面地図間で互いに関連づけることによって行われ、上記射影変換の変換係数が求められる。 Normally, when combining a camera image and a planar map, it is necessary to perform camera calibration that associates a position on the camera image with a position on the planar map. For example, camera calibration is performed by a user specifying a plurality of reference points on a camera image and a plurality of target points on a planar map, and associating these positional information between the camera image and the planar map. Thus, a conversion coefficient of the projective conversion is obtained.
この様な従来の監視装置では、カメラキャリブレーションの精度が低いという問題があった。例えば、カメラのレンズ収差に起因してカメラ画像にはレンズ歪みがある。また、カメラから水平面上の参照点までの実際の距離に応じてカメラ画像の分解能が異なり、カメラから遠ざかるほど、参照点の位置情報に含まれる誤差が大きくなる。さらに、位置情報から変換係数を求める際のデジタル演算には、計算誤差が含まれる。これらの影響により、カメラキャリブレーションを正確に行うことは困難であった。 Such a conventional monitoring apparatus has a problem that the accuracy of camera calibration is low. For example, the camera image has lens distortion due to camera lens aberration. Further, the resolution of the camera image differs depending on the actual distance from the camera to the reference point on the horizontal plane, and the error included in the position information of the reference point increases as the distance from the camera increases. Furthermore, the digital calculation for obtaining the conversion coefficient from the position information includes a calculation error. Due to these effects, it has been difficult to accurately perform camera calibration.
本発明は、上記事情に鑑みてなされたものであり、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度を向上させることができる監視装置を提供することを目的とする。また、本発明は、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度を向上させた監視装置の制御プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a monitoring device capable of improving the accuracy of camera calibration between a camera image and a planar map. It is another object of the present invention to provide a monitoring apparatus control program that improves the accuracy of camera calibration between a camera image and a planar map.
本発明の第一の態様による監視装置は、カメラ撮影されたカメラ画像を平面地図上に表示する監視装置であって、上記平面地図に対し、上記カメラ画像を射影変換し、マッピング画像を生成する射影変換手段と、上記平面地図及び上記マッピング画像を合成した画像合成地図を生成する画像合成手段と、上記カメラ画像上の予め指定された2以上の参照点、及び、上記平面地図上の予め指定された2以上の目標点に基づいて、上記参照点を対応する上記目標点に一致させる上記射影変換の変換係数を求める第1キャリブレーション手段と、上記目標点と共に上記画像合成地図を表示する合成地図表示手段と、ユーザ操作に基づいて、上記目標点の位置を変更する目標点変更手段と、上記目標点変更手段による変更後の目標点に基づいて、上記変換係数を補正する第2キャリブレーション手段とを備えて構成される。 A monitoring device according to a first aspect of the present invention is a monitoring device that displays a camera image captured by a camera on a planar map, and performs projective transformation on the planar map to generate a mapping image. Projection transformation means, image synthesis means for generating an image synthesis map obtained by synthesizing the planar map and the mapping image, two or more reference points designated in advance on the camera image, and designation in advance on the planar map First calibration means for obtaining a conversion coefficient of the projective transformation for matching the reference point with the corresponding target point based on the two or more target points, and a composition for displaying the image composition map together with the target point Based on the map display means, the target point changing means for changing the position of the target point based on the user operation, and the target point after the change by the target point changing means, Constructed a second calibration means for correcting the 換係 number.
この監視装置では、第1キャリブレーションによって求められた変換係数を用いて射影変換を行うことにより、カメラ画像上の任意の位置が平面地図上の位置に対応づけられたマッピング画像をカメラ画像から得ることができる。その様なマッピング画像と平面地図とを合成した画像合成地図を表示することにより、ユーザは、マッピング画像及び平面地図間において特徴部分の位置にずれがあるか否か、また、ずれがある場合にずれの大きさや方向を容易に認識することができる。この様な第1キャリブレーションに対する精度検証の結果、ユーザが画像合成地図上の目標点の位置を変更すれば、射影変換の変換係数が補正されるので、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度を向上させることができる。 In this monitoring device, by performing projective transformation using the transformation coefficient obtained by the first calibration, a mapping image in which an arbitrary position on the camera image is associated with a position on the planar map is obtained from the camera image. be able to. By displaying an image composite map in which such a mapping image and a plane map are combined, the user can determine whether or not there is a shift in the position of the feature portion between the mapping image and the plane map. The magnitude and direction of the deviation can be easily recognized. If the user changes the position of the target point on the image composite map as a result of the accuracy verification for the first calibration, the conversion coefficient of the projective transformation is corrected, so that the camera calibration between the camera image and the planar map is performed. Accuracy can be improved.
本発明の第二の態様による監視装置は、上記構成に加え、上記画像合成手段が、透明化した上記マッピング画像を上記平面地図上に重畳させた画像合成地図を生成するように構成される。この様な構成によれば、透明化したマッピング画像を介して平面地図上の表示オブジェクトが認識可能になるので、マッピング画像及び平面地図間で特徴部分のずれ具合を容易に認識することができる。 In addition to the above-described configuration, the monitoring apparatus according to the second aspect of the present invention is configured such that the image synthesis unit generates an image synthesis map in which the transparent mapping image is superimposed on the planar map. According to such a configuration, the display object on the planar map can be recognized via the transparent mapping image, so that the degree of shift of the feature portion can be easily recognized between the mapping image and the planar map.
特に、マッピング画像の全体にわたってずれ具合を認識でき、マッピング画像上のどの辺りが大きくずれているのかといったことを容易に識別することができる。従って、画像合成地図上で目標点の位置を変更する際に、マッピング画像の全体にわたってずれが小さくなるような位置を容易に見つけることができる。 In particular, the degree of displacement can be recognized over the entire mapping image, and it can be easily identified which part of the mapping image is greatly displaced. Therefore, when changing the position of the target point on the image composite map, it is possible to easily find a position where the deviation is reduced over the entire mapping image.
本発明の第三の態様による監視装置は、上記構成に加え、ユーザ操作に基づいて、上記画像合成地図における上記マッピング画像の透明度を調整する透明度調整手段を備えて構成される。この様な構成によれば、カメラ画像及び平面地図の明るさやコントラストに応じてマッピング画像の透明度を調整することにより、第1キャリブレーションの上述した精度検証を容易化することができるとともに、画像合成地図上で目標点の位置を変更する際に適切な位置を容易に見つけることができる。 The monitoring apparatus according to the third aspect of the present invention is configured to include a transparency adjusting means for adjusting the transparency of the mapping image in the image composite map based on a user operation in addition to the above configuration. According to such a configuration, the above-described accuracy verification of the first calibration can be facilitated by adjusting the transparency of the mapping image in accordance with the brightness and contrast of the camera image and the planar map, and image synthesis is performed. An appropriate position can be easily found when changing the position of the target point on the map.
本発明の第四の態様による監視装置は、上記構成に加え、上記カメラ画像に対し、レンズ歪みを補正する歪み補正変換を行う歪み補正手段と、ユーザ操作に基づいて、上記歪み補正変換の変換係数を調整する補正係数調整手段とを備え、上記射影変換手段が、上記歪み補正手段による歪み補正変換後のカメラ画像に対し、上記射影変換を行うように構成される。 In addition to the above-described configuration, the monitoring device according to the fourth aspect of the present invention includes a distortion correction unit that performs distortion correction conversion for correcting lens distortion, and conversion of the distortion correction conversion based on a user operation. Correction coefficient adjusting means for adjusting the coefficient, and the projective conversion means is configured to perform the projective conversion on the camera image after the distortion correction conversion by the distortion correction means.
この様な構成によれば、カメラ画像の歪み具合に応じて歪み補正変換の変換係数を調整することにより、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度をさらに向上させることができる。 According to such a configuration, the accuracy of camera calibration between the camera image and the planar map can be further improved by adjusting the conversion coefficient of the distortion correction conversion according to the degree of distortion of the camera image.
本発明の第五の態様による監視装置の制御プログラムは、カメラ撮影されたカメラ画像を平面地図上に表示する監視装置の制御プログラムであって、上記平面地図に対し、上記カメラ画像を射影変換し、マッピング画像を生成する射影変換手順と、上記平面地図及び上記マッピング画像を合成した画像合成地図を生成する画像合成手順と、上記カメラ画像上の予め指定された2以上の参照点、及び、上記平面地図上の予め指定された2以上の目標点に基づいて、上記参照点を対応する上記目標点に一致させる上記射影変換の変換係数を求める第1キャリブレーション手順と、上記目標点と共に上記画像合成地図を表示する合成地図表示手順と、ユーザ操作に基づいて、上記目標点の位置を変更する目標点変更手順と、上記目標点変更手順における変更後の目標点に基づいて、上記変換係数を補正する第2キャリブレーション手順とにより構成される。 A control program for a monitoring apparatus according to a fifth aspect of the present invention is a control program for a monitoring apparatus that displays a camera image captured by a camera on a planar map, and performs projective transformation of the camera image on the planar map. A projective transformation procedure for generating a mapping image, an image synthesis procedure for generating an image synthesis map obtained by synthesizing the planar map and the mapping image, two or more reference points designated in advance on the camera image, and the above A first calibration procedure for obtaining a conversion coefficient of the projective transformation for matching the reference point with the corresponding target point based on two or more target points specified in advance on a planar map, and the image together with the target point A composite map display procedure for displaying a composite map, a target point change procedure for changing the position of the target point based on a user operation, and a target point change procedure described above. Based on the target point after the change that, constituted by a second calibration procedure to correct the conversion factor.
本発明による監視装置では、ユーザが画像合成地図上の目標点を変更すれば、射影変換の変換係数が補正されるので、カメラ画像及び平面地図間におけるカメラキャリブレーションの精度を向上させることができる。また、本発明による制御プログラムでは、コンピュータを上述した様な監視装置として機能させることができる。 In the monitoring apparatus according to the present invention, if the user changes the target point on the image composite map, the conversion coefficient of the projective transformation is corrected, so that the accuracy of camera calibration between the camera image and the planar map can be improved. . In addition, the control program according to the present invention allows a computer to function as a monitoring device as described above.
<監視システム1>
図1は、本発明の実施の形態による監視装置10を含む監視システム1の一構成例を示したシステム図である。この監視システム1は、2以上の監視カメラ2と、これらの監視カメラ2がLAN(ローカルエリアネットワーク)20を介して接続され、カメラ撮影されたカメラ画像を平面地図上に表示する監視装置10とからなる。
<Monitoring system 1>
FIG. 1 is a system diagram showing a configuration example of a monitoring system 1 including a
監視カメラ2は、被写体を撮影し、カメラ画像を生成する撮像装置であり、LAN20を介してエリア監視装置10へ画像データを送信する機能を有する。例えば、カメラ画像は、リアルタイムの動画像からなり、ライブ映像として送信される。監視カメラ2は、屋外又は屋内のいずれにも設置可能であり、屋外設置の場合は、地面、舗装道路の路面などの水平面に向けて設置され、水平面上の移動体が撮影される。移動体には、人や自動車がある。屋内設置の場合には、床面などの水平面に向けて設置される。例えば、監視カメラ2は、向き及び撮影倍率が固定された固定カメラである。
The
監視装置10は、監視カメラ2から取得したカメラ画像や平面地図を表示するディスプレイ装置11と、ユーザ操作を受け付ける操作部12とを備えた端末装置であり、カメラ画像を用いてエリア監視を行うとともに、LAN20上の監視カメラ2を制御する機能を有する。操作部12は、マウスやキーボードからなる。
The
この監視装置10は、カメラマップ表示機能、検知物体マッピング機能及び複数映像統合機能を有する。カメラマップ表示機能は、平面地図上に監視カメラ2の位置及び撮影範囲を表示する機能である。検知物体マッピング機能は、カメラ画像を解析して移動体を検知し、検知した移動体やその軌跡を平面地図上にリアルタイムに表示する機能である。
The
複数映像統合機能は、カメラ画像に対し、当該カメラ画像上の位置を平面地図上の位置に対応づける射影変換を行ってマッピング画像を生成し、このマッピング画像及び平面地図を合成した画像合成地図を表示する機能である。例えば、2以上の監視カメラ2から取得した複数のカメラ画像を共通の平面地図に埋め込んだ画像合成地図を表示することができる。この様な画像合成地図を閲覧すれば、複数の監視カメラ2の撮影範囲を跨って移動する移動体を容易に監視し、或いは、追跡することができる。
The multiple video integration function generates a mapping image by performing projective transformation that associates a position on the camera image with a position on the plane map for the camera image, and generates an image composite map obtained by combining the mapping image and the plane map. It is a function to display. For example, an image composite map in which a plurality of camera images acquired from two or
検知物体マッピング機能や複数映像統合機能を実現するには、カメラ画像及び平面地図間において位置情報を互いに対応づけるカメラキャリブレーションを行う必要がある。監視装置10では、ユーザがカメラ画像上の2以上の参照点と平面地図上の2以上の目標点とをそれぞれ指定するとともに、これらの位置情報をカメラ画像及び平面地図間で互いに関連づけることによってカメラキャリブレーションが行われ、上記射影変換の変換係数が求められる。
In order to realize the detected object mapping function and the multiple video integration function, it is necessary to perform camera calibration that associates position information with each other between the camera image and the planar map. In the
<監視装置10>
図2は、図1の監視装置10内の機能構成の一例を示したブロック図である。この監視装置10は、ディスプレイ装置11、地図情報記憶部101、設定画面表示部102、射影変換部103、画像合成部104、変換係数記憶部105,113、位置指定部106、位置情報記憶部107、第1キャリブレーション部108、目標点変更部109、第2キャリブレーション部110、透明度調整部111、歪み補正部112及び補正係数調整部114により構成される。
<Monitoring
FIG. 2 is a block diagram illustrating an example of a functional configuration in the
例えば、監視装置10は、制御プログラムに基づいてコンピュータを動作させることにより実現することができる。また、その様な制御プログラムは、CD−ROMなどのコンピュータ読み取り可能な記録媒体に記録して提供され、或いは、ネットワークを介して提供される。
For example, the
地図情報記憶部101には、平面地図を画面表示するための地図情報が保持される。例えば、上空から撮影された静止画像からなるマップ画像が平面地図として用いられる。平面地図には、マップ画像のように撮影画像からなるものの他に、建物の輪郭線、道路の境界線、駐車区画を示すペイント線などの図形のみで構成されるものや、図形と建物、構造物などを示すシンボルとで構成されるものを用いることができる。
The map
設定画面表示部102は、カメラキャリブレーションのためのカメラ設定画面をディスプレイ装置11上に表示する。カメラ設定画面は、監視カメラ2から取得したカメラ画像と、地図情報記憶部101内に保持されているマップ画像とを並べて表示し、参照点及び目標点の位置指定を受け付ける校正用入力画面である。
The setting
射影変換部103は、平面地図に対し、カメラ画像を射影変換し、平面地図に貼り付けるためのマッピング画像を生成するマッピング画像生成部である。この射影変換は、カメラ画像上の2以上の参照点を平面地図上の2以上の目標点に対応づけることにより、カメラ画像における水平面上の任意の幾何形状を平面地図に一致させる幾何変換である。
The
例えば、カメラ画像上にx軸及びy軸からなる座標軸を定め、参照点の位置を(x,y)と表し、また、平面地図上にX軸及びY軸からなる座標軸を定め、目標点の位置を(X,Y)と表せば、カメラ画像の射影変換は、次式(1)により表される。
X=(a1x+b1y+c1)/(a3x+b3y+c3)
Y=(a2x+b2y+c2)/(a3x+b3y+c3) ・・・(1)
For example, a coordinate axis composed of an x-axis and a y-axis is defined on the camera image, the position of the reference point is represented as (x, y), a coordinate axis composed of the X-axis and the Y-axis is defined on the plane map, and the target point If the position is expressed as (X, Y), the projective transformation of the camera image is expressed by the following equation (1).
X = (a 1 x + b 1 y + c 1 ) / (a 3 x + b 3 y + c 3 )
Y = (a 2 x + b 2 y + c 2 ) / (a 3 x + b 3 y + c 3 ) (1)
上式(1)には、射影変換の変換係数を表す9つのパラメータa1〜a3,b1〜b3,c1〜c3が含まれている。上式(1)は、パラメータa3〜c3のうちのゼロでないパラメータ、例えば、c3で分母子を除算しても数式の関係は変わらない。そこで、c3=1と固定すれば、残りの独立変数は8個である。従って、8つのパラメータa1〜a3,b1〜b3,c1,c2を指定することにより、1つの射影変換が決定される。変換係数記憶部105には、この様な射影変換を規定するパラメータが保持される。
The above equation (1) includes nine parameters a 1 to a 3 , b 1 to b 3 , and c 1 to c 3 representing the conversion coefficients of the projective transformation. In the above equation (1), even if the denominator is divided by a non-zero parameter among the parameters a 3 to c 3 , for example, c 3 , the relationship of the equation does not change. Therefore, if c 3 = 1 is fixed, the remaining independent variables are eight. Accordingly, one projective transformation is determined by designating the eight parameters a 1 to a 3 , b 1 to b 3 , c 1 and c 2 . The conversion
画像合成部104は、地図情報記憶部101内に保持されている平面地図と、射影変換部103により生成されたマッピング画像とを合成した画像合成地図を生成する合成地図生成部である。具体的には、マッピング画像を平面地図上に重畳させることにより、画像合成地図を生成する。ディスプレイ装置11は、目標点と共に画像合成地図を表示する。
The
位置指定部106は、ユーザ操作に基づいて、カメラ画像上の2以上の参照点と、平面地図上の2以上の目標点とをそれぞれ指定するとともに、これらの位置情報をカメラ画像及び平面地図間で互いに関連づける。位置情報記憶部107には、参照点及び目標点の位置情報と、関連づけの情報とが保持される。
The
第1キャリブレーション部108は、位置情報記憶部107内に保持されている参照点及び目標点の位置情報と関連づけの情報とに基づいて、参照点を対応する目標点に一致させる射影変換の変換係数を求めるカメラ画像校正部である。どの3点も同一直線上にない4つの参照点と、対応する4つの目標点とが指定されれば、変換係数を求めることができる。
The
具体的には、参照点及び目標点の各組合せに対し、数式(1)を用いれば、8つの方程式が導出される。すなわち、1組の参照点と目標点とで、x及びy座標に関して2つの方程式が立てられるので、合計4組の参照点及び目標点から8つの方程式が得られる。これらの方程式を連立させて解くことにより、8つのパラメータa1〜a3,b1〜b3,c1,c2を求めることができる。カメラキャリブレーションによって求められた変換係数を用いて射影変換を行うことにより、カメラ画像上の任意の位置が平面地図上の位置に対応づけられたマッピング画像をカメラ画像から得ることができる。 Specifically, using Equation (1) for each combination of reference points and target points, eight equations are derived. That is, since two equations are established for the x and y coordinates with a set of reference points and target points, eight equations are obtained from a total of four sets of reference points and target points. Eight parameters a 1 to a 3 , b 1 to b 3 , c 1 and c 2 can be obtained by solving these equations simultaneously. By performing projective transformation using the transformation coefficient obtained by camera calibration, a mapping image in which an arbitrary position on the camera image is associated with a position on the planar map can be obtained from the camera image.
ここで、2以上の監視カメラ2からカメラ画像を取得し、これらのカメラ画像を共通の平面地図上に埋め込んで画像合成地図を作成する場合、射影変換の変換係数は、監視カメラ2ごとに求められる。また、画像合成部104は、複数のマッピング画像を共通の平面地図上に重畳させて画像合成地図を生成する。
Here, when camera images are acquired from two or
目標点変更部109は、ユーザ操作に基づいて、目標点の位置を変更し、位置情報記憶部107内に保持されている目標点の位置情報を更新する位置情報編集部である。この目標点変更部109は、ユーザ操作に基づいて、画像合成地図上における目標点の変更に伴う参照点の変更を受け付け、位置情報記憶部107内に保持されている参照点の位置情報を更新する。
The target
第2キャリブレーション部110は、目標点変更部109による変更後の目標点に基づいて、射影変換の変換係数を補正し、変換係数記憶部105内に保持されているパラメータを更新するカメラ画像校正部である。なお、第1キャリブレーションや第2キャリブレーションに用いるカメラ画像には、ライブ映像に代えて、ライブ映像を構成する静止画像や、ライブ映像とは別個に撮影された静止画像を用いることができる。
The
透明度調整部111は、ユーザ操作に基づいて、画像合成地図におけるマッピング画像の透明度を調整する。画像合成部104は、透明化したマッピング画像を平面地図上に重畳させた画像合成地図を生成する。ディスプレイ装置11には、マッピング画像が透明化された画像合成地図が表示される。
The
歪み補正部112は、監視カメラ2から取得したカメラ画像に対し、レンズ歪みを補正する歪み補正変換を行い、歪み補正変換後のカメラ画像を設定画面表示部102及び射影変換部103へ出力する画像処理部である。レンズ歪みは、光学レンズの径方向の歪み(歪曲収差)である。
The
例えば、カメラ画像上にx軸及びy軸からなる座標軸を定め、光学レンズの中心軸の位置に対応するカメラ画像上の位置を原点として、歪み補正変換前後のカメラ画像上の位置をそれぞれ(x1,y1)、(x2,y2)と表せば、カメラ画像の歪み補正変換は、次式(2)により表される。
x2=(1+k1r2+k2r4)×x1
y2=(1+k1r2+k2r4)×y1 ・・・(2)
r2=x1 2+y1 2
For example, a coordinate axis composed of an x-axis and a y-axis is defined on the camera image, and the position on the camera image before and after the distortion correction conversion is defined as (x) with the position on the camera image corresponding to the position of the central axis of the optical lens as the origin. 1 , y 1 ), (x 2 , y 2 ), camera image distortion correction conversion is expressed by the following equation (2).
x 2 = (1 + k 1 r 2 + k 2 r 4 ) × x 1
y 2 = (1 + k 1 r 2 + k 2 r 4 ) × y 1 (2)
r 2 = x 1 2 + y 1 2
上式(2)には、歪み補正変換の変換係数を表す2つのパラメータk1,k2が含まれている。これらのパラメータk1,k2を指定することにより、歪み補正変換が決定される。ただし、レンズ歪みは、パラメータk1が実際的には支配的であることから、レンズ歪みの補正は、パラメータk1のみを調整することにより、簡易的に行うことが可能である。そこで、本実施の形態では、パラメータk1のみを変更可能とし、パラメータk2を固定し、或いは、無視して上式(2)を用いることにより、歪み補正変換が行われる。変換係数記憶部113には、この様な歪み補正変換を規定するパラメータが保持される。補正係数調整部114は、ユーザ操作に基づいて、歪み補正変換の変換係数を調整し、変換係数記憶部113内に保持されているパラメータを更新する。
The above equation (2) includes two parameters k 1 and k 2 representing conversion coefficients for distortion correction conversion. By specifying these parameters k 1 and k 2 , distortion correction conversion is determined. However, the lens distortion, since the parameter k 1 is practical to dominant, correction of lens distortion, by adjusting only the parameters k 1, can be performed in a simplified manner. Therefore, in the present embodiment, only the parameter k 1 can be changed, and the parameter k 2 is fixed or ignored, and the distortion correction conversion is performed by using the above equation (2). The conversion
<カメラ画像13及びマップ画像14>
図3は、図2の監視装置10の動作の一例を示した図であり、ディスプレイ装置11上に表示されるカメラ画像13及びマップ画像14が示されている。図中の(a)には、監視カメラ2から取得したカメラ画像13が示され、(b)には、マップ画像14が示されている。
<
FIG. 3 is a diagram illustrating an example of the operation of the
監視カメラ2は、屋外、例えば、建物の屋上に設置され、路面上の移動体を撮影する。このカメラ画像13には、舗装道路13a、建物13b、駐車区画内に停車中の自動車13cなどが撮影されている。第1キャリブレーションのための参照点4には、マップ画像14との対応づけが容易なカメラ画像13上の特徴部分が指定される。
The
例えば、駐車区画を示すペイント線の角(かど)部、建物13bの角、街路灯などの構造物の根元等が参照点4として指定される。参照点4の指定は、マウスポインタ6をカメラ画像13上で移動させて位置を指示することにより行われる。具体的には、カメラ画像13の中央に4つの参照点4を頂点とする矩形がデフォルト設定として表示され、ドラッグ操作により参照点4を所望の位置まで移動させる。
For example, the corner of the paint line indicating the parking area, the corner of the
マップ画像14は、監視カメラ2の撮影範囲の一部又は全部を含む平面地図であり、路面上の建物13bや構造物を鉛直方向の上方向から見た様子が描画されている。このマップ画像14には、建物13b、走行車線、駐車区画、監視カメラ2の撮影方向を表す図形と、監視カメラ2の設置位置を示すシンボル3とが描画されている。
The
目標点5には、参照点4に対応するマップ画像14上の位置が指定される。目標点5の指定は、マウスポインタ6をマップ画像14上で移動させて位置を指示することにより行われる。第1キャリブレーションは、参照点4及び目標点5からなる4つの組合せに基づいて、射影変換の変換係数を求めることにより行われる。
For the
カメラ画像13上において、2つの参照点4を結ぶ線分(図中では、破線により表示)上にマウスポインタ6を合わせ、クリック操作を行えば、参照点4を追加することができる。参照点4を追加した場合、参照点4及び目標点5からなる5以上の組合せに基づいて射影変換の変換係数を求めることになる。例えば、5以上の組合せから4つの組合せを抽出して変換係数を求めることを繰り返し、得られた変換係数から統計的手法を用いて変換係数の最適値又は平均値が算出される。
On the
なお、ここでは、参照点4及び目標点5からなる4つの組合せ又は5以上の組合せを指定することにより、射影変換の変換係数が求められるものとして説明した。しかし、ユーザがカメラ画像13やマップ画像14上で指定する参照点4や目標点5の個数はこれに限定されるものではない。例えば、監視カメラ2の水平面(路面)からの高さ、仰俯角方向の角度が既知である場合や、水平面上の基準とするマーク、構造物がカメラ画像上の特定の位置に撮影されるように、監視カメラ2の位置、向きが予め調整されている場合には、ユーザが指定する参照点4や目標点5の個数は4未満であっても良い。つまり、撮影状況が限定的であれば、ユーザが2つ又は3つの参照点4又は目標点5を指定することにより、射影変換の変換係数が決定される場合もある。
Here, it has been described that the transformation coefficient of the projective transformation is obtained by designating four combinations of the reference point 4 and the
<画像合成地図16>
図4は、図2の監視装置10の動作の一例を示した図であり、マップ画像14及びマッピング画像15を合成した画像合成地図16が示されている。マッピング画像15は、カメラ画像13に対し、射影変換を行うことによって作成される。すなわち、カメラ画像13における任意の画素の位置情報が、射影変換によってマップ画像14における画素の位置情報に変換される。
<
FIG. 4 is a diagram showing an example of the operation of the
この射影変換では、路面上の幾何学的な形状がマップ画像14に合わせ込まれる。このため、舗装道路や駐車区画のペイント線、舗装道路の境界線といった路面近傍の静止物は、その形状が真上から見た場合の形状に変換され、マップ画像14における形状と一致する。
In this projective transformation, the geometric shape on the road surface is adjusted to the
一方、路面から高さ方向に突出した静止物や移動体は、その形状が路面に射影した形状に変換され、歪んで見える。画像合成地図16は、マッピング画像15における任意の画素をマップ画像14上の対応する位置に配置することにより、マッピング画像15をマップ画像14上に重畳させた合成画像として作成される。この様な画像合成地図16をディスプレイ装置11上に表示することにより、ユーザは、マッピング画像15及びマップ画像14間において特徴部分の位置にずれがあるか否か、また、ずれがある場合にずれの大きさや方向を容易に認識することができる。
On the other hand, a stationary object or moving body protruding in the height direction from the road surface is transformed into a shape projected onto the road surface and appears distorted. The
<カメラ設定画面30>
図5は、図2の監視装置10の動作の一例を示した図であり、ディスプレイ装置11上に表示されるカメラ設定画面30が示されている。カメラ設定画面30は、カメラキャリブレーションのための校正用入力画面であり、カメラ画像13の表示領域31と、歪み補正調整用のスライダー32と、マップ画像14の表示領域33と、参照点4及び目標点5の表示ボタン34とが配置されている。
<
FIG. 5 is a diagram illustrating an example of the operation of the
スライダー32を操作することにより、表示領域31内のカメラ画像13に対し、レンズ歪みを補正する歪み補正変換の変換係数を調整することができる。歪み補正変換の変換係数は、補正量=ゼロから補正量=上限値までの範囲内で調整することができる。補正量=0では、歪み補正変換を行わず、カメラ画像13が歪み補正部112をスルーして射影変換部103に入力される。一方、補正量=上限値では、歪み補正変換を規定するパラメータk1が最大になる。
By operating the
カメラのレンズ収差に起因してカメラ画像13にはレンズ歪みがある。特に、広角レンズを使用した監視カメラ2の場合、カメラ画像13の中央部に比べ、周縁部の歪みが大きい。このため、水平面上の直線は、カメラ画像13の周縁部において曲がって映し出される。この様なカメラ画像13上に撮影されている幾何学的な形状の歪みは、スライダー32を操作して補正量を調整することにより、除去することができる。
The
表示ボタン34を操作すれば、第1キャリブレーション用の参照点4及び目標点5をカメラ画像13及びマップ画像14上にそれぞれ表示させることができる。カメラ画像13を歪み補正してから参照点4を指定し、第1キャリブレーションを行うことにより、第1キャリブレーションの精度を向上させることができる。
By operating the
<精度検証画面40>
図6は、図2の監視装置10の動作の一例を示した図であり、第1キャリブレーション後に表示される精度検証画面40が示されている。また、図7は、図2の監視装置10の動作の一例を示した図であり、マッピング画像15の透明度を50%にした場合が示されている。
<
FIG. 6 is a diagram illustrating an example of the operation of the
この精度検証画面40は、カメラ画像13及びマップ画像14間における位置情報の対応づけの精度を検証するためのカメラキャリブレーション編集画面であり、カメラ画像13の表示領域41と、画像合成地図16の表示領域42と、マッピング画像15の透明度調整用のスライダー43と、修正キャリブレーションボタン44とが配置されている。
This
スライダー43を操作することにより、表示領域42内の画像合成地図16に対し、マッピング画像15の透明度を調整することができる。マッピング画像15の透明度は、透明度=100%から透明度=0%までの範囲内で調整することができる。透明度=100%では、マッピング画像15が完全に透明であり、マップ画像14の全体を視認することができる。一方、透明度=0%では、マッピング画像15が完全に不透明であり、マッピング画像15との重複部分について、マップ画像14を視認することができない。
By operating the
透明度を50%程度にすれば、マッピング画像15は半透明な状態である。この様に透明化したマッピング画像15がマップ画像14上に重畳された画像合成地図16を表示することにより、透明化したマッピング画像15を介してマップ画像14上の表示オブジェクトが認識可能になるので、マッピング画像15及びマップ画像14間で特徴部分のずれ具合を容易に認識することができる。
If the transparency is about 50%, the
表示領域41には、第1キャリブレーションにおいて使用した複数の参照点4がカメラ画像13と共に表示されている。また、表示領域42には、第1キャリブレーションにおいて使用した複数の目標点5が画像合成地図16と共に表示されている。そこで、マップ画像14及びマッピング画像15間で特徴部分の位置にずれが生じていれば、マウスポインタ6を移動させて、カメラ画像13上の参照点4の位置と、画像合成地図16上の目標点5の位置とを変更することができる。
In the
図8は、図2の監視装置10の動作の一例を示した図であり、マップ画像14及びマッピング画像15間で特徴部分の位置にずれが生じている場合が示されている。監視カメラ2から所定の距離の水平面に関し、カメラ画像13上における水平面内の幾何形状は、カメラ画像13のレンズ歪みに起因して、実際の幾何形状と異なっている。また、監視カメラ2から水平面上の参照点4までの実際の距離に応じてカメラ画像13の分解能が異なることから、監視カメラ2から遠い参照点4の位置情報には、大きな誤差が含まれる。さらに、位置情報から射影変換の変換係数を求める際のデジタル演算には、計算誤差が含まれる。
FIG. 8 is a diagram illustrating an example of the operation of the
このため、画像合成地図16において、マッピング画像15上の特徴部分の位置と、マップ画像14上の対応する特徴部分の位置との間に、ずれが生じる場合がある。この例では、建物13bの角(かど)の位置がマッピング画像15とマップ画像14との間で大きくずれている。この様なずれは、透明化したマッピング画像15が埋め込まれた画像合成地図16を閲覧することにより、容易に識別することができる。
For this reason, in the
第1キャリブレーションは、駐車区画を示すペイント線を目印にして参照点4及び目標点5を指定することにより行われた。この第1キャリブレーションでは、駐車区画付近ではずれが少ないが、カメラ画像13の周縁部に撮影されている建物13bの角ではずれが大きいことが、画像合成地図16から容易に確認できる。建物13bの角のずれが大きいのは、レンズ歪みや計算誤差の影響である。
The first calibration was performed by designating the reference point 4 and the
そこで、画像合成地図16上で駐車区画内の目標点5の位置を微調整し、或いは、カメラ画像13上で駐車区画内の参照点4の位置を微調整し、第2キャリブレーションを行う。第2キャリブレーションは、精度検証画面40内の修正キャリブレーションボタン44を操作することにより実行され、射影変換の変換係数が補正される。この修正キャリブレーションの後、建物13bの角のずれ具合も、画像合成地図16によって容易に確認することができる。この様な修正キャリブレーションを繰り返すことにより、第1キャリブレーションにおいて使用した4点以外の地点についても位置ずれが減少し、マッピング画像15の全体にわたってマップ画像14との位置ずれを少なくすることができる。
Therefore, the second calibration is performed by finely adjusting the position of the
さらに、必要であれば、建物13bの角付近に目標点5を追加指定し、カメラ画像13上にも対応する参照点4を指定し、参照点4及び目標点5の5つの組によって修正キャリブレーションを行うこともできる。なお、参照点4又は目標点5が変更されれば、修正キャリブレーションを自動的に実行するような構成であっても良い。
Further, if necessary, the
本実施の形態によれば、第1キャリブレーションによって求められた変換係数を用いて射影変換を行うことにより、カメラ画像13上の任意の位置が平面地図上の位置に対応づけられたマッピング画像15をカメラ画像13から得ることができる。その様なマッピング画像15と平面地図とを合成した画像合成地図16を表示することにより、第1キャリブレーションの精度検証を容易化することができる。また、第1キャリブレーションに対する精度検証の結果、ユーザが画像合成地図16上の目標点5の位置を変更すれば、射影変換の変換係数が補正されるので、カメラ画像13及び平面地図間におけるカメラキャリブレーションの精度を向上させることができる。
According to the present embodiment, by performing projective transformation using the transformation coefficient obtained by the first calibration, the
さらに、透明化したマッピング画像15を介して平面地図上の表示オブジェクトが認識可能になるので、マッピング画像15及び平面地図間で特徴部分のずれ具合を容易に認識することができる。また、カメラ画像13及び平面地図の明るさやコントラストに応じてマッピング画像15の透明度を調整することにより、第1キャリブレーションの精度検証を容易化することができるとともに、画像合成地図16上で目標点5の位置を変更する際に適切な位置を容易に見つけることができる。
Furthermore, since the display object on the planar map can be recognized via the
なお、本実施の形態では、マッピング画像15を平面地図上に重畳させて画像合成地図16が作成される場合の例について説明したが、本発明は平面地図及びマッピング画像を合成した画像合成地図の構成をこれに限定するものではない。例えば、平面地図が図形又はシンボルからなる場合や、透明化した平面地図を用いる場合には、平面地図をマッピング画像上に重畳させることによって画像合成地図が形成されるような構成であっても良い。
In the present embodiment, an example in which the
また、本実施の形態では、第1キャリブレーションに使用する参照点4及び目標点5の位置をユーザが指定する場合の例について説明したが、本発明は参照点4及び目標点5の指定方法をこれに限定するものではない。例えば、カメラ画像13及びマップ画像14から特徴部分を自動抽出し、抽出された特徴部分に基づいて参照点4及び目標点5を指定するような構成であっても良い。
In the present embodiment, an example in which the user specifies the positions of the reference point 4 and the
画像上の特徴部分には、エッジや、2つのエッジが交差したコーナーがあり、輝度分布や輝度の変化率に基づいて抽出される。また、カメラ画像13やマップ画像14から抽出したエッジやコーナーを画像合成地図16上に表示することにより、マッピング画像15及びマップ画像14間で特徴部分のずれ具合を容易に認識することができる。
The feature portion on the image includes an edge and a corner where two edges intersect, and is extracted based on the luminance distribution and the luminance change rate. Further, by displaying the edges and corners extracted from the
また、カメラ画像13から抽出したエッジやコーナーの位置と、マップ画像14から抽出したエッジやコーナーの位置との間でずれがあれば、カメラ画像13とマップ画像14との合致度合をユーザに認識させるために、エッジやコーナーを表すシンボルの表示態様、例えば、色をずれの大きさに応じて異ならせるような構成であっても良い。
In addition, if there is a deviation between the edge or corner position extracted from the
また、本実施の形態では、監視装置10がディスプレイ装置11及び操作部12を備えた端末装置からなる場合の例について説明したが、本発明は監視装置10の構成をこれに限定するものではない。例えば、監視カメラ2からカメラ画像を取得して処理する演算装置と、カメラ画像や処理結果を表示し、ユーザ操作を受け付ける端末装置とが、インターネットなどの通信ネットワークを介して接続された監視システムにも本発明は適用することができる。
In the present embodiment, an example in which the
1 監視システム
2 監視カメラ
4 参照点
5 目標点
6 マウスポインタ
10 監視装置
11 ディスプレイ装置
12 操作部
13 カメラ画像
14 マップ画像
15 マッピング画像
16 画像合成地図
101 地図情報記憶部
102 設定画面表示部
103 射影変換部
104 画像合成部
105,113 変換係数記憶部
106 位置指定部
107 位置情報記憶部
108 第1キャリブレーション部
109 目標点変更部
110 第2キャリブレーション部
111 透明度調整部
112 歪み補正部
114 補正係数調整部
20 LAN
DESCRIPTION OF SYMBOLS 1
Claims (5)
上記平面地図に対し、上記カメラ画像を射影変換し、マッピング画像を生成する射影変換手段と、
上記平面地図及び上記マッピング画像を合成した画像合成地図を生成する画像合成手段と、
上記カメラ画像上の予め指定された2以上の参照点、及び、上記平面地図上の予め指定された2以上の目標点に基づいて、上記参照点を対応する上記目標点に一致させる上記射影変換の変換係数を求める第1キャリブレーション手段と、
上記目標点と共に上記画像合成地図を表示する合成地図表示手段と、
ユーザ操作に基づいて、上記目標点の位置を変更する目標点変更手段と、
上記目標点変更手段による変更後の目標点に基づいて、上記変換係数を補正する第2キャリブレーション手段とを備えたことを特徴とする監視装置。 In a monitoring device that displays a camera image captured by a camera on a planar map,
Projective transformation means for projectively transforming the camera image with respect to the planar map to generate a mapping image;
Image synthesis means for generating an image synthesis map obtained by synthesizing the planar map and the mapping image;
The projective transformation for matching the reference point with the corresponding target point based on the two or more reference points specified in advance on the camera image and the two or more target points specified in advance on the planar map. First calibration means for obtaining a conversion coefficient of
Synthetic map display means for displaying the image composite map together with the target point;
Target point changing means for changing the position of the target point based on a user operation;
A monitoring apparatus comprising: second calibration means for correcting the conversion coefficient based on the target point changed by the target point changing means.
ユーザ操作に基づいて、上記歪み補正変換の変換係数を調整する補正係数調整手段とを備え、
上記射影変換手段は、上記歪み補正手段による歪み補正変換後のカメラ画像に対し、上記射影変換を行うことを特徴とする請求項1〜3のいずれかに記載の監視装置。 Distortion correction means for performing distortion correction conversion for correcting lens distortion for the camera image;
Correction coefficient adjusting means for adjusting the conversion coefficient of the distortion correction conversion based on a user operation,
The monitoring apparatus according to claim 1, wherein the projective conversion unit performs the projective conversion on the camera image after the distortion correction conversion by the distortion correction unit.
上記平面地図に対し、上記カメラ画像を射影変換し、マッピング画像を生成する射影変換手順と、
上記平面地図及び上記マッピング画像を合成した画像合成地図を生成する画像合成手順と、
上記カメラ画像上の予め指定された2以上の参照点、及び、上記平面地図上の予め指定された2以上の目標点に基づいて、上記参照点を対応する上記目標点に一致させる上記射影変換の変換係数を求める第1キャリブレーション手順と、
上記目標点と共に上記画像合成地図を表示する合成地図表示手順と、
ユーザ操作に基づいて、上記目標点の位置を変更する目標点変更手順と、
上記目標点変更手順における変更後の目標点に基づいて、上記変換係数を補正する第2キャリブレーション手順とをコンピュータに実行させることを特徴とする監視装置の制御プログラム。 A control program for a monitoring device for displaying a camera image taken by a camera on a planar map,
Projection conversion procedure for projectively converting the camera image to generate a mapping image for the planar map,
An image synthesis procedure for generating an image synthesis map obtained by synthesizing the planar map and the mapping image;
The projective transformation for matching the reference point with the corresponding target point based on the two or more reference points specified in advance on the camera image and the two or more target points specified in advance on the planar map. A first calibration procedure for obtaining a conversion coefficient of
A composite map display procedure for displaying the image composite map together with the target point;
A target point changing procedure for changing the position of the target point based on a user operation;
A control program for a monitoring apparatus, which causes a computer to execute a second calibration procedure for correcting the conversion coefficient based on the target point after the change in the target point changing procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013159987A JP6022423B2 (en) | 2013-07-31 | 2013-07-31 | Monitoring device and monitoring device control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013159987A JP6022423B2 (en) | 2013-07-31 | 2013-07-31 | Monitoring device and monitoring device control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015032069A JP2015032069A (en) | 2015-02-16 |
JP6022423B2 true JP6022423B2 (en) | 2016-11-09 |
Family
ID=52517350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013159987A Active JP6022423B2 (en) | 2013-07-31 | 2013-07-31 | Monitoring device and monitoring device control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6022423B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7363750B2 (en) | 2020-11-19 | 2023-10-18 | トヨタ車体株式会社 | Vehicle body water drainage structure |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6833366B2 (en) * | 2016-07-06 | 2021-02-24 | キヤノン株式会社 | Information processing device, control method and program of information processing device |
US20220284599A1 (en) * | 2019-09-04 | 2022-09-08 | Nec Corporation | Position estimating method, position estimating system, and position estimating apparatus |
CN114266876B (en) | 2021-11-30 | 2023-03-28 | 北京百度网讯科技有限公司 | Positioning method, visual map generation method and device |
WO2024042995A1 (en) * | 2022-08-24 | 2024-02-29 | ソニーセミコンダクタソリューションズ株式会社 | Light detection device and light detection system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001319218A (en) * | 2000-02-29 | 2001-11-16 | Hitachi Ltd | Image monitoring device |
JP4424031B2 (en) * | 2004-03-30 | 2010-03-03 | 株式会社日立製作所 | Image generating apparatus, system, or image composition method. |
JP4874280B2 (en) * | 2008-03-19 | 2012-02-15 | 三洋電機株式会社 | Image processing apparatus and method, driving support system, and vehicle |
-
2013
- 2013-07-31 JP JP2013159987A patent/JP6022423B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7363750B2 (en) | 2020-11-19 | 2023-10-18 | トヨタ車体株式会社 | Vehicle body water drainage structure |
Also Published As
Publication number | Publication date |
---|---|
JP2015032069A (en) | 2015-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10366477B2 (en) | Image processing apparatus and image processing method | |
US10602102B2 (en) | Projection system, image processing apparatus, projection method | |
US9818377B2 (en) | Projection system, image processing apparatus, and correction method | |
US9706135B2 (en) | Method and apparatus for generating an image cut-out | |
CN108475437B (en) | 360 degree look-around system for vehicle with corner-mounted camera, calibration system and method | |
CN105979234B (en) | A kind of method and projection arrangement of projection image correction | |
JP4637845B2 (en) | Geometric correction method in multi-projection system | |
JP6022423B2 (en) | Monitoring device and monitoring device control program | |
JP4268206B2 (en) | Fisheye lens camera device and image distortion correction method thereof | |
JP5491235B2 (en) | Camera calibration device | |
JP4243767B2 (en) | Fisheye lens camera device and image extraction method thereof | |
US9349157B2 (en) | Method and apparatus for controlling a virtual camera | |
US8491128B2 (en) | System and method for projection correction by capturing projection image | |
CN105308503A (en) | System and method for calibrating a display system using a short throw camera | |
JP2015056834A (en) | Projection system, image processing system, projection method and program | |
JP2007183949A (en) | Method and apparatus for providing panoramic view with improved image matching speed and blending method | |
JP2006060447A (en) | Keystone correction using partial side of screen | |
CN111083457A (en) | Method and device for correcting projection images of multiple light machines and projection instrument of multiple light machines | |
KR20160031966A (en) | Muti-projection system and method for projector calibration thereof | |
JP2012142669A (en) | Projection controller, projection system, test chart, and projection area determination method | |
GB2494697A (en) | Viewing home decoration using markerless augmented reality | |
JP5959311B2 (en) | Data deriving apparatus and data deriving method | |
JP2004015205A (en) | Multi-projection system and correction data acquisition method in multi-projection system | |
JP2011228857A (en) | Calibration device for on-vehicle camera | |
US20220006989A1 (en) | Method for Automatically Restoring a Calibrated State of a Projection System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6022423 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |