JP5527710B2 - Calibration data acquisition apparatus and computer program - Google Patents

Calibration data acquisition apparatus and computer program Download PDF

Info

Publication number
JP5527710B2
JP5527710B2 JP2009240913A JP2009240913A JP5527710B2 JP 5527710 B2 JP5527710 B2 JP 5527710B2 JP 2009240913 A JP2009240913 A JP 2009240913A JP 2009240913 A JP2009240913 A JP 2009240913A JP 5527710 B2 JP5527710 B2 JP 5527710B2
Authority
JP
Japan
Prior art keywords
data
calibration
scale model
photographing
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009240913A
Other languages
Japanese (ja)
Other versions
JP2011085563A (en
Inventor
英昭 手塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Inc
Original Assignee
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc filed Critical Tokyo Electric Power Co Inc
Priority to JP2009240913A priority Critical patent/JP5527710B2/en
Publication of JP2011085563A publication Critical patent/JP2011085563A/en
Application granted granted Critical
Publication of JP5527710B2 publication Critical patent/JP5527710B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、所定の空間領域をステレオ撮影するための複数のカメラを現場に設置する際の校正用データ取得装置および校正用データを取得するためのコンピュータプログラムに関する。   The present invention relates to a calibration data acquisition apparatus and a computer program for acquiring calibration data when a plurality of cameras for taking a stereo image of a predetermined space area are installed in the field.

従来、所定の空間領域を高い計測精度にてステレオ撮影するため2台のカメラの位置を設定し、設定後において高精度に校正(キャリブレーション)を実行する必要がある。   Conventionally, it is necessary to set the positions of two cameras in order to perform stereo imaging of a predetermined spatial region with high measurement accuracy, and to perform calibration (calibration) with high accuracy after setting.

高精度な校正としては、例えば「8点キャリブレーション」という手法が採用されている。 この8点キャリブレーションとは、撮影空間上に、測定で正確に設定したモデルとなる直方体(立方体)の8個の頂点を光らせ、それを受光(撮影)してステレオ撮影の位置合わせをする。 例えば、前記立方体における8個の頂点の座標をコンピュータに入力する。あるいは、2台のカメラで前記立方体を撮影して2台のカメラ画像を取得した後に、立方体の各頂点の座標と2台のカメラ画像の座標を対応させて校正することになる。
校正(キャリブレーション)を高精度にかつ効率よく実行するために、特許文献1〜特許文献3に示されているような技術が開示されている。
As high-precision calibration, for example, a technique called “8-point calibration” is employed. In this 8-point calibration, eight vertices of a rectangular parallelepiped (cube), which is a model accurately set by measurement, are illuminated on the photographing space, and light is received (photographed) to align the stereo photographing. For example, the coordinates of eight vertices in the cube are input to the computer. Alternatively, after the cube is photographed by two cameras and two camera images are acquired, the coordinates of each vertex of the cube and the coordinates of the two camera images are calibrated.
In order to execute calibration (calibration) with high accuracy and efficiency, techniques as disclosed in Patent Documents 1 to 3 are disclosed.

ところで、環境アセスメントの一環として、所定の空間領域(たとえば建造物を建造する予定地)に対する鳥などの飛来物を検知し、その検知した情報を分析するといったことが行われている。 その飛来物の検知には、複数(たいてい2台)のカメラで飛来物を含む画像データを取得し、同期させた複数の画像データ中において一致する粒子や画素を抽出する(たとえば、PTVのステレオペアマッチング)、という手法が採用されている。すなわち、一致した粒子や画素について、三次元における速度や位置の情報に変換し、飛来物の軌跡を三次元データとして求める。
このような飛来物の検知方法を応用することによって、たとえば野鳥の飛行観察や行動調査にも、三次元の飛行軌跡を求めることができる。
By the way, as a part of the environmental assessment, a flying object such as a bird with respect to a predetermined space area (for example, a place where a building is to be built) is detected, and the detected information is analyzed. To detect the flying object, a plurality of (usually two) cameras acquire image data including the flying object, and extract matching particles and pixels in the synchronized plurality of image data (for example, PTV stereo) Pair matching) is used. That is, the coincident particles and pixels are converted into three-dimensional velocity and position information, and the trajectory of the flying object is obtained as three-dimensional data.
By applying such a flying object detection method, it is possible to obtain a three-dimensional flight trajectory, for example, for bird observation and behavior investigation.

所定の空間領域に対する飛来物調査においては、対象となる空間を撮影するためのステレオ撮影実行のために設置される2台のカメラの距離は、50メートル以上である場合が多い。風力発電装置が複数設置することを予定しているウィンドファームなどの場合には、数キロメートルに達する場合もある。   In a flying object survey for a predetermined space area, the distance between two cameras installed for performing stereo shooting for shooting a target space is often 50 meters or more. In the case of a wind farm or the like where multiple wind power generators are planned to be installed, it may reach several kilometers.

特開平8−14828号公報JP-A-8-14828 特開平10−122819号公報Japanese Patent Laid-Open No. 10-122819 特開2007−64836号公報JP 2007-64836 A

さて、ステレオ撮影を実行する対象となる空間領域が広大なものである場合は、校正(キャリブレーション)の作業が大がかりとなり、面倒である。 すなわち、被写体となる空間領域における誤差を小さくするためには、校正のために仮想する立方体(キャリブレータ)をできる限り大きくする必要があり、8個の頂点座標の設定が大がかりとなってしまうのである。
頂点座標を物理的な構造体で設置するのは、立方体が大きくなるほど困難であり、その構造体の移動や保管も困難である。
Now, when the space area to be subjected to stereo shooting is vast, the calibration work becomes large and troublesome. In other words, in order to reduce the error in the space area as the subject, it is necessary to make the virtual cube (calibrator) as large as possible for calibration, and the setting of the eight vertex coordinates becomes large. .
It is more difficult to set the vertex coordinates as a physical structure as the cube becomes larger, and it is also difficult to move and store the structure.

更なる問題として、ステレオ撮影用の2台のカメラを設置する場所に関する制限が、現場には存在する。すなわち、撮影対象となる空間領域をステレオ撮影するためにカメラを設置する理想的な場所を選択し、且つ校正用の立方体を設置することは、多くの場合に困難である、ということである。   As a further problem, there are restrictions on the location where two cameras for stereo shooting are installed. That is, in many cases, it is difficult to select an ideal place where a camera is to be installed and to set a calibration cube in order to take a stereo image of a space area to be imaged.

更に具体的に説明する。
適宜の距離を離して2台のカメラを設置する場所は、撮影対象となる空間領域を被写体としなければならないので、航空写真などを用いて事前に検討することも多い。しかし、現場にたどり着いてみると、被写体となる空間領域を遮る植物や建造物が存在したり、足場が悪くてカメラの固定が困難、といった場合が想定以上に多いということが判明した。
カメラの設置だけでも困難であるのに、校正用の立方体を現場にて設置するのは、これまた困難であることは述べるまでもない。
This will be described more specifically.
The place where the two cameras are installed at an appropriate distance must be the subject of the space area to be photographed, so it is often considered in advance using aerial photographs or the like. However, when I arrived at the site, it turned out that there were more cases than expected, such as plants and buildings that obstructed the space area that was the subject, or the scaffolding was bad and it was difficult to fix the camera.
Needless to say, it is difficult to install a calibration cube in the field, even though it is difficult to install the camera alone.

本発明は、上記課題に鑑み、広い撮影領域におけるステレオ撮影に必要な校正用データを簡易に取得可能な技術を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a technique capable of easily acquiring calibration data necessary for stereo shooting in a wide shooting area.

(第一の発明)
本願における第一の発明は、現場の空間領域(50)をステレオ撮影して撮影画像データを得た際の撮影条件データを用いて、前記撮影画像データに必要な校正用データを取得するための装置(10)に係る。
すなわち、前記現場の空間領域(50)に対して異なる方向から撮影する2台のカメラに関する撮影条件データを入力する現場撮影条件データ入力手段と、 その撮影条件データを用いて縮尺したステレオ撮影を実行するための縮尺モデル用データを演算する縮尺演算手段と、 その縮尺モデル用データを用いて離間させて設置した2台のカメラによって校正用サンプルをステレオ撮影する縮尺モデル撮影手段と、 その縮尺モデル撮影手段によって撮影した校正用サンプルを用いて校正用データを演算する校正用データ演算手段と、を備えた校正用データ取得装置である。
前記現場の空間領域(50)は、前記2台のカメラの離間距離が600メートルとなる空間とし、 前記2台のカメラは、C−MOSセンサを用いたカメラであって、撮影制御装置を用いて前記現場の空間領域(50)を同時に撮影し、 前記撮影条件データにおけるカメラの位置データおよび撮影方向の方位データは、それぞれのカメラに備えられたGPS装置が取得し、 前記縮尺モデル撮影手段は、10〜40メートルを離間させた2台のカメラによるステレオ撮影とする。
(First invention)
The first invention in the present application is to acquire calibration data necessary for the photographed image data using the photographing condition data obtained when the photographed image data is obtained by stereo photographing the space area (50) in the field. According to the device (10).
That is, on-site shooting condition data input means for inputting shooting condition data relating to two cameras shooting from different directions with respect to the space area (50) of the spot, and stereo shooting reduced in scale using the shooting condition data is executed. A scale model photographing means for computing scale model data for performing, a scale model photographing means for photographing a calibration sample in stereo using two cameras spaced apart using the scale model data, and the scale model photographing A calibration data acquisition device comprising calibration data calculation means for calculating calibration data using a calibration sample photographed by the means.
The space area (50) in the field is a space where the distance between the two cameras is 600 meters, and the two cameras are cameras using a C-MOS sensor, and use a photographing control device. The space area (50) of the field is simultaneously photographed, and the position data of the camera and the orientation data of the photographing direction in the photographing condition data are acquired by a GPS device provided in each camera, and the scale model photographing means includes Stereo shooting with two cameras separated by 10 to 40 meters.

「撮影条件データ」とは、カメラの位置データ、カメラの高度データ、カメラの仰角、カメラレンズの光学データ、撮影方向の方位データを含む。 「カメラの位置データ」は、たとえば、カメラに搭載されたGPS装置(「GPS」とは、全地球測位システム=グローバル・ポジショニング・システム (Global Positioning System))によって取得する。 「カメラの高度データ」は、たとえば、カメラに搭載された高度計によって取得する。 「カメラレンズの光学データ」には、少なくとも画角を含む。 「撮影方向の方位データ」は、たとえば、カメラに搭載された方位磁針(コンパス)によって計測した、撮影時にカメラレンズの中心線が向いている方位(たとえば真北を0度として時計回りに360度のいずれか)である。 「撮影方向の方位データ」は、GPSによって計測しても良い。   The “shooting condition data” includes camera position data, camera altitude data, camera elevation angle, camera lens optical data, and shooting direction azimuth data. “Camera position data” is acquired by, for example, a GPS device mounted on the camera (“GPS” is a global positioning system = Global Positioning System). The “camera altitude data” is acquired by, for example, an altimeter mounted on the camera. “Camera lens optical data” includes at least the angle of view. The “azimuth data in the photographing direction” is, for example, an orientation in which the center line of the camera lens is oriented at the time of photographing (for example, 360 degrees clockwise with true north as 0 degree), which is measured by an azimuth magnetic needle (compass) mounted on the camera. Any one). The “azimuth data in the shooting direction” may be measured by GPS.

「縮尺モデル用データ」とは、現場のステレオ撮影を行った2台のカメラの離間させた距離を、縮尺モデルとするのに適した値である。たとえば、現場のステレオ撮影を行った2台のカメラの離間させた距離が600メートルである場合に、校正用サンプルをステレオ撮影するための2台のカメラを離間させる距離を20メートルとする場合には、「1/30」となる。   The “scale model data” is a value suitable for making a distance model between two cameras that have performed on-site stereo shooting a scale model. For example, when the distance between two cameras that have performed on-site stereo photography is 600 meters, and the distance that separates the two cameras for stereo photography of the calibration sample is 20 meters. Becomes “1/30”.

(作用)
まず、2台のカメラを離間させ、その2台のカメラによって現場の空間領域(50)を異なる方向から撮影することにより、ステレオ撮影して撮影画像データを得る。この際に、当該カメラにおける撮影条件データを取得しておく。
その撮影条件は、校正用データ取得装置における現場撮影条件データ入力手段に入力される。 その撮影条件データを用いて、縮尺したステレオ撮影を実行するための縮尺モデル用データを縮尺演算手段が演算する。
その縮尺モデル用データを用いて、縮尺モデル撮影手段における離間させて設置した2台のカメラによって、校正用サンプルをステレオ撮影する。
その縮尺モデル撮影手段によって撮影した校正用サンプルを用いて、校正用データ演算手段が校正用データを演算する。その演算された校正用データと前述の縮尺モデル用データとを用いれば、現場の空間領域(50)を撮影した撮影画像データを校正することができる。
(Function)
First, two cameras are separated from each other, and the space area (50) in the field is photographed from different directions by the two cameras, so that the photographed image data is obtained by stereo photographing. At this time, photographing condition data for the camera is acquired.
The photographing conditions are input to field photographing condition data input means in the calibration data acquisition device. Using the shooting condition data, the scale calculation means calculates scale model data for performing a reduced stereo shooting.
Using the scale model data, the calibration sample is stereo-photographed by two cameras set apart in the scale model photographing means.
Using the calibration sample photographed by the scale model photographing means, the calibration data calculating means calculates the calibration data. Using the calculated calibration data and the above-described scale model data, it is possible to calibrate the captured image data obtained by photographing the space area (50) in the field.

(第一の発明のバリエーション1)
第一の発明は、以下のように形成することができる。
すなわち、 前記校正用データおよび前記縮尺モデル用データを用いて、前記撮影画像データを三次元解析する三次元解析手段を備え、
その三次元解析手段には、PTV解析アルゴリズムを含むこととしてもよい。
(Variation 1 of the first invention)
The first invention can be formed as follows.
That is, comprising three-dimensional analysis means for three-dimensionally analyzing the photographed image data using the calibration data and the scale model data,
The three-dimensional analysis means may include a PTV analysis algorithm.

(作用)
三次元解析手段までを備えているので、現場の空間領域(50)を撮影した撮影画像データを校正し、更に三次元解析までを実行できる。
(Function)
Since it is equipped with a three-dimensional analysis means, it is possible to calibrate the captured image data obtained by photographing the space area (50) in the field, and further to the three-dimensional analysis.

(第一の発明のバリエーション2)
第一の発明は、更に以下のように形成することもできる。
すなわち、 前記縮尺モデル撮影手段が撮影する校正用サンプルは、サンプル点ごとに識別色を変えて発光させることとしてもよい。
(Variation 2 of the first invention)
The first invention can also be formed as follows.
That is, the calibration sample photographed by the scale model photographing means may emit light by changing the identification color for each sample point.

(第二の発明)
本願の第二の発明は、現場の空間領域をステレオ撮影して撮影画像データを得た際の撮影条件データを用いて、前記撮影画像データに必要な校正用データを取得するためのコンピュータプログラムに係る。
そのプログラムは、前記現場の空間領域に対して異なる方向から600メートルを離間させて撮影する2台のC−MOSセンサを用いたカメラに関する撮影条件データを入力する現場撮影条件データ入力手順と、 その撮影条件データを用いて縮尺したステレオ撮影を実行するための縮尺モデル用データを演算する縮尺演算手順と、 その縮尺モデル用データを用いて10〜40メートルを離間させて設置した2台のカメラによって校正用サンプルをステレオ撮影する縮尺モデル撮影手順と、 その縮尺モデル撮影手順によって撮影した校正用サンプルを用いて校正用データを演算する校正用データ演算手順と、をコンピュータに実行させることとし、
前記撮影条件データにおけるカメラの位置データおよび撮影方向の方位データは、それぞれのカメラに備えられたGPS装置が取得することとしたコンピュータプログラムである。
(Second invention)
The second invention of the present application is a computer program for acquiring calibration data necessary for the photographed image data by using the photographing condition data obtained when the photographed image data is obtained by stereo photographing of the space area in the field. Related.
The program includes an on-site shooting condition data input procedure for inputting shooting condition data relating to a camera using two C-MOS sensors for shooting at a distance of 600 meters from different directions with respect to the space area of the site; A scale calculation procedure for calculating scale model data for performing stereo shooting scaled using the shooting condition data, and two cameras installed 10 to 40 meters apart using the scale model data Let the computer execute a scale model shooting procedure for stereo shooting of the calibration sample and a calibration data calculation procedure for calculating calibration data using the calibration sample shot by the scale model shooting procedure,
The position data of the camera and the direction data of the shooting direction in the shooting condition data are computer programs that are acquired by the GPS device provided in each camera.

(第二の発明のバリエーション)
第二の発明は、前記校正用データおよび前記縮尺モデル用データを用いて、前記撮影画像データを三次元解析する三次元解析手順を備えたコンピュータプログラムとすることもできる。
(Variation of the second invention)
The second invention may be a computer program having a three-dimensional analysis procedure for three-dimensionally analyzing the captured image data using the calibration data and the scale model data.

第二の発明は、記録媒体(たとえば、ハードディスク、CD−R、DVD−Rなど)に格納して提供することもできる。また、通信回線を介して送信することもできる。   The second invention can also be provided by being stored in a recording medium (for example, a hard disk, CD-R, DVD-R, etc.). It can also be transmitted via a communication line.

請求項1から請求項3に記載の発明によれば、広い撮影領域におけるステレオ撮影に必要な校正用データを簡易に取得可能な校正用データ取得装置を提供することができた。
また、請求項4および請求項5に記載の発明によれば、広い撮影領域におけるステレオ撮影に必要な校正用データを簡易に取得可能なコンピュータプログラムを提供することができた。
According to the first to third aspects of the invention, it is possible to provide a calibration data acquisition apparatus that can easily acquire calibration data necessary for stereo imaging in a wide imaging area.
According to the invention described in claims 4 and 5, it is possible to provide a computer program capable of easily acquiring calibration data necessary for stereo shooting in a wide shooting area.

本発明の実施形態に係るハードウェア構成図である。It is a hardware block diagram concerning the embodiment of the present invention. 本発明の実施形態の校正用データ取得装置を示す概念図である。It is a conceptual diagram which shows the data acquisition apparatus for calibration of embodiment of this invention. キャリブレーションを実行するための基準モデルのバリエーションを示す概略説明図である。It is a schematic explanatory drawing which shows the variation of the reference | standard model for performing calibration.

以下、本願発明を実施形態に基づいて更に詳しく説明する。
図2に示すように、2台のカメラ11を用いて、所定の空間領域50をステレオ撮影する。図2中のカメラ11のうち、左側に位置するものを左カメラ11L、右側に位置するものを右カメラ11Rとする。カメラ11L,11Rは、C−MOSセンサを用いたカメラである。 C−MOSセンサを備えた左側、右側のカメラ11L,11Rを用いているのは、CCD素子よりも露光時間の制御が容易であり、飛行速度の速い鳥類の画像を捉えるのに適しており、また曇天などにおいても撮影が容易でレーザ光の照射などの設備が不要となるからである。
Hereinafter, the present invention will be described in more detail based on embodiments.
As shown in FIG. 2, a predetermined space region 50 is shot in stereo using two cameras 11. Of the cameras 11 in FIG. 2, the camera located on the left is the left camera 11L, and the camera located on the right is the right camera 11R. The cameras 11L and 11R are cameras using C-MOS sensors. The use of the left and right cameras 11L and 11R equipped with the C-MOS sensor is easier to control the exposure time than the CCD element, and is suitable for capturing images of birds having a high flight speed. In addition, it is easy to shoot in cloudy weather and the like, and equipment such as laser light irradiation is not necessary.

所定の空間領域50は、たとえば、構造体の建設予定地における環境アセスメントの一環として、当該建設予定地に保護すべき野鳥が生活していないか、といった調査が必要な領域である。
図2(A)において、2台のカメラ11L,11Rが図1の一点鎖線で示されているように、平面で三角形状になるように配置される。しかも、2台のカメラ11L,11Rのレンズの向き12L,12R(撮影方向)は上記の三角形の線上にほぼ位置している。
The predetermined space area 50 is an area that needs to be investigated, for example, as to whether or not a wild bird to be protected lives on the planned construction site as part of an environmental assessment at the planned construction site of the structure.
In FIG. 2A, the two cameras 11L and 11R are arranged in a triangular shape on a plane as indicated by the one-dot chain line in FIG. Moreover, the lens orientations 12L and 12R (imaging direction) of the two cameras 11L and 11R are substantially located on the above-described triangular line.

前記のそれぞれのカメラ11L,11Rには、GPS装置、高度計、および方位磁針が備えられており、撮影データを取得した際にはその撮影データに付随して記録されるようになっている。
また、それぞれのカメラ11L,11Rは、同時に撮影する必要があるため、撮影制御装置15を介して撮影する。 その撮影制御装置15においては、それぞれのカメラ11L,11RにおけるGPS装置による位置データによって、両カメラの距離を算出する。この距離を「LA」とする。具体的には600メートルとして、後に用いる。
Each of the cameras 11L and 11R is provided with a GPS device, an altimeter, and a magnetic stylus, and when photographing data is acquired, it is recorded along with the photographing data.
Further, each of the cameras 11L and 11R needs to shoot at the same time, and thus shoots via the shooting control device 15. In the photographing control device 15, the distance between the two cameras is calculated based on the position data obtained by the GPS device in each of the cameras 11L and 11R. This distance is assumed to be “LA”. Specifically, 600 meters will be used later.

図2(A)に示す左側のカメラ11Lの撮影方向12L(レンズの向き)は、2台のカメラ11L,11Rを結ぶライン13に水平な方向に直交する左側方位基準線14Lに対して右側に撮影角度θLをなしている。また、図1の右側のカメラ11Rの撮影方向12R(レンズの向き)は、前記ライン13に水平な方向に直交する右側方位基準線14Rに対して左側に撮影角度θRをなしている。左側方位基準線14Lと右側方位基準線14Rは互いに平行である。
カメラの位置データ、カメラの高度データ、カメラの仰角、カメラレンズの光学データ、撮影方向の方位データを含む撮影条件データについては、撮影画像データとともに画像記録装置16に記録される。
The shooting direction 12L (lens direction) of the left camera 11L shown in FIG. 2A is on the right side with respect to the left azimuth reference line 14L orthogonal to the line 13 connecting the two cameras 11L and 11R. The shooting angle θL is established. Further, the shooting direction 12R (lens orientation) of the right camera 11R in FIG. 1 forms a shooting angle θR on the left side with respect to the right azimuth reference line 14R perpendicular to the line 13 in the horizontal direction. The left azimuth reference line 14L and the right azimuth reference line 14R are parallel to each other.
Shooting condition data including camera position data, camera altitude data, camera elevation angle, camera lens optical data, and shooting direction orientation data is recorded in the image recording device 16 together with the shot image data.

前述したように、図2(A)にて説明した現場での撮影手段によって、撮影条件データと現場での撮影画像データとを得る。続いて、図1に基づいて説明する。
撮影条件データは、現場撮影条件データ入力手段に入力され、縮尺演算手段によって縮尺モデル用データを演算する。具体的には、縮尺モデルによる撮影が可能な実験設備に関するデータ、特に縮尺モデル撮影手段によるステレオ撮影に用いる2台のカメラの離間距離データとの関係で、縮尺を演算する。この実施形態における縮尺モデル撮影手段では、10〜40メートルを離間させた2台のカメラによるステレオ撮影が可能であるので、縮尺モデル用データを「1/30」とした。すなわち、本実施形態における縮尺モデル撮影手段においては、2台のカメラを20メートル離間させてステレオ撮影をすることした。
As described above, shooting condition data and on-site image data are obtained by the on-site imaging means described with reference to FIG. Next, description will be made based on FIG.
The photographing condition data is input to the on-site photographing condition data input means, and the scale model data is calculated by the scale calculating means. Specifically, the scale is calculated in relation to data relating to experimental equipment that can be photographed with a scale model, in particular, distance data of two cameras used for stereo photography with a scale model photographing means. Since the scale model photographing means in this embodiment can perform stereo photographing with two cameras separated by 10 to 40 meters, the scale model data is set to “1/30”. That is, in the scale model photographing means in the present embodiment, two cameras are separated by 20 meters to perform stereo photographing.

図1における縮尺モデル撮影手段とは、図2(B)に示される校正用データを取得するための手段である。
前述した縮尺モデル用データによれば、図2(B)におけるLB=20メートルとなる。また、そのほかの条件は、撮影条件データを用いてセッティングする。 この離間距離にて設定された2台のカメラ11L,11Rによって、撮影空間上に正確に設定した基準モデル20となる例えば直方体(立方体)の8個の頂点のサンプル点21A,21B,・・・21Hを撮影し、校正用の撮影データを取得するのである。
換言すれば、20メートルを離間させた2台のカメラによるステレオ撮影が可能な撮影場所を確保できれば、キャリブレーションを実行して校正用データを得ることができることとなる。
The scale model photographing means in FIG. 1 is means for obtaining calibration data shown in FIG.
According to the scale model data described above, LB in FIG. 2B is 20 meters. Other conditions are set using the shooting condition data. Sample points 21A, 21B,... Of eight vertices of, for example, a rectangular parallelepiped (cube), which becomes the reference model 20 accurately set in the photographing space by the two cameras 11L, 11R set at this distance. 21H is photographed, and photographing data for calibration is acquired.
In other words, if it is possible to secure a shooting location where stereo shooting can be performed by two cameras separated by 20 meters, calibration can be performed to obtain calibration data.

なお、縮尺モデル撮影手段に用いる2台のカメラは、現場での撮影手段に用いたものと同一であることが望ましい。しかし、同一のものを用いることができない場合には、撮影条件データを用いて、補正値を算出し、同一条件を擬似的に設定する。   Note that the two cameras used for the scale model photographing means are preferably the same as those used for the photographing means in the field. However, if the same cannot be used, the correction value is calculated using the shooting condition data, and the same condition is set in a pseudo manner.

前記立方体における8個の頂点であるサンプル点21A〜21Hの空間座標(X軸、Y軸、Z軸)をコンピュータに入力する。あるいは、2台のカメラ11L,11Rで前記立方体における8個の頂点のサンプル点21A〜21Hを撮影して2台のカメラ画像を取得した後に、立方体の各頂点であるサンプル点21A〜21Hの空間座標と2台のカメラ画像の座標を対応させることになる。
2台のカメラ11L,11Rは撮影制御装置15にて撮影のタイミングを制御され、2台のカメラ11L,11Rで撮影した画像は、画像記録装置16に記録される。その画像記録装置16には上記の校正を実行するための演算装置(校正用データ演算手段)17が備えられている。
The spatial coordinates (X axis, Y axis, Z axis) of the sample points 21A to 21H, which are the eight vertices in the cube, are input to the computer. Alternatively, the sample points 21A to 21H at the eight vertices in the cube are photographed by the two cameras 11L and 11R to obtain the two camera images, and then the space of the sample points 21A to 21H that are the vertices of the cube. The coordinates correspond to the coordinates of the two camera images.
The two cameras 11L and 11R control the shooting timing by the shooting control device 15, and the images shot by the two cameras 11L and 11R are recorded in the image recording device 16. The image recording device 16 is provided with a calculation device (calibration data calculation means) 17 for executing the above calibration.

基準モデル20となる直方体(立方体)の8個の頂点のサンプル点21A〜21Hを設置する必要がある。
なお、図2において、サンプル点21Aと21Eは地上のポイント22Aから上空に向けた垂直線上に位置し、サンプル点21Bと21Fは地上のポイント22Bから上空に向けた垂直線上に位置し、サンプル点21Cと21Gは地上のポイント22Cから上空に向けた垂直線上に位置し、サンプル点21Dと21Hは地上のポイント22Dから上空に向けた垂直線上に位置する。
It is necessary to install sample points 21A to 21H at eight vertices of a rectangular parallelepiped (cube) to be the reference model 20.
In FIG. 2, sample points 21A and 21E are positioned on a vertical line from the ground point 22A toward the sky, and sample points 21B and 21F are positioned on a vertical line from the ground point 22B toward the sky. 21C and 21G are located on a vertical line from the ground point 22C toward the sky, and sample points 21D and 21H are located on a vertical line from the ground point 22D to the sky.

サンプル20における各寸法は予め把握できており、立方体における各頂点8個のサンプル点21A〜21Hによる空間座標のカメラ画像を取得し、画像記録装置16に記録する。その後、演算装置17が立方体における各頂点のサンプル点21A〜21Hの空間座標と2台のカメラ画像の座標を対応させ、校正用データを得ることができる。
ここで得た校正データを用いて、図1に示すように、現場の撮影画像データを撮影データ解析手段によって解析し、解析画像出力手段によって解析した画像データを出力する。
Each dimension of the sample 20 can be grasped in advance, and a camera image of a spatial coordinate by eight sample points 21A to 21H of each vertex in the cube is acquired and recorded in the image recording device 16. Thereafter, the arithmetic unit 17 can associate the spatial coordinates of the sample points 21A to 21H at the respective vertices in the cube with the coordinates of the two camera images to obtain calibration data.
Using the calibration data obtained here, as shown in FIG. 1, the on-site photographed image data is analyzed by the photographed data analysis means, and the image data analyzed by the analysis image output means is output.

上記の実施形態では、縮尺モデル用データを「1/30」としているので、現場の撮影画像データに対するキャリブレーションでは30倍をして校正用データを用いる。
なお、縮尺モデル用データを「1/20」、「1/10」というようにしていけば、縮尺モデル撮影手段に基づいて取得する校正用データの誤差は小さくなるが、縮尺モデル撮影手段を設置する領域が広くなってしまう。
In the above embodiment, since the scale model data is “1/30”, the calibration data is used after being multiplied by 30 in the calibration of the on-site captured image data.
If the scale model data is set to “1/20” and “1/10”, the error of the calibration data acquired based on the scale model photographing means becomes small, but the scale model photographing means is installed. The area to do becomes wide.

図3は、基準モデル20を地上に構造物として設置するのではなく、所望する空間座標を移動および停止可能な被写体30を用いた場合を示す。その被写体30は、たとえば、GPS機能を備えたラジコンヘリコプタや気球34A,34B,・・・34Hを用い、基準モデル20となる例えば直方体(立方体)の8個の頂点のサンプル点21A〜21Hへ移動して配置し、各サンプル点21A〜21Hに停止した被写体30を二台のカメラ11L,11Rで撮影するのである。   FIG. 3 shows a case in which the reference model 20 is not installed as a structure on the ground but a subject 30 that can move and stop a desired spatial coordinate is used. The subject 30 is moved to sample points 21A to 21H at eight vertices of, for example, a rectangular parallelepiped (cube) to be the reference model 20, for example, using a radio controlled helicopter having a GPS function and balloons 34A, 34B,. Thus, the subject 30 stopped at each of the sample points 21A to 21H is photographed by the two cameras 11L and 11R.

なお、ここで用いるラジコンヘリコプタや気球には、例えば、赤、青、黄、緑のように識別色を変えて発光可能なLEDを搭載する。そして、ラジコンヘリコプタが各サンプル点21A〜21Hで停止する毎に異なる識別色を発光表示させる。そして、その表示された識別色とサンプル点21A〜21Hの位置を確認しながら、ラジコンヘリコプタ31を2台のカメラ11L,11Rで撮影することができる。これにより、人為的な間違いを少なくすることができる。   The radio control helicopter and the balloon used here are mounted with LEDs capable of emitting light with different identification colors such as red, blue, yellow, and green. Then, each time the radio control helicopter stops at each of the sample points 21A to 21H, a different identification color is displayed by light emission. The radio controlled helicopter 31 can be photographed by the two cameras 11L and 11R while confirming the displayed identification color and the positions of the sample points 21A to 21H. This can reduce human error.

また、例えば、前記のLEDとしては、いくつかの異なるトリガ信号を発生できるようにすると良い。ラジコンヘリコプタが各サンプル点21A〜21Hで停止する毎に異なるトリガ信号を発生することで、そのトリガ信号によりラジコンヘリコプタを2台のカメラ11L,11Rで撮影するタイミングが整った旨の指令を出すことができる。この時の空間座標はリモコン装置の中に機能されていることによって把握確認できる。
各サンプル点21A〜21Hでの停止と、次のサンプル点への移動動作を一筆書きのように行えば、校正点での撮影を効率よく実行できる。
Also, for example, the LED may be able to generate several different trigger signals. Each time the radio control helicopter stops at each of the sample points 21A to 21H, a different trigger signal is generated, so that a command is issued to indicate that the timing for photographing the radio control helicopter with the two cameras 11L and 11R is ready. Can do. The spatial coordinates at this time can be grasped and confirmed by functioning in the remote control device.
If the stop at each of the sample points 21A to 21H and the movement operation to the next sample point are performed like a single stroke, photographing at the calibration point can be performed efficiently.

前述のLEDは、異なる3種類の発光色を用意しておき、ひとつを点灯させるパターンにて3種類、3つのうちの2つを組み合わせて点灯させるパターンで3種類、3つ全部を点灯させるパターンで1種類を確保することができる。たとえば、最も遠い2点で3つ全部を点灯させるパターンを採用すれば、8つのサンプル点にて撮影データを取得できる。
The above-mentioned LEDs are prepared in three different light emission colors, and a pattern in which one of the three lights is lit in combination of three kinds and three, and a pattern in which all three kinds are lit up. One type can be secured. For example, if a pattern is used in which all three are turned on at the two farthest points, the photographing data can be acquired at eight sample points.

本願発明は、広域をステレオ撮影する必要がある環境アセスメント調査業、風力発電装置の製造業、航空関係の整備事業、環境影響評価における鳥類調査事業などにおいて、利用可能性を有する。   The present invention has applicability in an environmental assessment research business that requires stereo imaging of a wide area, a wind power generator manufacturing business, an aerospace maintenance business, a bird research business in environmental impact assessment, and the like.

10 校正用データ取得装置
11 カメラ(撮影手段)
11L 左カメラ 11R 右カメラ
12L カメラ11Lのレンズの向き(撮影方向)
12R カメラ11Rのレンズの向き(撮影方向)
13 カメラ11L,11Rを結ぶライン
14L 左側方位基準線 14R 右側方位基準線
15 撮影制御装置 16 画像記録装置
17 演算装置(校正用データ演算手段)
20 基準モデル 21A〜21H サンプル点
22A〜22D ポイント
30 被写体
34A〜34H 気球 36A〜36H 識別色(気球の)
50 空間領域
L 実際の現場の距離
θL 左側のカメラ11Lの撮影方向の撮影角度
θR 右側のカメラ11Rの撮影方向の撮影角度
10 Calibration data acquisition device 11 Camera (photographing means)
11L Left camera 11R Right camera 12L Camera 11L lens direction (shooting direction)
Direction of lens of 12R camera 11R (shooting direction)
13 Line 14L connecting cameras 11L and 11R Left azimuth reference line 14R Right azimuth reference line 15 Imaging control device 16 Image recording device 17 Computing device (calibration data computing means)
20 Reference model 21A-21H Sample point 22A-22D Point 30 Subject 34A-34H Balloon 36A-36H Identification color (of balloon)
50 Spatial region L Actual field distance θL Shooting angle θR in the shooting direction of the left camera 11L Shooting angle in the shooting direction of the right camera 11R

Claims (5)

現場の空間領域をステレオ撮影して撮影画像データを得た際の撮影条件データを用いて、前記撮影画像データに必要な校正用データを取得するための装置であって、
前記現場の空間領域に対して異なる方向から撮影する2台のカメラに関する撮影条件データを入力する現場撮影条件データ入力手段と、
その撮影条件データを用いて縮尺したステレオ撮影を実行するための縮尺モデル用データを演算する縮尺演算手段と、
その縮尺モデル用データを用いて離間させて設置した2台のカメラによって校正用サンプルをステレオ撮影する縮尺モデル撮影手段と、
その縮尺モデル撮影手段によって撮影した校正用サンプルを用いて校正用データを演算する校正用データ演算手段と、
を備え、
前記現場の空間領域は、前記2台のカメラの離間距離が600メートルとなる空間とし、
前記2台のカメラは、C−MOSセンサを用いたカメラであって、撮影制御装置を用いて前記現場の空間領域を同時に撮影し、
前記撮影条件データにおけるカメラの位置データおよび撮影方向の方位データは、それぞれのカメラに備えられたGPS装置が取得し、
前記縮尺モデル撮影手段は、10〜40メートルを離間させた2台のカメラによるステレオ撮影とした校正用データ取得装置。
A device for acquiring calibration data necessary for the captured image data, using the imaging condition data when the captured spatial image is obtained by stereo imaging of the space area of the site,
On-site shooting condition data input means for inputting shooting condition data on two cameras that shoot from different directions with respect to the space area of the site;
Scale calculation means for calculating scale model data for performing stereo shooting scaled using the shooting condition data;
A scale model photographing means for photographing a calibration sample in stereo with two cameras set apart from each other using the scale model data;
Calibration data computing means for computing calibration data using the calibration sample photographed by the scale model photographing means;
With
The space area of the site is a space where the distance between the two cameras is 600 meters ,
The two cameras are cameras using C-MOS sensors, and simultaneously photograph the space area of the site using a photographing control device,
The position data of the camera and the direction data of the shooting direction in the shooting condition data are acquired by the GPS device provided in each camera,
The scale model photographing means is a calibration data acquisition device that performs stereo photographing with two cameras separated by 10 to 40 meters.
前記校正用データおよび前記縮尺モデル用データを用いて、前記撮影画像データを三次元解析する三次元解析手段を備え、
その三次元解析手段には、PTV解析アルゴリズムを含むこととした請求項1記載の校正用データ取得装置。
Using the calibration data and the scale model data, comprising three-dimensional analysis means for three-dimensional analysis of the captured image data,
2. The calibration data acquisition apparatus according to claim 1, wherein the three-dimensional analysis means includes a PTV analysis algorithm.
前記縮尺モデル撮影手段が撮影する校正用サンプルは、サンプル点ごとに識別色を変え
て発光させることとした
請求項1または請求項2のいずれかに記載の校正用データ取得装置。
The calibration data acquisition apparatus according to claim 1, wherein the calibration sample photographed by the scale model photographing unit emits light by changing an identification color for each sample point.
現場の空間領域をステレオ撮影して撮影画像データを得た際の撮影条件データを用いて、前記撮影画像データに必要な校正用データを取得するためのコンピュータプログラムであって、
そのプログラムは、前記現場の空間領域に対して異なる方向から600メートルを離間させて撮影する2台のC−MOSセンサを用いたカメラに関する撮影条件データを入力する現場撮影条件データ入力手順と、
その撮影条件データを用いて縮尺したステレオ撮影を実行するための縮尺モデル用データを演算する縮尺演算手順と、
その縮尺モデル用データを用いて10〜40メートルを離間させて設置した2台のカメラによって校正用サンプルをステレオ撮影する縮尺モデル撮影手順と、
その縮尺モデル撮影手順によって撮影した校正用サンプルを用いて校正用データを演算する校正用データ演算手順と、をコンピュータに実行させることとし、
前記撮影条件データにおけるカメラの位置データおよび撮影方向の方位データは、それぞれのカメラに備えられたGPS装置が取得することとしたコンピュータプログラム。
A computer program for obtaining calibration data necessary for the captured image data, using the imaging condition data when the captured spatial image is obtained by stereo imaging of the space area of the site,
The program includes an on-site shooting condition data input procedure for inputting shooting condition data relating to a camera using two C-MOS sensors for shooting at a distance of 600 meters from different directions with respect to the space area of the site;
A scale calculation procedure for calculating scale model data for performing stereo shooting scaled using the shooting condition data;
Using the scale model data, a scale model photographing procedure for photographing a calibration sample in stereo with two cameras set 10 to 40 meters apart from each other;
Let the computer execute a calibration data calculation procedure for calculating calibration data using a calibration sample imaged by the scale model imaging procedure,
The computer program which the GPS apparatus with which each camera acquired the position data of the camera in the said imaging | photography condition data, and direction data of an imaging | photography direction was acquired.
前記校正用データおよび前記縮尺モデル用データを用いて、前記撮影画像データを三次元解析する三次元解析手順を備えた請求項4記載のコンピュータプログラム。   The computer program according to claim 4, further comprising a three-dimensional analysis procedure for three-dimensionally analyzing the captured image data using the calibration data and the scale model data.
JP2009240913A 2009-10-19 2009-10-19 Calibration data acquisition apparatus and computer program Expired - Fee Related JP5527710B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009240913A JP5527710B2 (en) 2009-10-19 2009-10-19 Calibration data acquisition apparatus and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009240913A JP5527710B2 (en) 2009-10-19 2009-10-19 Calibration data acquisition apparatus and computer program

Publications (2)

Publication Number Publication Date
JP2011085563A JP2011085563A (en) 2011-04-28
JP5527710B2 true JP5527710B2 (en) 2014-06-25

Family

ID=44078600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009240913A Expired - Fee Related JP5527710B2 (en) 2009-10-19 2009-10-19 Calibration data acquisition apparatus and computer program

Country Status (1)

Country Link
JP (1) JP5527710B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2565119A (en) * 2017-08-02 2019-02-06 Vision Rt Ltd Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003097946A (en) * 2001-03-02 2003-04-03 Kansai Electric Power Co Inc:The Photo survey system using platform type camera and reference rod device
JP4436990B2 (en) * 2001-07-31 2010-03-24 Sriスポーツ株式会社 Ball trajectory measuring device
JP4166988B2 (en) * 2002-02-20 2008-10-15 株式会社トプコン Stereo image processing apparatus and method
JP4147059B2 (en) * 2002-07-03 2008-09-10 株式会社トプコン Calibration data measuring device, measuring method and measuring program, computer-readable recording medium, and image data processing device
JP4536428B2 (en) * 2003-06-03 2010-09-01 株式会社トプコン Zoom lens calibration apparatus, calibration method, and imaging apparatus
DE10350861A1 (en) * 2003-10-31 2005-06-02 Steinbichler Optotechnik Gmbh Method for calibrating a 3D measuring device
JP2006125961A (en) * 2004-10-28 2006-05-18 Tokyo Electric Power Co Inc:The Fluid flow measuring system and wind power generating device
JP2007225423A (en) * 2006-02-23 2007-09-06 Basic Engineering:Kk Displacement measuring apparatus
JP5332351B2 (en) * 2008-07-03 2013-11-06 株式会社Ihi 3D measurement standard and 3D measurement method

Also Published As

Publication number Publication date
JP2011085563A (en) 2011-04-28

Similar Documents

Publication Publication Date Title
CN108603790B (en) Thermal imaging system and method based on unmanned aerial vehicle system
Pandey et al. Extrinsic calibration of a 3d laser scanner and an omnidirectional camera
JP7025156B2 (en) Data processing equipment, data processing method and data processing program
DK2993450T3 (en) Method and arrangement for recording acoustic and optical information as well as a corresponding computer program and a corresponding computer-readable storage medium
JP6996925B2 (en) Pile head analysis system, pile head analysis method, and pile head analysis program
US20150116481A1 (en) Mapping damaged regions on objects
KR101346323B1 (en) Method for self-calibration of non-metric digital camera using ground control point and additional parameter
CN112005077B (en) Unmanned aerial vehicle setting table, measurement method, measurement device, measurement system, and program
EA031929B1 (en) Apparatus and method for three dimensional surface measurement
EP3049756B1 (en) Modeling arrangement and method and system for modeling the topography of a three-dimensional surface
CN111025032B (en) Aerial beam measuring system and method based on lift-off platform
Mader et al. UAV-based acquisition of 3D point cloud–a comparison of a low-cost laser scanner and SFM-tools
US11259000B2 (en) Spatiotemporal calibration of RGB-D and displacement sensors
Bybee et al. Method for 3-D scene reconstruction using fused LiDAR and imagery from a texel camera
JP2011112556A (en) Search target position locating device, method, and computer program
JP5527710B2 (en) Calibration data acquisition apparatus and computer program
CN113052974B (en) Method and device for reconstructing three-dimensional surface of object
JP6799635B2 (en) Aerial image positioning system and aerial image positioning method.
TW201907136A (en) Stereo image and laser scanning ranging integration method
KR102167847B1 (en) System and Method for Calibration of Mobile Mapping System Using Laser Observation Equipment
CN108334697B (en) Simulation experiment method for evaluating three-dimensional reconstruction software
Galilea et al. Calibration of a high-accuracy 3-D coordinate measurement sensor based on laser beam and CMOS camera
JP2020180842A (en) Processing method of infrared photographic image, processing device of infrared photographic image, and program for processing infrared photographic image
US10871774B1 (en) Three-dimensional analytic tools and methods for inspections using unmanned aerial vehicles
Kemper et al. Calibration procedures on oblique camera setups

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5527710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140406

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees