JP7493793B2 - Image orientation method, image orientation device, image orientation system, and image orientation program - Google Patents
Image orientation method, image orientation device, image orientation system, and image orientation program Download PDFInfo
- Publication number
- JP7493793B2 JP7493793B2 JP2020208438A JP2020208438A JP7493793B2 JP 7493793 B2 JP7493793 B2 JP 7493793B2 JP 2020208438 A JP2020208438 A JP 2020208438A JP 2020208438 A JP2020208438 A JP 2020208438A JP 7493793 B2 JP7493793 B2 JP 7493793B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- subject
- images
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000010586 diagram Methods 0.000 description 22
- 239000011159 matrix material Substances 0.000 description 10
- 238000009434 installation Methods 0.000 description 8
- 230000004807 localization Effects 0.000 description 7
- 230000002265 prevention Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
本発明は、画像標定方法、画像標定装置、画像標定システム及び画像標定プログラムに関する。 The present invention relates to an image orientation method, an image orientation device, an image orientation system, and an image orientation program.
河川や道路、公園等の野外に設置されたカメラは、遠隔操作により撮影方向や倍率が可変であり、撮影画角が固定されていない場合が多い。このようなカメラによって撮影された画像から、当該画像内に写り込んだ物体の大きさや移動速度を計測する場合、当該画像の撮像時のカメラの内部標定要素及び外部標定要素を取得する必要がある。 Cameras installed outdoors, such as on rivers, roads, and parks, can change the shooting direction and magnification by remote control, and the shooting angle of view is often not fixed. When measuring the size and moving speed of an object captured in an image taken by such a camera, it is necessary to obtain the interior and exterior orientation parameters of the camera when the image was taken.
従来の画像標定方法は、撮影された画像から容易に視認できるマーカーを、標定対象区域内の複数箇所に設置する。そして、地上に固定された座標系における当該マーカーの位置座標を測量した上で、画像標定を行う必要がある(例えば特許文献1)。 Conventional image orientation methods involve placing markers that are easily visible in captured images at multiple locations within the area to be orientated. Then, image orientation must be performed after measuring the position coordinates of the markers in a coordinate system fixed on the ground (see, for example, Patent Document 1).
しかしながら、例えば増水時の河川や、供用中の道路等においては、マーカーの設置が禁止又は制限される場合がある。従って、標定対象区域内にマーカーの設置を必要とする従来の画像標定方法では、標定の作業が禁止又は制限される場合がある。 However, in some cases, such as on flooded rivers or on roads in use, the installation of markers may be prohibited or restricted. Therefore, with conventional image location methods that require the installation of markers within the location area, location work may be prohibited or restricted.
本発明の目的は、標定対象区域内にマーカーの設置を必要としない標定方法を提供することである。 The object of the present invention is to provide a location method that does not require the installation of markers within the location target area.
上記目的を達成するための一の発明は、被写体に対して位置が固定された第1のカメラによって、前記被写体を撮影し、第1の画像を取得するステップと、各々が、前記被写体の少なくとも一部を撮影し、複数の第2の画像を取得するステップと、前記被写体における複数の点の各々に対応する対応点を、前記第1の画像と、前記複数の第2の画像のうちの少なくとも一つと、から特定するステップと、前記複数の点の各々に対応する対応点の位置座標に基づいて、前記第1のカメラの、前記第1の画像の撮像時の標定要素を計算するステップと、を含む、画像標定方法である。本発明の他の特徴については、本明細書の記載により明らかにする。 One invention for achieving the above object is an image orientation method including the steps of photographing an object with a first camera whose position is fixed relative to the object and acquiring a first image, photographing at least a portion of the object and acquiring a plurality of second images, identifying corresponding points for each of a plurality of points on the object from the first image and at least one of the plurality of second images, and calculating orientation elements of the first camera at the time of capturing the first image based on the position coordinates of the corresponding points for each of the plurality of points. Other features of the invention will be made clear by the description in this specification.
本発明によれば、標定対象区域内にマーカーの設置を必要としない標定方法を提供することができる。 The present invention provides a location method that does not require the installation of markers within the location target area.
==第1実施形態==
<画像標定システム>
図1は、本実施形態の画像標定システム1の構成を示す図である。画像標定システム1は、第1のカメラC1と、第2のカメラC2と、画像標定装置2とを備えている。図2は、第1のカメラC1及び第2のカメラC2の配置を説明する図である。
First Embodiment
<Image Orientation System>
Fig. 1 is a diagram showing the configuration of an
[第1のカメラ]
第1のカメラC1は、第1の画像F1(詳細は後述)を得るためのカメラである。本実施形態の第1のカメラC1は、被写体に対して位置が固定されたカメラである。本実施形態における被写体は、河川、道路、橋、建築物等を含む。従って、第1のカメラC1は、地上に対して位置が固定されたカメラともいえる。第1のカメラC1は、姿勢、レンズの焦点距離、撮影画角等が可変であり、これらは例えば遠隔操作によって制御可能である。第1のカメラC1は、例えば、防災、防犯等の目的で設置された監視カメラである。
[First Camera]
The first camera C1 is a camera for obtaining a first image F1 (details will be described later). The first camera C1 in this embodiment is a camera whose position is fixed with respect to the subject. The subject in this embodiment includes rivers, roads, bridges, buildings, etc. Therefore, the first camera C1 can also be said to be a camera whose position is fixed with respect to the ground. The first camera C1 has variable attitude, lens focal length, shooting angle of view, etc., which can be controlled, for example, by remote control. The first camera C1 is, for example, a surveillance camera installed for the purpose of disaster prevention, crime prevention, etc.
尚、第1のカメラC1は、持ち運び可能なビデオカメラ、デジタルカメラ、モバイル機器に搭載されたカメラ等であってもよい。この場合、これらの機器を三脚等で地上に固定して用いればよい。 The first camera C1 may be a portable video camera, a digital camera, a camera mounted on a mobile device, etc. In this case, these devices may be fixed to the ground using a tripod or the like.
[第2のカメラ]
第2のカメラC2は、複数の第2の画像F2i(iは整数、詳細は後述)を得るためのカメラである。本実施形態の第2のカメラC2は、被写体に対して位置が移動可能なカメラである。第2のカメラC2は、例えば、航空機、車両、船舶等の移動体に積載されたカメラである。第2のカメラC2は、これらの移動体に設置されてもよいし、これらの移動体の乗組員の手や肩によって支持されてもよい。
[Second Camera]
The second camera C2 is a camera for obtaining a plurality of second images F2i (i is an integer, details will be described later). The second camera C2 in this embodiment is a camera whose position is movable relative to the subject. The second camera C2 is, for example, a camera mounted on a moving body such as an aircraft, a vehicle, or a ship. The second camera C2 may be installed on these moving bodies, or may be supported by the hands or shoulders of crew members of these moving bodies.
本実施形態では、第2のカメラC2は、航空機Aに設置されたカメラである。図2には、航空機Aの飛行ルートRが示されている。航空機Aの飛行中に、第2のカメラC2が被写体を撮影することによって、第2の画像F2iが得られる。第2のカメラC2が航空機に積載される場合、被写体を撮影する方向は特に制限されないが、鉛直下方に対して角度を有する方向から被写体を撮影することが好ましい。そうすると、被写体の側面のうち、鉛直方向に垂直な側面のみならず、鉛直方向に平行な側面が写る画像も得られることにより、後述する3次元画像データを高精度で得られるために好ましい。 In this embodiment, the second camera C2 is a camera installed on the aircraft A. FIG. 2 shows the flight route R of the aircraft A. While the aircraft A is flying, the second camera C2 photographs the subject, thereby obtaining a second image F2i. When the second camera C2 is loaded onto the aircraft, the direction in which the subject is photographed is not particularly limited, but it is preferable to photograph the subject from a direction that is angled downward vertically. This is preferable because it allows images to be obtained that show not only the sides of the subject that are perpendicular to the vertical direction, but also the sides that are parallel to the vertical direction, thereby obtaining three-dimensional image data, which will be described later, with high accuracy.
第2のカメラC2は、静止画を得るためのカメラでもよく、動画を得るためのカメラでもよい。静止画を得るためのカメラである場合、第2のカメラC2は、航空機Aが所定の位置を飛行しているときに、又は所定の時間間隔で、被写体を撮影することにより、第2の画像F2iを得る。動画を得るためのカメラである場合、動画の所定の時間の1コマを第2の画像F2iとすればよい。 The second camera C2 may be a camera for obtaining still images or a camera for obtaining moving images. If the second camera C2 is a camera for obtaining still images, it obtains the second image F2i by photographing a subject while the aircraft A is flying at a predetermined position or at a predetermined time interval. If the second camera C2 is a camera for obtaining moving images, one frame of the moving image at a predetermined time may be used as the second image F2i.
尚、以下では、第1のカメラC1と、第2のカメラC2とを区別しない場合、これらを単に「カメラ」と称する。 In the following, when there is no need to distinguish between the first camera C1 and the second camera C2, they will simply be referred to as "cameras."
[画像標定装置のハードウェア構成]
図1では、画像標定装置2のハードウェア構成の一例が示されている。画像標定装置2は、CPU(Central Processing Unit)20、主記憶装置21、補助記憶装置22、入力装置23、出力装置24、及び通信装置25を含むコンピューターである。
[Hardware configuration of image orientation device]
1 shows an example of a hardware configuration of the
CPU20は、主記憶装置21に格納されたプログラムを読み出して実行することにより、画像標定装置2が有する上記各装置の動作を制御する。また、CPU20は、当該プログラムに従って、四則演算や論理演算を行う。
The
主記憶装置21は、CPU20が実行中のプログラムやデータを一時的に格納するための記憶装置である。主記憶装置21は、例えばRAM(Random Access Memory)等の半導体記憶装置により構成することができる。
The
補助記憶装置22は、CPU20によって実行あるいは処理されるプログラムや各種データを格納するための記憶装置である。補助記憶装置22は、例えばハードディスク等の磁気記憶装置、CDやDVD等の光記憶装置、フラッシュメモリ等の半導体記憶装置等により構成することができる。補助記憶装置22には、本実施形態に係る各種のコードから構成される画像標定プログラム及び画像データが格納されている。
The
画像標定プログラムは、画像標定装置2が有する各種機能(詳細は後述)を実現するためのプログラムである。 The image orientation program is a program for implementing the various functions of the image orientation device 2 (described in detail below).
画像データは、第1の画像F1と、複数の第2の画像F2iとを含む複数の画像の各々を、出力装置24の一つである表示装置に表示させるためのデータである。図3Aは、第1の画像F1の一例を示す図である。図3Bは、複数の第2の画像F2iの一例を示す図である。この例では、8枚の第2の画像F2i(i=1~8)が示されている。
The image data is data for displaying each of a plurality of images, including a first image F1 and a plurality of second images F2i, on a display device, which is one of the
第1の画像F1は、第1のカメラC1によって、被写体を撮影して取得した画像である。第1の画像F1は、本実施形態の画像標定システム1による画像標定の対象となる画像である。つまり、本実施形態の画像標定システム1は、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。
The first image F1 is an image acquired by photographing a subject with the first camera C1. The first image F1 is an image that is the subject of image orientation by the
ここで、標定要素とは、外部標定要素と、内部標定要素とを含む。外部標定要素とは、カメラの撮像時の位置及び姿勢である。内部標定要素とは、カメラの幾何学的特性であり、カメラレンズの焦点距離、レンズ歪み係数等である。本明細書では、単に「標定要素」と称する場合、外部標定要素と、内部標定要素との双方を意味する。 Here, the orientation parameters include exterior orientation parameters and interior orientation parameters. Exterior orientation parameters are the position and orientation of the camera at the time of capturing an image. Interior orientation parameters are the geometric characteristics of the camera, such as the focal length of the camera lens and the lens distortion coefficient. In this specification, when the term "orientation parameters" is used simply, it means both exterior orientation parameters and interior orientation parameters.
複数の第2の画像F2iの各々は、第2のカメラC2によって、撮影して取得した画像である。また、複数の第2の画像F2iの各々は、第2のカメラC2によって、被写体の少なくとも一部を撮影して取得した画像である。前述のように、第2のカメラC2は、航空機、車両等に設置されたカメラであるため、航空機、車両等の移動中に、複数の異なる位置から、被写体を撮影することができる。これによって、複数の第2の画像F2iを取得することができる。 Each of the multiple second images F2i is an image captured and acquired by the second camera C2. Also, each of the multiple second images F2i is an image captured and acquired by the second camera C2 of at least a portion of the subject. As described above, the second camera C2 is a camera installed on an aircraft, vehicle, etc., and therefore can capture images of the subject from multiple different positions while the aircraft, vehicle, etc. is moving. This allows multiple second images F2i to be acquired.
複数の第2の画像F2iは、画像標定システム1が第1の画像F1の画像標定を行う際に必要な情報を得るための画像である。第1の画像F1に写った被写体における任意の1点は、複数の第2の画像F2iのうち少なくとも一つに写っていることが必要である。
The multiple second images F2i are images from which the
また、複数の第2の画像F2iは、3次元画像データ作成部32(後述)が、被写体の3次元画像データを作成するために用いられる画像でもある。3次元画像データ作成部32は任意の構成である。3次元画像データ作成部32が3次元画像データを作成する場合、被写体における任意の1点は、複数の第2の画像F2iのうち少なくとも二つの第2の画像F2iに写っていることが必要である。
The multiple second images F2i are also images used by a three-dimensional image data creation unit 32 (described later) to create three-dimensional image data of the subject. The three-dimensional image
尚、以下では、第1の画像F1と、第2の画像F2iとを区別しない場合、これらを単に「画像」と称する。 In the following, when there is no need to distinguish between the first image F1 and the second image F2i, they will simply be referred to as "images."
入力装置23は、画像標定装置2の外部から画像標定装置2の内部へ各種データを取り込むためのユーザインタフェースである。入力装置23は、キーボード、マウス、マイク等の装置である。
The
出力装置24は、画像標定装置2の内部における処理結果等を、画像標定装置2の外部に出力するためのユーザインタフェースである。出力装置24は、LCD(Liquid Crystal Display)等の表示装置、プリンタ、スピーカ等の装置である。
The
通信装置25は、画像標定装置2を各種通信網に接続するためのネットワークインターフェースである。通信装置25は、インターネットやLAN(Local Area Network)等のネットワークを介して他のコンピューターからデータを受信し、受信したデータを補助記憶装置22や主記憶装置21に記憶する。また、通信装置25は、補助記憶装置22や主記憶装置21に記憶されているデータを、ネットワークを介して他のコンピューターへ送信する。通信装置25は、例えばネットワークカード等の装置である。
The
[各種座標系と共線条件]
図4は、各種座標系及び共線条件について説明する図である。画像標定装置2の機能ブロックの説明を行う前に、後の説明の便宜のため、絶対座標系と、写真座標系と、カメラ座標系とについて定義し、これらの関係について説明する。更に、共線条件について説明する。
[Various coordinate systems and collinearity conditions]
4 is a diagram for explaining various coordinate systems and collinearity conditions. Before explaining the functional blocks of the
絶対座標系は、地上の一点に原点を有し、地上に対する3つの方向の座標軸を有する3次元の直交座標系である。カメラの位置Oの絶対座標系における位置座標を、点O(X0,Y0,Z0)とする。また、被写体上のある点Pの絶対座標系における位置座標を、点P(X,Y,Z)とする。 The absolute coordinate system is a three-dimensional Cartesian coordinate system that has an origin at a point on the ground and coordinate axes in three directions relative to the ground. The position coordinates of the camera position O in the absolute coordinate system are defined as point O ( X0 , Y0 , Z0 ). The position coordinates of a point P on the subject in the absolute coordinate system are defined as point P (X, Y, Z).
写真座標系は、画像上の一点に原点を有し、画像に対する2つの方向の座標軸を有する2次元の直交座標系である。点P(X,Y,Z)に対応する、写真座標系における位置座標を、点p(x,y)とする。 The photograph coordinate system is a two-dimensional Cartesian coordinate system that has an origin at a point on the image and has coordinate axes in two directions relative to the image. The position coordinates in the photograph coordinate system that correspond to point P (X, Y, Z) are defined as point p (x, y).
カメラ座標系は、カメラの位置に原点を有し、カメラに対する3つの方向の座標軸を有する3次元の直交座標系である。カメラの座標系におけるカメラの位置座標oを、点o(0,0,0)とする。また、点P(X,Y,Z)に対応する、カメラ座標系における位置座標pを、写真座標系における座標値を用いて、点p(x,y,-c)とする。cは、カメラレンズの焦点距離である。 The camera coordinate system is a three-dimensional Cartesian coordinate system that has its origin at the camera position and has coordinate axes in three directions relative to the camera. The camera position coordinate o in the camera coordinate system is defined as point o(0,0,0). Furthermore, the position coordinate p in the camera coordinate system that corresponds to point P(X,Y,Z) is defined as point p(x,y,-c) using coordinate values in the photograph coordinate system. c is the focal length of the camera lens.
点Oと、点pと、点Pとは、一直線に並ぶ。これは、共線条件と称され、共線条件を定式化することにより、以下の式が得られる。
Point O, point p, and point P are aligned on a straight line. This is called the collinearity condition, and by formulating the collinearity condition, the following equation is obtained:
ここで、kは、正の実数である。また、行列Rは、カメラ座標系から絶対座標系へ変換するための行列であって、3行3列の直交行列aij(i=1~3、j=1~3)である。つまり、行列Rの転置行列は、行列Rの逆行列に等しい。また、行列Rが決まると、外部標定要素の一つであるカメラの姿勢が特定される。つまり、行列Rの各成分は、外部標定要素に起因するパラメータである。 Here, k is a positive real number. Furthermore, the matrix R is a matrix for converting from the camera coordinate system to the absolute coordinate system, and is an orthogonal matrix a ij (i=1 to 3, j=1 to 3) with 3 rows and 3 columns. In other words, the transposed matrix of the matrix R is equal to the inverse matrix of the matrix R. Furthermore, when the matrix R is determined, the attitude of the camera, which is one of the exterior orientation parameters, is specified. In other words, each component of the matrix R is a parameter resulting from the exterior orientation parameters.
式1のkを消去すると、下記の2式が得られる。
By eliminating k from
ここで、レンズ歪み等の内部標定要素に起因して、写真座標系の位置座標(式2-1及び式2-2)の左辺)に誤差Δx及びΔyが生じる場合、式(2-1)及び式(2-2)はそれぞれ、以下の式3-1及び式3-2のように書き換えられる。
Here, when errors Δx and Δy occur in the position coordinates of the photograph coordinate system (left side of Equations 2-1 and 2-2) due to internal orientation parameters such as lens distortion, Equations (2-1) and (2-2) are rewritten as Equations 3-1 and 3-2 below, respectively.
つまり、内部標定要素は、誤差Δx及びΔyとしてモデル化される。誤差Δx及びΔyの、内部標定要素を用いた表現については、幾つかのモデルが提案されているが、いずれを用いてもよく、特に制限はない。 In other words, the interior orientation parameters are modeled as errors Δx and Δy. Several models have been proposed for expressing the errors Δx and Δy using the interior orientation parameters, but any of them may be used, and there are no particular limitations.
本明細書において、「標定要素を計算する」とは、当該標定要素の数値を求めること、又は当該標定要素に起因するパラメータ等の数値を求めることである。また、本明細書において、「カメラの外部標定要素を計算する」とは、カメラの絶対座標における位置座標と、カメラの姿勢を特定するパラメータを求めることを意味する。「カメラの姿勢を特定するパラメータ」とは、行列Rの成分(独立なパラメータは3つ)であってもよいし、絶対座標系のX軸、Y軸及びZ軸の各々に対するカメラ座標の回転角ω、φ及びκであってもよい。また、本明細書において、「カメラの内部標定要素を計算する」とは、カメラレンズの焦点距離cと、カメラの内部標定要素に起因する誤差Δx及びΔyのモデルに含まれた内部標定要素を求めることを意味する。 In this specification, "calculating the orientation parameters" means to obtain the numerical values of the orientation parameters, or to obtain the numerical values of parameters, etc., resulting from the orientation parameters. In addition, in this specification, "calculating the exterior orientation parameters of the camera" means to obtain the position coordinates in the absolute coordinate system of the camera and the parameters that specify the camera's attitude. The "parameters that specify the camera's attitude" may be the components of the matrix R (there are three independent parameters), or the rotation angles ω, φ, and κ of the camera coordinates relative to the X-axis, Y-axis, and Z-axis of the absolute coordinate system, respectively. In addition, in this specification, "calculating the interior orientation parameters of the camera" means to obtain the interior orientation parameters included in the model of the focal length c of the camera lens and the errors Δx and Δy resulting from the interior orientation parameters of the camera.
[画像標定装置の機能ブロック]
図5は、画像標定装置2に実現される機能ブロックの一例を示す図である。画像標定装置2のCPU20が、標定プログラムを実行することにより、画像標定装置2には、特徴点特定部30と、対応点特定部31と、標定計算部34と、3次元画像データ作成部32と、表示制御部33とが実現される。
[Functional block of image orientation device]
5 is a diagram showing an example of functional blocks realized in the
特徴点特定部30は、第1の画像F1と、複数の第2の画像F2iとの各々について、複数の特徴点を特定する。特徴点とは、画像内において、明瞭な特徴と視認される点である。特徴点は、例えば、地形が有する角、道路の白線の終端、建築物が有する角等に対応する画像内の箇所である。
The feature
「特徴点を特定する」とは、画像における特徴点の写真座標系における位置座標を特定することを意味する。特徴点を特定する方法としては、例えば、Foerstnerフィルタ、SUSANフィルタ、FASTフィルタ等を用いることができる。特徴点特定部30は、複数の特徴点を特定した後に、複数の特徴点の各々の写真座標系における位置座標を特定する。
"Identifying feature points" means identifying the position coordinates of feature points in an image in a photographic coordinate system. Methods for identifying feature points include, for example, a Förstner filter, a SUSAN filter, and a FAST filter. After identifying multiple feature points, the feature
図6Aは、第1の画像F1において特定された複数の特徴点を示す図である。図6Bは、複数の第2の画像F2iのうち、第2の画像F21において特定された複数の特徴点を示す図である。図6A及び図6Bにおいて、特定された特徴点を黒丸で示す。 Figure 6A is a diagram showing multiple feature points identified in a first image F1. Figure 6B is a diagram showing multiple feature points identified in a second image F21 among multiple second images F2i. In Figures 6A and 6B, the identified feature points are indicated by black circles.
第1の画像F1及び第2の画像F21から特定される特徴点の数は、多いほど好ましい。詳細は後述するが、第1の画像F1及び第2の画像F21から特定される特徴点の数が多いほど、第1の画像F1及び第2の画像F21から、多くの対応点が特定されやすくなる。第1の画像F1及び第2の画像F21から、少なくとも6個の対応点が特定されるのに十分な数の特徴点を特定することが好ましい。他の第2の画像F2i(i≠1)についても同様の手順で複数の特徴点が特定される。 The more feature points identified from the first image F1 and the second image F21, the more preferable. As will be described in detail later, the more feature points identified from the first image F1 and the second image F21, the easier it is to identify many corresponding points from the first image F1 and the second image F21. It is preferable to identify a sufficient number of feature points from the first image F1 and the second image F21 so that at least six corresponding points are identified. A similar procedure is used to identify multiple feature points for other second images F2i (i ≠ 1).
3次元画像データ作成部32は、複数の第2の画像F2iに基づいて、被写体を含む領域の3次元画像データを作成する。具体的には、3次元画像データ作成部32は、フォトグラメトリの原理を用いて、3次元画像データを作成する。図8は、図4Bに示した8枚の第2の画像F2iから得られた3次元画像の一例である。尚、3次元画像データ作成部32は任意の構成である。
The three-dimensional image
表示制御部33は、3次元画像データ作成部32が作成した3次元画像データに基づく3次元画像32aを、出力装置24の一である表示装置に表示させる。ユーザは、キーボード、マウス等を用いて、被写体を含む領域の3次元画像32aを、任意の方向から視認することができる。
The
ユーザは、3次元画像32aを視認することにより、複数の第2の画像F2iが、後述する標定計算部34による画像標定において十分な精度を得るために十分なデータであるか否かを確認する。仮に、3次元画像32aが、現実の被写体を十分な精度で再現していないと視認される場合、画像標定において十分な精度を得ることが困難であると予測される。
By visually checking the three-
また、ユーザは、3次元画像32aを視認することにより、第1の画像F1の画像標定が可能か否かを確認する。仮に、第1の画像F1に写った被写体の範囲が、3次元画像32aに含まれていない場合、第1の画像F1の画像標定が不可能である。
The user also checks whether image orientation of the first image F1 is possible by visually checking the three-
また、3次元画像32aと、絶対座標とを関連付けることにより、被写体の一点の、絶対座標系における位置座標を特定してもよい。そうすると、カメラ座標系における対応点の、絶対座標系における位置座標を特定することができる。これによって、セルフキャリブレーション付きバンドル法(後述)の精度が向上し、画像標定の精度が向上する。
The three-
対応点特定部31は、被写体における複数の点(絶対座標系における複数の点)の各々に対応する対応点を、第1の画像F1と、複数の第2の画像F2iのうちの少なくとも一つと、から特定する。ここで、「対応点」とは、被写体のある一点を点Pとした場合に、点Pに対応する、写真座標系の点である。対応点は、「タイポイント」とも称される。
The corresponding
「対応点を特定する」とは、対応点の写真座標系における位置座標を特定することを意味する。 "Identifying corresponding points" means identifying the position coordinates of corresponding points in the photograph coordinate system.
具体的に、対応点特定部31が、被写体における複数の点の各々に対応する対応点を、第1の画像F1と、第2の画像F21と、から特定する方法について説明する。対応点特定部31は、例えば、第1の画像F1から特定された複数の特徴点と、第2の画像F21から特定された複数の特徴点との全ての対について、パターンマッチングの手法を用いて類似度を算出する。パターンマッチングの手法としては、例えば、正規化相互相関法や最小二乗相関法を用いることができる。
Specifically, a method in which the corresponding
そして、対応点特定部31は、例えば、類似度が所定の閾値以上となる特徴点の対を、被写体のある一点に対応する、第1の画像F1における対応点と、第2の画像F21における対応点として特定する。
Then, the corresponding
図7Aは、第1の画像F1から特定された複数の対応点を示す図である。図7Bは、第2の画像F21から特定された複数の対応点を示す図である。図7A及び図7Bにおいて、特定された対応点が、黒丸で示されている。 Figure 7A is a diagram showing multiple corresponding points identified from a first image F1. Figure 7B is a diagram showing multiple corresponding points identified from a second image F21. In Figures 7A and 7B, the identified corresponding points are indicated by black circles.
これらの図において、図7Aの点qj(1)と、図7Bの点qj(21)とは、いずれも被写体における点Pj(図示せず)に対応する対応点を意味する。第1の画像F1と、他の第2の画像F2i(i≠1)についても同様の手順で複数の対応点が特定される。 In these figures, point q j (1) in Fig. 7A and point q j (21) in Fig. 7B both refer to a corresponding point corresponding to point P j (not shown) in the subject. A plurality of corresponding points are identified in the first image F1 and another second image F2i (i ≠ 1) in a similar procedure.
標定計算部34は、複数の対応点の写真座標系における各々の位置座標に基づいて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。具体的には、標定計算部34は、セルフキャリブレーション付きバンドル法を用いて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。
The
バンドル法とは、共線条件を定式化し、最小自乗法を用いて解くことにより、外部標定要素を求める手法である。セルフキャリブレーション付きバンドル法とは、カメラの外部標定要素に加えて、内部標定要素を同時に計算する手法であり、バンドル法で利用される共線条件式に誤差モデルの項を追加して、未知の量を解く手法である(式3-1及び式3-2)。 The bundle method is a method for determining exterior orientation parameters by formulating collinearity conditions and solving them using the least squares method. The bundle method with self-calibration is a method for simultaneously calculating interior orientation parameters in addition to the exterior orientation parameters of the camera, and is a method for solving unknown quantities by adding an error model term to the collinearity condition equation used in the bundle method (Equation 3-1 and Equation 3-2).
第1の画像F1から特定された複数の対応点のうち一の対応点qj(1)から、下記の共線条件が得られる。ここで、点qj(1)のカメラ座標系における座標を、(x(1),y(1),z(1))とする。また、対応点qj(1)に対応する絶対座標系における位置座標を、(X,Y,Z)とする。
The following collinearity condition is obtained from one corresponding point q j (1) among the multiple corresponding points identified from the first image F1. Here, the coordinates of point q j (1) in the camera coordinate system are (x(1), y(1), z(1)). In addition, the position coordinates in the absolute coordinate system corresponding to corresponding point q j (1) are (X, Y, Z).
更に、第2の画像F21から特定された複数の対応点のうち一の対応点qj(21)から、下記の定式化された共線条件が得られる。ここで、点qj(21)のカメラ座標系における座標を、(x(21),y(21),z(21))とする。また、対応点qj(21)に対応する絶対座標系における位置座標は、対応点qj(1)に対応する絶対座標系における位置座標と同一であり、(X,Y,Z)である。
Furthermore, the following formulated collinearity condition is obtained from one corresponding point q j (21) among the multiple corresponding points identified from the second image F21. Here, the coordinates of point q j (21) in the camera coordinate system are (x(21), y(21), z(21)). Also, the position coordinates in the absolute coordinate system corresponding to corresponding point q j (21) are the same as the position coordinates in the absolute coordinate system corresponding to corresponding point q j (1), and are (X, Y, Z).
式4-1及び式4-2において、変数に「(1)」と付したものは、第1の画像F1に関する変数であることを意味する。同様に、式5-1及び式5-2において、変数に「(21)」と付したものは、第2の画像F21に関する変数であることを意味する。 In Equation 4-1 and Equation 4-2, variables marked with "(1)" refer to variables related to the first image F1. Similarly, in Equation 5-1 and Equation 5-2, variables marked with "(21)" refer to variables related to the second image F21.
同様にして、第1の画像F1と、第2の画像F2i(i≠1)とから特定された複数の対応点の対の数の2倍の数だけ、共線条件が得られる。 In the same manner, collinearity conditions are obtained twice the number of pairs of corresponding points identified from the first image F1 and the second image F2i (i ≠ 1).
標定計算部34は、上述の方法で定式化された複数の共線条件を、セルフキャリブレーション付きバンドル法を用いて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。
The
<画像標定処理>
以下、各機能ブロックが実行する処理の一例を、図9を参照しながら説明する。図9は、画像標定装置2で実行される処理の一例を示すフローチャートである。
<Image orientation processing>
An example of the process executed by each functional block will be described below with reference to Fig. 9. Fig. 9 is a flow chart showing an example of the process executed by the
本実施形態の画像標定処理は、第1の画像F1を取得するステップS1と、複数の第2の画像F2iを取得するステップS2と、特徴点を特定するステップS2と、対応点を特定するステップS3と、標定要素を計算するステップS4と、を含む。 The image orientation process of this embodiment includes step S1 of acquiring a first image F1, step S2 of acquiring multiple second images F2i, step S2 of identifying feature points, step S3 of identifying corresponding points, and step S4 of calculating orientation elements.
ステップS1において、特徴点特定部30は、補助記憶装置22に記録された、第1の画像F1を表現するための画像データを読み出し、第1の画像F1を取得する。
In step S1, the feature
ステップS2において、特徴点特定部30は、補助記憶装置22に記録された、複数の第2の画像F2iの各々を表現するための画像データを読み出し、複数の第2の画像F2iを取得する。尚、ステップS1及びステップS2の順序は任意である。
In step S2, the feature
ステップS3において、特徴点特定部30は、第1の画像F1と、複数の第2の画像F2iとの各々から、複数の特徴点を特定する。
In step S3, the feature
ステップS4において、対応点特定部31は、第1の画像F1と、複数の第2の画像F2iとの対応点を、複数点特定する。
In step S4, the corresponding
ステップS5において、標定計算部34は、ステップS2で得られた複数の対応点に基づいて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。
In step S5, the
==変形例1==
各機能ブロックが実行する処理の変形例を、図10を参照しながら説明する。図10は、画像標定装置2で実行される処理の変形例を示すフローチャートである。本変形例の処理は、第1実施形態の処理(図9)に比べると、3次元画像データを作成するステップS4´を更に含む点で異なっている。第1実施形態のステップS1、ステップS2、ステップS3、ステップS4及びステップS5はそれぞれ、本変形例のステップS1´、ステップS2´、ステップS3´、ステップS5´及びステップS6´と同様である。
==
A modified example of the process executed by each functional block will be described with reference to Fig. 10. Fig. 10 is a flow chart showing a modified example of the process executed by the
本変形例では、3次元画像データを作成するステップS4´は、対応点を特定するステップS5´の前に実行される。ステップS4´において、3次元画像データ作成部32は、複数の第2の画像F2iを用いて被写体を含む領域の3次元画像データを作成する。尚、ステップS4´は、ステップS6´の前に実行されればよく、この例のタイミングに限られない。
In this modified example, step S4' of creating the three-dimensional image data is performed before step S5' of identifying corresponding points. In step S4', the three-dimensional image
==変形例2==
画像標定システム1の処理において、第1の画像F1と、複数の第2の画像F2iとは、解像度、明るさ、コントラスト、色彩等の画質、影の位置等が近いことが好ましい。そうすると、対応点特定部31が実行するパターンマッチングの精度を一定以上に保つことができ、ひいては得られる標定要素の精度を一定以上に保つことができる。
==
In the processing of the
従って、第1の画像F1と、複数の第2の画像F2iとについて画像処理を行い、解像度、明るさ、コントラスト、色彩等が近くなるように調整してもよい。このような画像処理は、対応点を特定するステップS5(図9)の前の任意のタイミングで行えばよい。 Therefore, image processing may be performed on the first image F1 and the multiple second images F2i to adjust the resolution, brightness, contrast, color, etc. to be similar. Such image processing may be performed at any time before step S5 (FIG. 9) of identifying corresponding points.
==第2実施形態==
本実施形態の画像標定システムは、第1実施形態の画像標定システム1と比べると、複数の第2の画像F2iを得るためのカメラが異なっている。その他の構成、処理方法等は、第1実施形態と同様である。
Second Embodiment
The image orientation system of this embodiment is different from the
図11は、第1のカメラC1と、複数の第3のカメラC3との配置の一例を示す図である。本実施形態では、複数の第2の画像F2iは、複数の第3のカメラC3によって、撮影して取得した画像である。複数の第3のカメラC3の各々は、被写体に対して、位置が固定されている。 Figure 11 is a diagram showing an example of the arrangement of the first camera C1 and the multiple third cameras C3. In this embodiment, the multiple second images F2i are images captured and acquired by the multiple third cameras C3. Each of the multiple third cameras C3 is fixed in position with respect to the subject.
複数の第3のカメラC3の各々は、所定の時間間隔で第2の画像F2iを得る。複数の第3のカメラC3の各々は、第1実施形態の第2のカメラC2と同様に、静止画を得るためのカメラでもよく、動画を得るためのカメラでもよい。 Each of the multiple third cameras C3 obtains a second image F2i at a predetermined time interval. Each of the multiple third cameras C3 may be a camera for obtaining still images, similar to the second camera C2 in the first embodiment, or a camera for obtaining moving images.
また、複数の第3のカメラC3の各々は、姿勢、撮影画角等が遠隔操作により制御可能であってもよいし、これらが固定されていてもよい。 Furthermore, the attitude, shooting angle of view, etc. of each of the multiple third cameras C3 may be remotely controllable, or these may be fixed.
前述のように、画像標定システムの処理において、第1の画像F1と、複数の第2の画像F2iとは、解像度、明るさ、コントラスト、色彩等の画質、影の位置等が近いことが好ましい。 As mentioned above, in the processing of the image orientation system, it is preferable that the first image F1 and the multiple second images F2i are similar in image quality such as resolution, brightness, contrast, and color, and in the position of shadows, etc.
従って、複数の第2の画像F2iとしては、第1の画像F1が得られた時刻に可能な限り近い時刻に得られたものを選択することが好ましい。 Therefore, it is preferable to select the multiple second images F2i that were obtained as close as possible to the time that the first image F1 was obtained.
また、本実施形態の複数の第3のカメラC3によれば、任意のタイミングで被写体を撮影して複数の第2の画像F2iを取得することができる。従って、予め被写体を撮影して複数の第2の画像F2iを取得し、3次元画像データを作成しておいてもよい。そして、複数の第2の画像F2iの各々を表現するための画像データと、当該3次元画像データとを、補助記憶装置22に保存しておいてもよい。
In addition, according to the multiple third cameras C3 of this embodiment, the subject can be photographed at any timing to obtain multiple second images F2i. Therefore, the subject may be photographed in advance to obtain multiple second images F2i and create three-dimensional image data. Then, image data for expressing each of the multiple second images F2i and the three-dimensional image data may be stored in the
そして、その後に第1のカメラC1が被写体を撮影して得られた第1の画像F1について、標定要素を計算してもよい。この場合、図10のフローチャートにおいて、3次元画像データを作成するステップS4´の代わりに、補助記憶装置22に記録された3次元画像データを読み出すステップとすればよい。
Then, the orientation parameters may be calculated for the first image F1 obtained by the first camera C1 photographing the subject. In this case, in the flowchart of FIG. 10, step S4' of creating the three-dimensional image data may be replaced by a step of reading out the three-dimensional image data recorded in the
上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。また、本発明は、その趣旨を逸脱することなく、変更や改良され得るとともに、本発明にはその等価物が含まれるのはいうまでもない。 The above embodiment is intended to facilitate understanding of the present invention, and is not intended to limit the present invention. Furthermore, the present invention may be modified or improved without departing from the spirit of the present invention, and it goes without saying that the present invention includes equivalents.
以上、第1及び第2実施形態の画像標定方法は、被写体に対して固定された位置に設置された第1のカメラC1によって、被写体が撮影されることによって得られた、第1の画像F1を取得するステップと、各々が、被写体の少なくとも一部が撮影されることによって得られた、複数の第2の画像F2iを取得するステップと、第1の画像F1と、複数の第2の画像F2iとの対応点を、複数点特定するステップと、複数の対応点の各々の写真座標系における位置座標に基づいて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算するステップと、を含む。 As described above, the image orientation methods of the first and second embodiments include the steps of acquiring a first image F1 obtained by photographing the subject with a first camera C1 installed at a fixed position relative to the subject, acquiring a plurality of second images F2i, each of which is obtained by photographing at least a portion of the subject, identifying a plurality of corresponding points between the first image F1 and the plurality of second images F2i, and calculating orientation elements of the first camera C1 at the time of capturing the first image F1 based on the position coordinates in the photographic coordinate system of each of the plurality of corresponding points.
このような画像標定方法によれば、第1の画像F1の画像標定を行う際、標定対象区域内にマーカーの設置を必要としない。従って、マーカーの設置が禁止又は制限される区域の画像についても、画像標定を行うことができる。 According to this image orientation method, when performing image orientation of the first image F1, it is not necessary to install a marker within the area to be located. Therefore, image orientation can be performed even for images in areas where the installation of markers is prohibited or restricted.
また、当該標定方法は、対応点を複数点特定するステップの前に、複数の第2の画像F2iに基づいて、被写体を含む領域の3次元画像データを作成するステップを更に含んでもよい。これによって、ユーザは、3次元画像32aを視認することにより、複数の第2の画像F2iが、画像標定において十分な精度を得るために十分なデータであるか否かを確認することができる。また、ユーザは、3次元画像32aを視認することにより、第1の画像F1の画像標定が可能か否かを確認することができる。また、3次元画像32aと、絶対座標とを関連付けることにより、被写体の一点の、絶対座標系における位置座標を特定することができる。そうすると、カメラ座標系における対応点の、絶対座標系における位置座標を特定することができる。これによって、セルフキャリブレーション付きバンドル法の精度が向上し、画像標定の精度が向上する。
The orientation method may further include a step of creating three-dimensional image data of an area including the subject based on the second images F2i before the step of identifying the corresponding points. This allows the user to visually check the three-
また、第1実施形態の標定方法において、複数の第2の画像F2iは、被写体に対して移動可能な位置に設置された第2のカメラC2によって撮影されることによって得られた画像である。これによって、複数の第2の画像F2iを得るために、複数のカメラを必要とせず、被写体に対して異なる位置及び角度から、被写体を複数撮影することができる。 In addition, in the location method of the first embodiment, the multiple second images F2i are images obtained by photographing the subject with a second camera C2 installed in a position that can be moved relative to the subject. This makes it possible to photograph the subject multiple times from different positions and angles without requiring multiple cameras to obtain the multiple second images F2i.
また、第2実施形態の標定方法において、複数の第2の画像F2iは、被写体に対して固定された位置に設置された複数の第3のカメラC3によって撮影されることによって得られた画像である。これによって、第1の画像F1と、複数の第2の画像F2iとの画質が近くなる。そうすると、対応点特定部31が実行するパターンマッチングの精度を一定以上に保つことができ、ひいては得られる標定要素の精度を一定以上に保つことができる。
In addition, in the orientation method of the second embodiment, the multiple second images F2i are images obtained by photographing the subject with multiple third cameras C3 installed at fixed positions. This makes the image quality of the first image F1 and the multiple second images F2i closer. This makes it possible to maintain the accuracy of the pattern matching performed by the corresponding
第1及び第2実施形態の画像標定装置2は、被写体における複数の点の各々に対応する対応点を、被写体に対して位置が固定された第1のカメラC1によって撮影して取得した第1の画像F1と、被写体の少なくとも一部を撮影して取得した複数の第2の画像F2iのうちの少なくとも一つと、から特定する対応点特定部と、複数の点の各々に対応する対応点の位置座標に基づいて、前記第1のカメラの、第1の画像F1の撮像時の標定要素を計算する標定計算部34と、を含む。
The
このような画像標定装置2によれば、第1の画像F1の画像標定を行う際、標定対象区域内にマーカーの設置を必要とせずに、画像標定を行うことができる。従って、マーカーの設置が禁止又は制限される区域の画像についても、画像標定を行うことができる。
With this type of
第1及び第2実施形態の画像標定システム1は、被写体に対して位置が固定された第1のカメラC1と、第2のカメラC2と、上記画像標定装置2とを備える。
The
このような画像標定システム1によれば、第1の画像F1の画像標定を行う際、標定対象区域内にマーカーの設置を必要とせずに、画像標定を行うことができる。従って、マーカーの設置が禁止又は制限される区域の画像についても、画像標定を行うことができる。
With this
第1及び第2実施形態の画像標定プログラムは、コンピューターに、被写体に対して固定された位置に設置された第1のカメラC1によって、被写体が撮影されることによって得られた第1の画像F1を取得させ、各々が、被写体の少なくとも一部が撮影されることによって得られた複数の第2の画像F2iを取得させ、第1の画像F1と、複数の第2の画像F2iとの対応点を複数点特定させ、複数の対応点の各々の、被写体に固定された座標系における位置座標を取得させ、複数の対応点に基づいて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算させる。 The image orientation program of the first and second embodiments causes a computer to acquire a first image F1 obtained by photographing the subject with a first camera C1 installed at a fixed position relative to the subject, acquire multiple second images F2i, each of which is obtained by photographing at least a portion of the subject, identify multiple corresponding points between the first image F1 and the multiple second images F2i, obtain position coordinates of each of the multiple corresponding points in a coordinate system fixed to the subject, and calculate orientation elements of the first camera C1 at the time of capturing the first image F1 based on the multiple corresponding points.
このような画像標定プログラムによれば、第1の画像F1の画像標定を行う際、標定対象区域内にマーカーの設置を必要とせずに、コンピューターに画像標定を実行させることができる。従って、マーカーの設置が禁止又は制限される区域の画像についても、画像標定を行うことができる。 According to such an image orientation program, when performing image orientation of the first image F1, it is possible to have the computer perform image orientation without the need to install markers within the area to be located. Therefore, image orientation can be performed even for images in areas where the installation of markers is prohibited or restricted.
1:画像標定システム
C1:第1のカメラ
C2:第2のカメラ
C3:第3のカメラ
2:画像標定装置
20:CPU
21:主記憶装置
22:補助記憶装置
23:入力装置
24:出力装置
25:通信装置
30:特徴点特定部
31:対応点特定部
32:3次元画像データ作成部
33:表示制御部
34:標定計算部
1: Image orientation system C1: First camera C2: Second camera C3: Third camera 2: Image orientation device 20: CPU
21: Main memory device 22: Auxiliary memory device 23: Input device 24: Output device 25: Communication device 30: Feature point identification unit 31: Corresponding point identification unit 32: 3D image data creation unit 33: Display control unit 34: Orientation calculation unit
Claims (6)
前記被写体の少なくとも一部を複数の箇所から撮影し、複数の第2の画像を取得するステップと、
前記複数の第2の画像に基づいて、前記被写体を含む領域の、絶対座標系における3次元画像データを作成するステップと、
前記被写体における複数の点の各々に対応する対応点を、前記第1の画像と、前記複数の第2の画像のうちの少なくとも一つと、から特定するステップと、
前記第1のカメラの絶対座標系における位置座標と、前記複数の点の各々に対応する対応点の写真座標系における位置座標と、前記複数の点の各々の前記3次元画像データに基づいて特定された絶対座標系における位置座標に基づいて、前記第1のカメラの、前記第1の画像の撮像時の絶対座標系における標定要素を計算するステップと、
を含む、画像標定方法。 capturing an image of the object by a first camera, the first camera being fixed in position relative to the object when capturing the image of the object;
capturing a plurality of second images of at least a portion of the subject from a plurality of locations;
creating three-dimensional image data in an absolute coordinate system of an area including the subject based on the plurality of second images;
identifying corresponding points from the first image and at least one of the second images, the corresponding points corresponding to each of the plurality of points in the object;
calculating an orientation element in an absolute coordinate system of the first camera at the time of capturing the first image based on a position coordinate in an absolute coordinate system of the first camera, a position coordinate in a photograph coordinate system of a corresponding point corresponding to each of the plurality of points , and a position coordinate in an absolute coordinate system specified based on the three-dimensional image data of each of the plurality of points;
The image orientation method includes:
ことを特徴とする請求項1に記載の画像標定方法。 The image orientation method according to claim 1 , wherein the plurality of second images are images acquired by photographing the subject using a second camera whose position is movable relative to the subject while the second camera is moving.
ことを特徴とする請求項1に記載の画像標定方法。 The image orientation method according to claim 1, wherein the plurality of second images are images obtained by photographing the subject using a plurality of third cameras, each of which is fixed in position relative to the subject when photographing the subject.
前記複数の第2の画像に基づいて、前記被写体を含む領域の、絶対座標系における3次元画像データを作成する3次元画像データ作成部と、
前記第1のカメラの絶対座標系における位置座標と、前記複数の点の各々に対応する対応点の写真座標系における位置座標と、前記複数の点の各々の前記3次元画像データに基づいて特定された絶対座標系における位置座標に基づいて、前記第1のカメラの、前記第1の画像の撮像時の絶対座標系における標定要素を計算する標定計算部と、
を備えた、画像標定装置。 a corresponding point specifying unit that specifies corresponding points corresponding to each of a plurality of points on a subject from a first image obtained by photographing the subject with a first camera whose position is fixed with respect to the subject when photographing the subject, and from at least one of a plurality of second images obtained by photographing at least a portion of the subject from a plurality of locations;
a three-dimensional image data creation unit that creates three-dimensional image data in an absolute coordinate system of an area including the subject based on the plurality of second images;
an orientation calculation unit that calculates orientation elements in an absolute coordinate system of the first camera at the time of capturing the first image, based on position coordinates in an absolute coordinate system of the first camera, position coordinates in a photographic coordinate system of corresponding points corresponding to each of the plurality of points , and position coordinates in an absolute coordinate system specified based on the three-dimensional image data of each of the plurality of points;
An image orientation device comprising:
第2のカメラと、
請求項4に記載の画像標定装置と、
を備え、
前記第2のカメラは、前記複数の第2の画像を取得する、
画像標定システム。 a first camera whose position is fixed with respect to the subject when at least photographing the subject;
A second camera;
The image orientation device according to claim 4 ;
Equipped with
the second camera captures the second plurality of images;
Image orientation system.
少なくとも被写体を撮影するときに前記被写体に対して位置が固定された第1のカメラによって、前記被写体を撮影して取得した第1の画像を取得させ、
前記被写体の少なくとも一部を複数の箇所から撮影して取得した複数の第2の画像を取得させ、
前記複数の第2の画像に基づいて、前記被写体を含む領域の、絶対座標系における3次元画像データを作成させ、
前記被写体における複数の点の各々に対応する対応点を、前記第1の画像と、前記複数の第2の画像のうちの少なくとも一つと、から複数点特定させ、
前記第1のカメラの絶対座標系における位置座標と、前記複数の対応点の写真座標系における位置座標と、前記複数の点の各々の前記3次元画像データに基づいて特定された絶対座標系における位置座標に基づいて、前記第1のカメラの、前記第1の画像の撮像時の絶対座標系における標定要素を計算させる、
画像標定プログラム。 On the computer,
acquiring a first image by photographing the subject using a first camera that is fixed in position relative to the subject when photographing the subject;
acquiring a plurality of second images obtained by photographing at least a portion of the subject from a plurality of positions;
creating three-dimensional image data in an absolute coordinate system of an area including the subject based on the plurality of second images;
Identifying a plurality of corresponding points from the first image and at least one of the plurality of second images, the corresponding points corresponding to each of the plurality of points in the subject;
Calculating orientation elements in an absolute coordinate system of the first camera at the time of capturing the first image, based on position coordinates in an absolute coordinate system of the first camera, position coordinates in a photographic coordinate system of the plurality of corresponding points, and position coordinates in an absolute coordinate system specified based on the three-dimensional image data of each of the plurality of points.
Image orientation program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020208438A JP7493793B2 (en) | 2020-12-16 | 2020-12-16 | Image orientation method, image orientation device, image orientation system, and image orientation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020208438A JP7493793B2 (en) | 2020-12-16 | 2020-12-16 | Image orientation method, image orientation device, image orientation system, and image orientation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022095239A JP2022095239A (en) | 2022-06-28 |
JP7493793B2 true JP7493793B2 (en) | 2024-06-03 |
Family
ID=82162997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020208438A Active JP7493793B2 (en) | 2020-12-16 | 2020-12-16 | Image orientation method, image orientation device, image orientation system, and image orientation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7493793B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019109200A (en) | 2017-12-20 | 2019-07-04 | オムロン株式会社 | Data generation device for calibration, data generation method for calibration, calibration system, and control program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5227110B2 (en) * | 2008-08-07 | 2013-07-03 | 株式会社トプコン | Omnidirectional camera with GPS and spatial data collection device |
JP6985593B2 (en) * | 2017-10-18 | 2021-12-22 | 富士通株式会社 | Image processing program, image processing device and image processing method |
-
2020
- 2020-12-16 JP JP2020208438A patent/JP7493793B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019109200A (en) | 2017-12-20 | 2019-07-04 | オムロン株式会社 | Data generation device for calibration, data generation method for calibration, calibration system, and control program |
Non-Patent Citations (1)
Title |
---|
織田 和夫,講座:バンドル法 第一回バンドル法概論と用語,写真測量とリモートセンシング,日本,一般社団法人 日本写真測量学会,2012年03月09日,VOL.51, NO.1,pp.54-61 |
Also Published As
Publication number | Publication date |
---|---|
JP2022095239A (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9189853B1 (en) | Automatic pose estimation from uncalibrated unordered spherical panoramas | |
CN110135455A (en) | Image matching method, device and computer readable storage medium | |
KR101871764B1 (en) | Industrial infrastructure management platform building system based on virtual reality | |
CN106530358A (en) | Method for calibrating PTZ camera by using only two scene images | |
WO2017022033A1 (en) | Image processing device, image processing method, and image processing program | |
CN112686877B (en) | Binocular camera-based three-dimensional house damage model construction and measurement method and system | |
JP2007192832A (en) | Calibrating method of fish eye camera | |
JP7220785B2 (en) | Survey sampling point planning method, device, control terminal and storage medium | |
US8509522B2 (en) | Camera translation using rotation from device | |
CN108444452B (en) | Method and device for detecting longitude and latitude of target and three-dimensional space attitude of shooting device | |
CN109389645B (en) | Camera self-calibration method and system, camera, robot and cloud server | |
CN113034347A (en) | Oblique photographic image processing method, device, processing equipment and storage medium | |
KR101868740B1 (en) | Apparatus and method for generating panorama image | |
JP7220784B2 (en) | Survey sampling point planning method, device, control terminal and storage medium | |
Sahin | Comparison and calibration of mobile phone fisheye lens and regular fisheye lens via equidistant model | |
CN113436267B (en) | Visual inertial navigation calibration method, device, computer equipment and storage medium | |
KR102475790B1 (en) | Map making Platform apparatus and map making method using the platform | |
RU2679200C1 (en) | Data from the video camera displaying method and system | |
JP7493793B2 (en) | Image orientation method, image orientation device, image orientation system, and image orientation program | |
CN113256811B (en) | Building modeling method, building modeling apparatus, and computer-readable storage medium | |
CN109816628A (en) | Face evaluation method and Related product | |
JP5885974B2 (en) | Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data | |
JP2018088228A (en) | Intersection detection device, camera calibration system, intersection detection method, camera calibration method, program and recording medium | |
CN114004839A (en) | Image segmentation method and device of panoramic image, computer equipment and storage medium | |
CN114549650A (en) | Camera calibration method and device, electronic equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240515 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7493793 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |