JP7493793B2 - Image orientation method, image orientation device, image orientation system, and image orientation program - Google Patents

Image orientation method, image orientation device, image orientation system, and image orientation program Download PDF

Info

Publication number
JP7493793B2
JP7493793B2 JP2020208438A JP2020208438A JP7493793B2 JP 7493793 B2 JP7493793 B2 JP 7493793B2 JP 2020208438 A JP2020208438 A JP 2020208438A JP 2020208438 A JP2020208438 A JP 2020208438A JP 7493793 B2 JP7493793 B2 JP 7493793B2
Authority
JP
Japan
Prior art keywords
image
camera
subject
images
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020208438A
Other languages
Japanese (ja)
Other versions
JP2022095239A (en
Inventor
範之 小林
Original Assignee
株式会社ラグロフ設計工房
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ラグロフ設計工房 filed Critical 株式会社ラグロフ設計工房
Priority to JP2020208438A priority Critical patent/JP7493793B2/en
Publication of JP2022095239A publication Critical patent/JP2022095239A/en
Application granted granted Critical
Publication of JP7493793B2 publication Critical patent/JP7493793B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像標定方法、画像標定装置、画像標定システム及び画像標定プログラムに関する。 The present invention relates to an image orientation method, an image orientation device, an image orientation system, and an image orientation program.

河川や道路、公園等の野外に設置されたカメラは、遠隔操作により撮影方向や倍率が可変であり、撮影画角が固定されていない場合が多い。このようなカメラによって撮影された画像から、当該画像内に写り込んだ物体の大きさや移動速度を計測する場合、当該画像の撮像時のカメラの内部標定要素及び外部標定要素を取得する必要がある。 Cameras installed outdoors, such as on rivers, roads, and parks, can change the shooting direction and magnification by remote control, and the shooting angle of view is often not fixed. When measuring the size and moving speed of an object captured in an image taken by such a camera, it is necessary to obtain the interior and exterior orientation parameters of the camera when the image was taken.

従来の画像標定方法は、撮影された画像から容易に視認できるマーカーを、標定対象区域内の複数箇所に設置する。そして、地上に固定された座標系における当該マーカーの位置座標を測量した上で、画像標定を行う必要がある(例えば特許文献1)。 Conventional image orientation methods involve placing markers that are easily visible in captured images at multiple locations within the area to be orientated. Then, image orientation must be performed after measuring the position coordinates of the markers in a coordinate system fixed on the ground (see, for example, Patent Document 1).

再表2005/017644Relisted 2005/017644

しかしながら、例えば増水時の河川や、供用中の道路等においては、マーカーの設置が禁止又は制限される場合がある。従って、標定対象区域内にマーカーの設置を必要とする従来の画像標定方法では、標定の作業が禁止又は制限される場合がある。 However, in some cases, such as on flooded rivers or on roads in use, the installation of markers may be prohibited or restricted. Therefore, with conventional image location methods that require the installation of markers within the location area, location work may be prohibited or restricted.

本発明の目的は、標定対象区域内にマーカーの設置を必要としない標定方法を提供することである。 The object of the present invention is to provide a location method that does not require the installation of markers within the location target area.

上記目的を達成するための一の発明は、被写体に対して位置が固定された第1のカメラによって、前記被写体を撮影し、第1の画像を取得するステップと、各々が、前記被写体の少なくとも一部を撮影し、複数の第2の画像を取得するステップと、前記被写体における複数の点の各々に対応する対応点を、前記第1の画像と、前記複数の第2の画像のうちの少なくとも一つと、から特定するステップと、前記複数の点の各々に対応する対応点の位置座標に基づいて、前記第1のカメラの、前記第1の画像の撮像時の標定要素を計算するステップと、を含む、画像標定方法である。本発明の他の特徴については、本明細書の記載により明らかにする。 One invention for achieving the above object is an image orientation method including the steps of photographing an object with a first camera whose position is fixed relative to the object and acquiring a first image, photographing at least a portion of the object and acquiring a plurality of second images, identifying corresponding points for each of a plurality of points on the object from the first image and at least one of the plurality of second images, and calculating orientation elements of the first camera at the time of capturing the first image based on the position coordinates of the corresponding points for each of the plurality of points. Other features of the invention will be made clear by the description in this specification.

本発明によれば、標定対象区域内にマーカーの設置を必要としない標定方法を提供することができる。 The present invention provides a location method that does not require the installation of markers within the location target area.

画像標定システムの一例を示す図である。FIG. 1 illustrates an example of an image orientation system. 第1のカメラと、第2のカメラとの配置の一例を示す図である。FIG. 2 is a diagram showing an example of an arrangement of a first camera and a second camera. 第1の画像の一例を示す図である。FIG. 2 is a diagram showing an example of a first image. 複数の第2の画像の一例を示す図である。FIG. 13 is a diagram showing an example of a plurality of second images. 各種座標系及び共線条件について説明する図である。FIG. 2 is a diagram for explaining various coordinate systems and collinearity conditions. 画像標定装置に実現される機能ブロックの一例を示す図である。FIG. 2 is a diagram showing an example of a functional block realized in the image localization device. 第1の画像から特定された複数の特徴点の一例を示す図である。FIG. 13 is a diagram showing an example of a plurality of feature points identified from a first image. 第2の画像から特定された複数の特徴点の一例を示す図である。FIG. 11 is a diagram showing an example of a plurality of feature points identified from a second image. 第1の画像から特定された複数の対応点の一例を示す図である。FIG. 11 is a diagram showing an example of a plurality of corresponding points identified from a first image. 第2の画像から特定された複数の対応点の一例を示す図である。FIG. 13 is a diagram showing an example of a plurality of corresponding points identified from a second image. 3次元画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of a three-dimensional image. 画像標定装置で実行される処理の一例を示すフローチャートである1 is a flowchart showing an example of a process executed by an image location device; 画像標定装置で実行される処理の変形例を示すフローチャートである11 is a flowchart showing a modified example of the process executed by the image location device. 第1のカメラと、複数の第3のカメラとの配置の一例を示す図である。FIG. 2 is a diagram showing an example of an arrangement of a first camera and a plurality of third cameras.

==第1実施形態==
<画像標定システム>
図1は、本実施形態の画像標定システム1の構成を示す図である。画像標定システム1は、第1のカメラC1と、第2のカメラC2と、画像標定装置2とを備えている。図2は、第1のカメラC1及び第2のカメラC2の配置を説明する図である。
First Embodiment
<Image Orientation System>
Fig. 1 is a diagram showing the configuration of an image orientation system 1 according to the present embodiment. The image orientation system 1 includes a first camera C1, a second camera C2, and an image orientation device 2. Fig. 2 is a diagram explaining the arrangement of the first camera C1 and the second camera C2.

[第1のカメラ]
第1のカメラC1は、第1の画像F1(詳細は後述)を得るためのカメラである。本実施形態の第1のカメラC1は、被写体に対して位置が固定されたカメラである。本実施形態における被写体は、河川、道路、橋、建築物等を含む。従って、第1のカメラC1は、地上に対して位置が固定されたカメラともいえる。第1のカメラC1は、姿勢、レンズの焦点距離、撮影画角等が可変であり、これらは例えば遠隔操作によって制御可能である。第1のカメラC1は、例えば、防災、防犯等の目的で設置された監視カメラである。
[First Camera]
The first camera C1 is a camera for obtaining a first image F1 (details will be described later). The first camera C1 in this embodiment is a camera whose position is fixed with respect to the subject. The subject in this embodiment includes rivers, roads, bridges, buildings, etc. Therefore, the first camera C1 can also be said to be a camera whose position is fixed with respect to the ground. The first camera C1 has variable attitude, lens focal length, shooting angle of view, etc., which can be controlled, for example, by remote control. The first camera C1 is, for example, a surveillance camera installed for the purpose of disaster prevention, crime prevention, etc.

尚、第1のカメラC1は、持ち運び可能なビデオカメラ、デジタルカメラ、モバイル機器に搭載されたカメラ等であってもよい。この場合、これらの機器を三脚等で地上に固定して用いればよい。 The first camera C1 may be a portable video camera, a digital camera, a camera mounted on a mobile device, etc. In this case, these devices may be fixed to the ground using a tripod or the like.

[第2のカメラ]
第2のカメラC2は、複数の第2の画像F2i(iは整数、詳細は後述)を得るためのカメラである。本実施形態の第2のカメラC2は、被写体に対して位置が移動可能なカメラである。第2のカメラC2は、例えば、航空機、車両、船舶等の移動体に積載されたカメラである。第2のカメラC2は、これらの移動体に設置されてもよいし、これらの移動体の乗組員の手や肩によって支持されてもよい。
[Second Camera]
The second camera C2 is a camera for obtaining a plurality of second images F2i (i is an integer, details will be described later). The second camera C2 in this embodiment is a camera whose position is movable relative to the subject. The second camera C2 is, for example, a camera mounted on a moving body such as an aircraft, a vehicle, or a ship. The second camera C2 may be installed on these moving bodies, or may be supported by the hands or shoulders of crew members of these moving bodies.

本実施形態では、第2のカメラC2は、航空機Aに設置されたカメラである。図2には、航空機Aの飛行ルートRが示されている。航空機Aの飛行中に、第2のカメラC2が被写体を撮影することによって、第2の画像F2iが得られる。第2のカメラC2が航空機に積載される場合、被写体を撮影する方向は特に制限されないが、鉛直下方に対して角度を有する方向から被写体を撮影することが好ましい。そうすると、被写体の側面のうち、鉛直方向に垂直な側面のみならず、鉛直方向に平行な側面が写る画像も得られることにより、後述する3次元画像データを高精度で得られるために好ましい。 In this embodiment, the second camera C2 is a camera installed on the aircraft A. FIG. 2 shows the flight route R of the aircraft A. While the aircraft A is flying, the second camera C2 photographs the subject, thereby obtaining a second image F2i. When the second camera C2 is loaded onto the aircraft, the direction in which the subject is photographed is not particularly limited, but it is preferable to photograph the subject from a direction that is angled downward vertically. This is preferable because it allows images to be obtained that show not only the sides of the subject that are perpendicular to the vertical direction, but also the sides that are parallel to the vertical direction, thereby obtaining three-dimensional image data, which will be described later, with high accuracy.

第2のカメラC2は、静止画を得るためのカメラでもよく、動画を得るためのカメラでもよい。静止画を得るためのカメラである場合、第2のカメラC2は、航空機Aが所定の位置を飛行しているときに、又は所定の時間間隔で、被写体を撮影することにより、第2の画像F2iを得る。動画を得るためのカメラである場合、動画の所定の時間の1コマを第2の画像F2iとすればよい。 The second camera C2 may be a camera for obtaining still images or a camera for obtaining moving images. If the second camera C2 is a camera for obtaining still images, it obtains the second image F2i by photographing a subject while the aircraft A is flying at a predetermined position or at a predetermined time interval. If the second camera C2 is a camera for obtaining moving images, one frame of the moving image at a predetermined time may be used as the second image F2i.

尚、以下では、第1のカメラC1と、第2のカメラC2とを区別しない場合、これらを単に「カメラ」と称する。 In the following, when there is no need to distinguish between the first camera C1 and the second camera C2, they will simply be referred to as "cameras."

[画像標定装置のハードウェア構成]
図1では、画像標定装置2のハードウェア構成の一例が示されている。画像標定装置2は、CPU(Central Processing Unit)20、主記憶装置21、補助記憶装置22、入力装置23、出力装置24、及び通信装置25を含むコンピューターである。
[Hardware configuration of image orientation device]
1 shows an example of a hardware configuration of the image localization device 2. The image localization device 2 is a computer including a CPU (Central Processing Unit) 20, a main memory device 21, an auxiliary memory device 22, an input device 23, an output device 24, and a communication device 25.

CPU20は、主記憶装置21に格納されたプログラムを読み出して実行することにより、画像標定装置2が有する上記各装置の動作を制御する。また、CPU20は、当該プログラムに従って、四則演算や論理演算を行う。 The CPU 20 reads and executes the programs stored in the main memory 21 to control the operation of each of the above-mentioned devices of the image orientation device 2. The CPU 20 also performs arithmetic operations and logical operations according to the programs.

主記憶装置21は、CPU20が実行中のプログラムやデータを一時的に格納するための記憶装置である。主記憶装置21は、例えばRAM(Random Access Memory)等の半導体記憶装置により構成することができる。 The main memory device 21 is a storage device for temporarily storing programs and data being executed by the CPU 20. The main memory device 21 can be configured, for example, from a semiconductor storage device such as a RAM (Random Access Memory).

補助記憶装置22は、CPU20によって実行あるいは処理されるプログラムや各種データを格納するための記憶装置である。補助記憶装置22は、例えばハードディスク等の磁気記憶装置、CDやDVD等の光記憶装置、フラッシュメモリ等の半導体記憶装置等により構成することができる。補助記憶装置22には、本実施形態に係る各種のコードから構成される画像標定プログラム及び画像データが格納されている。 The auxiliary storage device 22 is a storage device for storing programs and various data executed or processed by the CPU 20. The auxiliary storage device 22 can be configured, for example, from a magnetic storage device such as a hard disk, an optical storage device such as a CD or DVD, or a semiconductor storage device such as a flash memory. The auxiliary storage device 22 stores an image orientation program and image data composed of various codes according to this embodiment.

画像標定プログラムは、画像標定装置2が有する各種機能(詳細は後述)を実現するためのプログラムである。 The image orientation program is a program for implementing the various functions of the image orientation device 2 (described in detail below).

画像データは、第1の画像F1と、複数の第2の画像F2iとを含む複数の画像の各々を、出力装置24の一つである表示装置に表示させるためのデータである。図3Aは、第1の画像F1の一例を示す図である。図3Bは、複数の第2の画像F2iの一例を示す図である。この例では、8枚の第2の画像F2i(i=1~8)が示されている。 The image data is data for displaying each of a plurality of images, including a first image F1 and a plurality of second images F2i, on a display device, which is one of the output devices 24. FIG. 3A is a diagram showing an example of a first image F1. FIG. 3B is a diagram showing an example of a plurality of second images F2i. In this example, eight second images F2i (i = 1 to 8) are shown.

第1の画像F1は、第1のカメラC1によって、被写体を撮影して取得した画像である。第1の画像F1は、本実施形態の画像標定システム1による画像標定の対象となる画像である。つまり、本実施形態の画像標定システム1は、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。 The first image F1 is an image acquired by photographing a subject with the first camera C1. The first image F1 is an image that is the subject of image orientation by the image orientation system 1 of this embodiment. In other words, the image orientation system 1 of this embodiment calculates the orientation elements at the time when the first image F1 was captured by the first camera C1.

ここで、標定要素とは、外部標定要素と、内部標定要素とを含む。外部標定要素とは、カメラの撮像時の位置及び姿勢である。内部標定要素とは、カメラの幾何学的特性であり、カメラレンズの焦点距離、レンズ歪み係数等である。本明細書では、単に「標定要素」と称する場合、外部標定要素と、内部標定要素との双方を意味する。 Here, the orientation parameters include exterior orientation parameters and interior orientation parameters. Exterior orientation parameters are the position and orientation of the camera at the time of capturing an image. Interior orientation parameters are the geometric characteristics of the camera, such as the focal length of the camera lens and the lens distortion coefficient. In this specification, when the term "orientation parameters" is used simply, it means both exterior orientation parameters and interior orientation parameters.

複数の第2の画像F2iの各々は、第2のカメラC2によって、撮影して取得した画像である。また、複数の第2の画像F2iの各々は、第2のカメラC2によって、被写体の少なくとも一部を撮影して取得した画像である。前述のように、第2のカメラC2は、航空機、車両等に設置されたカメラであるため、航空機、車両等の移動中に、複数の異なる位置から、被写体を撮影することができる。これによって、複数の第2の画像F2iを取得することができる。 Each of the multiple second images F2i is an image captured and acquired by the second camera C2. Also, each of the multiple second images F2i is an image captured and acquired by the second camera C2 of at least a portion of the subject. As described above, the second camera C2 is a camera installed on an aircraft, vehicle, etc., and therefore can capture images of the subject from multiple different positions while the aircraft, vehicle, etc. is moving. This allows multiple second images F2i to be acquired.

複数の第2の画像F2iは、画像標定システム1が第1の画像F1の画像標定を行う際に必要な情報を得るための画像である。第1の画像F1に写った被写体における任意の1点は、複数の第2の画像F2iのうち少なくとも一つに写っていることが必要である。 The multiple second images F2i are images from which the image orientation system 1 obtains information necessary for performing image orientation of the first image F1. Any one point on the subject captured in the first image F1 must be captured in at least one of the multiple second images F2i.

また、複数の第2の画像F2iは、3次元画像データ作成部32(後述)が、被写体の3次元画像データを作成するために用いられる画像でもある。3次元画像データ作成部32は任意の構成である。3次元画像データ作成部32が3次元画像データを作成する場合、被写体における任意の1点は、複数の第2の画像F2iのうち少なくとも二つの第2の画像F2iに写っていることが必要である。 The multiple second images F2i are also images used by a three-dimensional image data creation unit 32 (described later) to create three-dimensional image data of the subject. The three-dimensional image data creation unit 32 can have any configuration. When the three-dimensional image data creation unit 32 creates three-dimensional image data, any one point on the subject needs to be captured in at least two of the multiple second images F2i.

尚、以下では、第1の画像F1と、第2の画像F2iとを区別しない場合、これらを単に「画像」と称する。 In the following, when there is no need to distinguish between the first image F1 and the second image F2i, they will simply be referred to as "images."

入力装置23は、画像標定装置2の外部から画像標定装置2の内部へ各種データを取り込むためのユーザインタフェースである。入力装置23は、キーボード、マウス、マイク等の装置である。 The input device 23 is a user interface for importing various data from outside the image localization device 2 into the image localization device 2. The input device 23 is a device such as a keyboard, a mouse, and a microphone.

出力装置24は、画像標定装置2の内部における処理結果等を、画像標定装置2の外部に出力するためのユーザインタフェースである。出力装置24は、LCD(Liquid Crystal Display)等の表示装置、プリンタ、スピーカ等の装置である。 The output device 24 is a user interface for outputting the processing results, etc., inside the image orientation device 2 to the outside of the image orientation device 2. The output device 24 is a device such as a display device, such as an LCD (Liquid Crystal Display), a printer, a speaker, etc.

通信装置25は、画像標定装置2を各種通信網に接続するためのネットワークインターフェースである。通信装置25は、インターネットやLAN(Local Area Network)等のネットワークを介して他のコンピューターからデータを受信し、受信したデータを補助記憶装置22や主記憶装置21に記憶する。また、通信装置25は、補助記憶装置22や主記憶装置21に記憶されているデータを、ネットワークを介して他のコンピューターへ送信する。通信装置25は、例えばネットワークカード等の装置である。 The communication device 25 is a network interface for connecting the image orientation device 2 to various communication networks. The communication device 25 receives data from other computers via a network such as the Internet or a LAN (Local Area Network), and stores the received data in the auxiliary storage device 22 or the main storage device 21. The communication device 25 also transmits data stored in the auxiliary storage device 22 or the main storage device 21 to other computers via the network. The communication device 25 is, for example, a device such as a network card.

[各種座標系と共線条件]
図4は、各種座標系及び共線条件について説明する図である。画像標定装置2の機能ブロックの説明を行う前に、後の説明の便宜のため、絶対座標系と、写真座標系と、カメラ座標系とについて定義し、これらの関係について説明する。更に、共線条件について説明する。
[Various coordinate systems and collinearity conditions]
4 is a diagram for explaining various coordinate systems and collinearity conditions. Before explaining the functional blocks of the image orientation device 2, for the convenience of the following explanation, the absolute coordinate system, the photograph coordinate system, and the camera coordinate system are defined, and the relationship between them is explained. Furthermore, the collinearity conditions are explained.

絶対座標系は、地上の一点に原点を有し、地上に対する3つの方向の座標軸を有する3次元の直交座標系である。カメラの位置Oの絶対座標系における位置座標を、点O(X,Y,Z)とする。また、被写体上のある点Pの絶対座標系における位置座標を、点P(X,Y,Z)とする。 The absolute coordinate system is a three-dimensional Cartesian coordinate system that has an origin at a point on the ground and coordinate axes in three directions relative to the ground. The position coordinates of the camera position O in the absolute coordinate system are defined as point O ( X0 , Y0 , Z0 ). The position coordinates of a point P on the subject in the absolute coordinate system are defined as point P (X, Y, Z).

写真座標系は、画像上の一点に原点を有し、画像に対する2つの方向の座標軸を有する2次元の直交座標系である。点P(X,Y,Z)に対応する、写真座標系における位置座標を、点p(x,y)とする。 The photograph coordinate system is a two-dimensional Cartesian coordinate system that has an origin at a point on the image and has coordinate axes in two directions relative to the image. The position coordinates in the photograph coordinate system that correspond to point P (X, Y, Z) are defined as point p (x, y).

カメラ座標系は、カメラの位置に原点を有し、カメラに対する3つの方向の座標軸を有する3次元の直交座標系である。カメラの座標系におけるカメラの位置座標oを、点o(0,0,0)とする。また、点P(X,Y,Z)に対応する、カメラ座標系における位置座標pを、写真座標系における座標値を用いて、点p(x,y,-c)とする。cは、カメラレンズの焦点距離である。 The camera coordinate system is a three-dimensional Cartesian coordinate system that has its origin at the camera position and has coordinate axes in three directions relative to the camera. The camera position coordinate o in the camera coordinate system is defined as point o(0,0,0). Furthermore, the position coordinate p in the camera coordinate system that corresponds to point P(X,Y,Z) is defined as point p(x,y,-c) using coordinate values in the photograph coordinate system. c is the focal length of the camera lens.

点Oと、点pと、点Pとは、一直線に並ぶ。これは、共線条件と称され、共線条件を定式化することにより、以下の式が得られる。

Figure 0007493793000001
Point O, point p, and point P are aligned on a straight line. This is called the collinearity condition, and by formulating the collinearity condition, the following equation is obtained:
Figure 0007493793000001

ここで、kは、正の実数である。また、行列Rは、カメラ座標系から絶対座標系へ変換するための行列であって、3行3列の直交行列aij(i=1~3、j=1~3)である。つまり、行列Rの転置行列は、行列Rの逆行列に等しい。また、行列Rが決まると、外部標定要素の一つであるカメラの姿勢が特定される。つまり、行列Rの各成分は、外部標定要素に起因するパラメータである。 Here, k is a positive real number. Furthermore, the matrix R is a matrix for converting from the camera coordinate system to the absolute coordinate system, and is an orthogonal matrix a ij (i=1 to 3, j=1 to 3) with 3 rows and 3 columns. In other words, the transposed matrix of the matrix R is equal to the inverse matrix of the matrix R. Furthermore, when the matrix R is determined, the attitude of the camera, which is one of the exterior orientation parameters, is specified. In other words, each component of the matrix R is a parameter resulting from the exterior orientation parameters.

式1のkを消去すると、下記の2式が得られる。

Figure 0007493793000002
By eliminating k from equation 1, the following two equations are obtained.
Figure 0007493793000002

ここで、レンズ歪み等の内部標定要素に起因して、写真座標系の位置座標(式2-1及び式2-2)の左辺)に誤差Δx及びΔyが生じる場合、式(2-1)及び式(2-2)はそれぞれ、以下の式3-1及び式3-2のように書き換えられる。

Figure 0007493793000003
Here, when errors Δx and Δy occur in the position coordinates of the photograph coordinate system (left side of Equations 2-1 and 2-2) due to internal orientation parameters such as lens distortion, Equations (2-1) and (2-2) are rewritten as Equations 3-1 and 3-2 below, respectively.
Figure 0007493793000003

つまり、内部標定要素は、誤差Δx及びΔyとしてモデル化される。誤差Δx及びΔyの、内部標定要素を用いた表現については、幾つかのモデルが提案されているが、いずれを用いてもよく、特に制限はない。 In other words, the interior orientation parameters are modeled as errors Δx and Δy. Several models have been proposed for expressing the errors Δx and Δy using the interior orientation parameters, but any of them may be used, and there are no particular limitations.

本明細書において、「標定要素を計算する」とは、当該標定要素の数値を求めること、又は当該標定要素に起因するパラメータ等の数値を求めることである。また、本明細書において、「カメラの外部標定要素を計算する」とは、カメラの絶対座標における位置座標と、カメラの姿勢を特定するパラメータを求めることを意味する。「カメラの姿勢を特定するパラメータ」とは、行列Rの成分(独立なパラメータは3つ)であってもよいし、絶対座標系のX軸、Y軸及びZ軸の各々に対するカメラ座標の回転角ω、φ及びκであってもよい。また、本明細書において、「カメラの内部標定要素を計算する」とは、カメラレンズの焦点距離cと、カメラの内部標定要素に起因する誤差Δx及びΔyのモデルに含まれた内部標定要素を求めることを意味する。 In this specification, "calculating the orientation parameters" means to obtain the numerical values of the orientation parameters, or to obtain the numerical values of parameters, etc., resulting from the orientation parameters. In addition, in this specification, "calculating the exterior orientation parameters of the camera" means to obtain the position coordinates in the absolute coordinate system of the camera and the parameters that specify the camera's attitude. The "parameters that specify the camera's attitude" may be the components of the matrix R (there are three independent parameters), or the rotation angles ω, φ, and κ of the camera coordinates relative to the X-axis, Y-axis, and Z-axis of the absolute coordinate system, respectively. In addition, in this specification, "calculating the interior orientation parameters of the camera" means to obtain the interior orientation parameters included in the model of the focal length c of the camera lens and the errors Δx and Δy resulting from the interior orientation parameters of the camera.

[画像標定装置の機能ブロック]
図5は、画像標定装置2に実現される機能ブロックの一例を示す図である。画像標定装置2のCPU20が、標定プログラムを実行することにより、画像標定装置2には、特徴点特定部30と、対応点特定部31と、標定計算部34と、3次元画像データ作成部32と、表示制御部33とが実現される。
[Functional block of image orientation device]
5 is a diagram showing an example of functional blocks realized in the image orientation device 2. When the CPU 20 of the image orientation device 2 executes the orientation program, the image orientation device 2 realizes a feature point identification unit 30, a corresponding point identification unit 31, an orientation calculation unit 34, a three-dimensional image data creation unit 32, and a display control unit 33.

特徴点特定部30は、第1の画像F1と、複数の第2の画像F2iとの各々について、複数の特徴点を特定する。特徴点とは、画像内において、明瞭な特徴と視認される点である。特徴点は、例えば、地形が有する角、道路の白線の終端、建築物が有する角等に対応する画像内の箇所である。 The feature point identification unit 30 identifies multiple feature points for the first image F1 and each of the multiple second images F2i. A feature point is a point in an image that is visually recognized as a clear feature. A feature point is, for example, a location in an image that corresponds to a corner of a terrain, the end of a white line on a road, a corner of a building, etc.

「特徴点を特定する」とは、画像における特徴点の写真座標系における位置座標を特定することを意味する。特徴点を特定する方法としては、例えば、Foerstnerフィルタ、SUSANフィルタ、FASTフィルタ等を用いることができる。特徴点特定部30は、複数の特徴点を特定した後に、複数の特徴点の各々の写真座標系における位置座標を特定する。 "Identifying feature points" means identifying the position coordinates of feature points in an image in a photographic coordinate system. Methods for identifying feature points include, for example, a Förstner filter, a SUSAN filter, and a FAST filter. After identifying multiple feature points, the feature point identification unit 30 identifies the position coordinates of each of the multiple feature points in the photographic coordinate system.

図6Aは、第1の画像F1において特定された複数の特徴点を示す図である。図6Bは、複数の第2の画像F2iのうち、第2の画像F21において特定された複数の特徴点を示す図である。図6A及び図6Bにおいて、特定された特徴点を黒丸で示す。 Figure 6A is a diagram showing multiple feature points identified in a first image F1. Figure 6B is a diagram showing multiple feature points identified in a second image F21 among multiple second images F2i. In Figures 6A and 6B, the identified feature points are indicated by black circles.

第1の画像F1及び第2の画像F21から特定される特徴点の数は、多いほど好ましい。詳細は後述するが、第1の画像F1及び第2の画像F21から特定される特徴点の数が多いほど、第1の画像F1及び第2の画像F21から、多くの対応点が特定されやすくなる。第1の画像F1及び第2の画像F21から、少なくとも6個の対応点が特定されるのに十分な数の特徴点を特定することが好ましい。他の第2の画像F2i(i≠1)についても同様の手順で複数の特徴点が特定される。 The more feature points identified from the first image F1 and the second image F21, the more preferable. As will be described in detail later, the more feature points identified from the first image F1 and the second image F21, the easier it is to identify many corresponding points from the first image F1 and the second image F21. It is preferable to identify a sufficient number of feature points from the first image F1 and the second image F21 so that at least six corresponding points are identified. A similar procedure is used to identify multiple feature points for other second images F2i (i ≠ 1).

3次元画像データ作成部32は、複数の第2の画像F2iに基づいて、被写体を含む領域の3次元画像データを作成する。具体的には、3次元画像データ作成部32は、フォトグラメトリの原理を用いて、3次元画像データを作成する。図8は、図4Bに示した8枚の第2の画像F2iから得られた3次元画像の一例である。尚、3次元画像データ作成部32は任意の構成である。 The three-dimensional image data creation unit 32 creates three-dimensional image data of an area including a subject based on the multiple second images F2i. Specifically, the three-dimensional image data creation unit 32 creates three-dimensional image data using the principle of photogrammetry. FIG. 8 is an example of a three-dimensional image obtained from the eight second images F2i shown in FIG. 4B. Note that the three-dimensional image data creation unit 32 may have any configuration.

表示制御部33は、3次元画像データ作成部32が作成した3次元画像データに基づく3次元画像32aを、出力装置24の一である表示装置に表示させる。ユーザは、キーボード、マウス等を用いて、被写体を含む領域の3次元画像32aを、任意の方向から視認することができる。 The display control unit 33 displays the three-dimensional image 32a based on the three-dimensional image data created by the three-dimensional image data creation unit 32 on a display device, which is one of the output devices 24. The user can view the three-dimensional image 32a of the area including the subject from any direction using a keyboard, mouse, etc.

ユーザは、3次元画像32aを視認することにより、複数の第2の画像F2iが、後述する標定計算部34による画像標定において十分な精度を得るために十分なデータであるか否かを確認する。仮に、3次元画像32aが、現実の被写体を十分な精度で再現していないと視認される場合、画像標定において十分な精度を得ることが困難であると予測される。 By visually checking the three-dimensional image 32a, the user checks whether the multiple second images F2i provide sufficient data to obtain sufficient accuracy in image orientation by the orientation calculation unit 34, which will be described later. If the three-dimensional image 32a is visually recognized as not reproducing the real subject with sufficient accuracy, it is predicted that it will be difficult to obtain sufficient accuracy in image orientation.

また、ユーザは、3次元画像32aを視認することにより、第1の画像F1の画像標定が可能か否かを確認する。仮に、第1の画像F1に写った被写体の範囲が、3次元画像32aに含まれていない場合、第1の画像F1の画像標定が不可能である。 The user also checks whether image orientation of the first image F1 is possible by visually checking the three-dimensional image 32a. If the range of the subject captured in the first image F1 is not included in the three-dimensional image 32a, image orientation of the first image F1 is impossible.

また、3次元画像32aと、絶対座標とを関連付けることにより、被写体の一点の、絶対座標系における位置座標を特定してもよい。そうすると、カメラ座標系における対応点の、絶対座標系における位置座標を特定することができる。これによって、セルフキャリブレーション付きバンドル法(後述)の精度が向上し、画像標定の精度が向上する。 The three-dimensional image 32a may also be associated with absolute coordinates to identify the position coordinates of a point on the subject in the absolute coordinate system. This makes it possible to identify the position coordinates of a corresponding point in the camera coordinate system in the absolute coordinate system. This improves the accuracy of the bundle method with self-calibration (described below), and improves the accuracy of image orientation.

対応点特定部31は、被写体における複数の点(絶対座標系における複数の点)の各々に対応する対応点を、第1の画像F1と、複数の第2の画像F2iのうちの少なくとも一つと、から特定する。ここで、「対応点」とは、被写体のある一点を点Pとした場合に、点Pに対応する、写真座標系の点である。対応点は、「タイポイント」とも称される。 The corresponding point identification unit 31 identifies corresponding points corresponding to each of a plurality of points on the subject (a plurality of points in the absolute coordinate system) from the first image F1 and at least one of the plurality of second images F2i. Here, a "corresponding point" is a point in the photograph coordinate system that corresponds to point P when a certain point on the subject is defined as point P. Corresponding points are also called "tie points."

「対応点を特定する」とは、対応点の写真座標系における位置座標を特定することを意味する。 "Identifying corresponding points" means identifying the position coordinates of corresponding points in the photograph coordinate system.

具体的に、対応点特定部31が、被写体における複数の点の各々に対応する対応点を、第1の画像F1と、第2の画像F21と、から特定する方法について説明する。対応点特定部31は、例えば、第1の画像F1から特定された複数の特徴点と、第2の画像F21から特定された複数の特徴点との全ての対について、パターンマッチングの手法を用いて類似度を算出する。パターンマッチングの手法としては、例えば、正規化相互相関法や最小二乗相関法を用いることができる。 Specifically, a method in which the corresponding point identification unit 31 identifies corresponding points corresponding to each of a plurality of points in the subject from the first image F1 and the second image F21 will be described. For example, the corresponding point identification unit 31 calculates the similarity for all pairs of a plurality of feature points identified from the first image F1 and a plurality of feature points identified from the second image F21 using a pattern matching method. As the pattern matching method, for example, a normalized cross-correlation method or a least squares correlation method can be used.

そして、対応点特定部31は、例えば、類似度が所定の閾値以上となる特徴点の対を、被写体のある一点に対応する、第1の画像F1における対応点と、第2の画像F21における対応点として特定する。 Then, the corresponding point identification unit 31 identifies, for example, a pair of feature points whose similarity is equal to or greater than a predetermined threshold, as corresponding points in the first image F1 and the second image F21 that correspond to a certain point on the subject.

図7Aは、第1の画像F1から特定された複数の対応点を示す図である。図7Bは、第2の画像F21から特定された複数の対応点を示す図である。図7A及び図7Bにおいて、特定された対応点が、黒丸で示されている。 Figure 7A is a diagram showing multiple corresponding points identified from a first image F1. Figure 7B is a diagram showing multiple corresponding points identified from a second image F21. In Figures 7A and 7B, the identified corresponding points are indicated by black circles.

これらの図において、図7Aの点q(1)と、図7Bの点q(21)とは、いずれも被写体における点P(図示せず)に対応する対応点を意味する。第1の画像F1と、他の第2の画像F2i(i≠1)についても同様の手順で複数の対応点が特定される。 In these figures, point q j (1) in Fig. 7A and point q j (21) in Fig. 7B both refer to a corresponding point corresponding to point P j (not shown) in the subject. A plurality of corresponding points are identified in the first image F1 and another second image F2i (i ≠ 1) in a similar procedure.

標定計算部34は、複数の対応点の写真座標系における各々の位置座標に基づいて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。具体的には、標定計算部34は、セルフキャリブレーション付きバンドル法を用いて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。 The orientation calculation unit 34 calculates the orientation elements when the first camera C1 captures the first image F1 based on the position coordinates of each of the multiple corresponding points in the photographic coordinate system. Specifically, the orientation calculation unit 34 uses a bundle method with self-calibration to calculate the orientation elements when the first camera C1 captures the first image F1.

バンドル法とは、共線条件を定式化し、最小自乗法を用いて解くことにより、外部標定要素を求める手法である。セルフキャリブレーション付きバンドル法とは、カメラの外部標定要素に加えて、内部標定要素を同時に計算する手法であり、バンドル法で利用される共線条件式に誤差モデルの項を追加して、未知の量を解く手法である(式3-1及び式3-2)。 The bundle method is a method for determining exterior orientation parameters by formulating collinearity conditions and solving them using the least squares method. The bundle method with self-calibration is a method for simultaneously calculating interior orientation parameters in addition to the exterior orientation parameters of the camera, and is a method for solving unknown quantities by adding an error model term to the collinearity condition equation used in the bundle method (Equation 3-1 and Equation 3-2).

第1の画像F1から特定された複数の対応点のうち一の対応点q(1)から、下記の共線条件が得られる。ここで、点q(1)のカメラ座標系における座標を、(x(1),y(1),z(1))とする。また、対応点q(1)に対応する絶対座標系における位置座標を、(X,Y,Z)とする。

Figure 0007493793000004
The following collinearity condition is obtained from one corresponding point q j (1) among the multiple corresponding points identified from the first image F1. Here, the coordinates of point q j (1) in the camera coordinate system are (x(1), y(1), z(1)). In addition, the position coordinates in the absolute coordinate system corresponding to corresponding point q j (1) are (X, Y, Z).
Figure 0007493793000004

更に、第2の画像F21から特定された複数の対応点のうち一の対応点q(21)から、下記の定式化された共線条件が得られる。ここで、点q(21)のカメラ座標系における座標を、(x(21),y(21),z(21))とする。また、対応点q(21)に対応する絶対座標系における位置座標は、対応点q(1)に対応する絶対座標系における位置座標と同一であり、(X,Y,Z)である。

Figure 0007493793000005
Furthermore, the following formulated collinearity condition is obtained from one corresponding point q j (21) among the multiple corresponding points identified from the second image F21. Here, the coordinates of point q j (21) in the camera coordinate system are (x(21), y(21), z(21)). Also, the position coordinates in the absolute coordinate system corresponding to corresponding point q j (21) are the same as the position coordinates in the absolute coordinate system corresponding to corresponding point q j (1), and are (X, Y, Z).
Figure 0007493793000005

式4-1及び式4-2において、変数に「(1)」と付したものは、第1の画像F1に関する変数であることを意味する。同様に、式5-1及び式5-2において、変数に「(21)」と付したものは、第2の画像F21に関する変数であることを意味する。 In Equation 4-1 and Equation 4-2, variables marked with "(1)" refer to variables related to the first image F1. Similarly, in Equation 5-1 and Equation 5-2, variables marked with "(21)" refer to variables related to the second image F21.

同様にして、第1の画像F1と、第2の画像F2i(i≠1)とから特定された複数の対応点の対の数の2倍の数だけ、共線条件が得られる。 In the same manner, collinearity conditions are obtained twice the number of pairs of corresponding points identified from the first image F1 and the second image F2i (i ≠ 1).

標定計算部34は、上述の方法で定式化された複数の共線条件を、セルフキャリブレーション付きバンドル法を用いて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。 The orientation calculation unit 34 uses the bundle method with self-calibration to calculate the orientation elements when the first image F1 is captured by the first camera C1, using the multiple collinearity conditions formulated by the above-mentioned method.

<画像標定処理>
以下、各機能ブロックが実行する処理の一例を、図9を参照しながら説明する。図9は、画像標定装置2で実行される処理の一例を示すフローチャートである。
<Image orientation processing>
An example of the process executed by each functional block will be described below with reference to Fig. 9. Fig. 9 is a flow chart showing an example of the process executed by the image localization device 2.

本実施形態の画像標定処理は、第1の画像F1を取得するステップS1と、複数の第2の画像F2iを取得するステップS2と、特徴点を特定するステップS2と、対応点を特定するステップS3と、標定要素を計算するステップS4と、を含む。 The image orientation process of this embodiment includes step S1 of acquiring a first image F1, step S2 of acquiring multiple second images F2i, step S2 of identifying feature points, step S3 of identifying corresponding points, and step S4 of calculating orientation elements.

ステップS1において、特徴点特定部30は、補助記憶装置22に記録された、第1の画像F1を表現するための画像データを読み出し、第1の画像F1を取得する。 In step S1, the feature point identification unit 30 reads image data for representing the first image F1 that is recorded in the auxiliary storage device 22, and acquires the first image F1.

ステップS2において、特徴点特定部30は、補助記憶装置22に記録された、複数の第2の画像F2iの各々を表現するための画像データを読み出し、複数の第2の画像F2iを取得する。尚、ステップS1及びステップS2の順序は任意である。 In step S2, the feature point identification unit 30 reads image data for representing each of the multiple second images F2i recorded in the auxiliary storage device 22, and acquires the multiple second images F2i. Note that the order of steps S1 and S2 is arbitrary.

ステップS3において、特徴点特定部30は、第1の画像F1と、複数の第2の画像F2iとの各々から、複数の特徴点を特定する。 In step S3, the feature point identification unit 30 identifies multiple feature points from the first image F1 and each of the multiple second images F2i.

ステップS4において、対応点特定部31は、第1の画像F1と、複数の第2の画像F2iとの対応点を、複数点特定する。 In step S4, the corresponding point identification unit 31 identifies multiple corresponding points between the first image F1 and multiple second images F2i.

ステップS5において、標定計算部34は、ステップS2で得られた複数の対応点に基づいて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算する。 In step S5, the orientation calculation unit 34 calculates the orientation elements when the first image F1 was captured by the first camera C1, based on the multiple corresponding points obtained in step S2.

==変形例1==
各機能ブロックが実行する処理の変形例を、図10を参照しながら説明する。図10は、画像標定装置2で実行される処理の変形例を示すフローチャートである。本変形例の処理は、第1実施形態の処理(図9)に比べると、3次元画像データを作成するステップS4´を更に含む点で異なっている。第1実施形態のステップS1、ステップS2、ステップS3、ステップS4及びステップS5はそれぞれ、本変形例のステップS1´、ステップS2´、ステップS3´、ステップS5´及びステップS6´と同様である。
==Variation 1==
A modified example of the process executed by each functional block will be described with reference to Fig. 10. Fig. 10 is a flow chart showing a modified example of the process executed by the image localization device 2. The process of this modified example differs from the process of the first embodiment (Fig. 9) in that it further includes step S4' for creating three-dimensional image data. Steps S1, S2, S3, S4, and S5 of the first embodiment are respectively similar to steps S1', S2', S3', S5', and S6' of this modified example.

本変形例では、3次元画像データを作成するステップS4´は、対応点を特定するステップS5´の前に実行される。ステップS4´において、3次元画像データ作成部32は、複数の第2の画像F2iを用いて被写体を含む領域の3次元画像データを作成する。尚、ステップS4´は、ステップS6´の前に実行されればよく、この例のタイミングに限られない。 In this modified example, step S4' of creating the three-dimensional image data is performed before step S5' of identifying corresponding points. In step S4', the three-dimensional image data creation unit 32 creates three-dimensional image data of an area including the subject using a plurality of second images F2i. Note that step S4' may be performed before step S6', and is not limited to the timing of this example.

==変形例2==
画像標定システム1の処理において、第1の画像F1と、複数の第2の画像F2iとは、解像度、明るさ、コントラスト、色彩等の画質、影の位置等が近いことが好ましい。そうすると、対応点特定部31が実行するパターンマッチングの精度を一定以上に保つことができ、ひいては得られる標定要素の精度を一定以上に保つことができる。
==Variation 2==
In the processing of the image orientation system 1, it is preferable that the first image F1 and the multiple second images F2i are similar in image quality such as resolution, brightness, contrast, and color, and in the position of shadows, etc. In this way, the accuracy of the pattern matching performed by the corresponding point identification unit 31 can be maintained at a certain level or higher, and the accuracy of the obtained orientation elements can be maintained at a certain level or higher.

従って、第1の画像F1と、複数の第2の画像F2iとについて画像処理を行い、解像度、明るさ、コントラスト、色彩等が近くなるように調整してもよい。このような画像処理は、対応点を特定するステップS5(図9)の前の任意のタイミングで行えばよい。 Therefore, image processing may be performed on the first image F1 and the multiple second images F2i to adjust the resolution, brightness, contrast, color, etc. to be similar. Such image processing may be performed at any time before step S5 (FIG. 9) of identifying corresponding points.

==第2実施形態==
本実施形態の画像標定システムは、第1実施形態の画像標定システム1と比べると、複数の第2の画像F2iを得るためのカメラが異なっている。その他の構成、処理方法等は、第1実施形態と同様である。
Second Embodiment
The image orientation system of this embodiment is different from the image orientation system 1 of the first embodiment in that the camera for obtaining the multiple second images F2i is different. The other configurations, processing methods, etc. are the same as those of the first embodiment.

図11は、第1のカメラC1と、複数の第3のカメラC3との配置の一例を示す図である。本実施形態では、複数の第2の画像F2iは、複数の第3のカメラC3によって、撮影して取得した画像である。複数の第3のカメラC3の各々は、被写体に対して、位置が固定されている。 Figure 11 is a diagram showing an example of the arrangement of the first camera C1 and the multiple third cameras C3. In this embodiment, the multiple second images F2i are images captured and acquired by the multiple third cameras C3. Each of the multiple third cameras C3 is fixed in position with respect to the subject.

複数の第3のカメラC3の各々は、所定の時間間隔で第2の画像F2iを得る。複数の第3のカメラC3の各々は、第1実施形態の第2のカメラC2と同様に、静止画を得るためのカメラでもよく、動画を得るためのカメラでもよい。 Each of the multiple third cameras C3 obtains a second image F2i at a predetermined time interval. Each of the multiple third cameras C3 may be a camera for obtaining still images, similar to the second camera C2 in the first embodiment, or a camera for obtaining moving images.

また、複数の第3のカメラC3の各々は、姿勢、撮影画角等が遠隔操作により制御可能であってもよいし、これらが固定されていてもよい。 Furthermore, the attitude, shooting angle of view, etc. of each of the multiple third cameras C3 may be remotely controllable, or these may be fixed.

前述のように、画像標定システムの処理において、第1の画像F1と、複数の第2の画像F2iとは、解像度、明るさ、コントラスト、色彩等の画質、影の位置等が近いことが好ましい。 As mentioned above, in the processing of the image orientation system, it is preferable that the first image F1 and the multiple second images F2i are similar in image quality such as resolution, brightness, contrast, and color, and in the position of shadows, etc.

従って、複数の第2の画像F2iとしては、第1の画像F1が得られた時刻に可能な限り近い時刻に得られたものを選択することが好ましい。 Therefore, it is preferable to select the multiple second images F2i that were obtained as close as possible to the time that the first image F1 was obtained.

また、本実施形態の複数の第3のカメラC3によれば、任意のタイミングで被写体を撮影して複数の第2の画像F2iを取得することができる。従って、予め被写体を撮影して複数の第2の画像F2iを取得し、3次元画像データを作成しておいてもよい。そして、複数の第2の画像F2iの各々を表現するための画像データと、当該3次元画像データとを、補助記憶装置22に保存しておいてもよい。 In addition, according to the multiple third cameras C3 of this embodiment, the subject can be photographed at any timing to obtain multiple second images F2i. Therefore, the subject may be photographed in advance to obtain multiple second images F2i and create three-dimensional image data. Then, image data for expressing each of the multiple second images F2i and the three-dimensional image data may be stored in the auxiliary storage device 22.

そして、その後に第1のカメラC1が被写体を撮影して得られた第1の画像F1について、標定要素を計算してもよい。この場合、図10のフローチャートにおいて、3次元画像データを作成するステップS4´の代わりに、補助記憶装置22に記録された3次元画像データを読み出すステップとすればよい。 Then, the orientation parameters may be calculated for the first image F1 obtained by the first camera C1 photographing the subject. In this case, in the flowchart of FIG. 10, step S4' of creating the three-dimensional image data may be replaced by a step of reading out the three-dimensional image data recorded in the auxiliary storage device 22.

上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。また、本発明は、その趣旨を逸脱することなく、変更や改良され得るとともに、本発明にはその等価物が含まれるのはいうまでもない。 The above embodiment is intended to facilitate understanding of the present invention, and is not intended to limit the present invention. Furthermore, the present invention may be modified or improved without departing from the spirit of the present invention, and it goes without saying that the present invention includes equivalents.

以上、第1及び第2実施形態の画像標定方法は、被写体に対して固定された位置に設置された第1のカメラC1によって、被写体が撮影されることによって得られた、第1の画像F1を取得するステップと、各々が、被写体の少なくとも一部が撮影されることによって得られた、複数の第2の画像F2iを取得するステップと、第1の画像F1と、複数の第2の画像F2iとの対応点を、複数点特定するステップと、複数の対応点の各々の写真座標系における位置座標に基づいて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算するステップと、を含む。 As described above, the image orientation methods of the first and second embodiments include the steps of acquiring a first image F1 obtained by photographing the subject with a first camera C1 installed at a fixed position relative to the subject, acquiring a plurality of second images F2i, each of which is obtained by photographing at least a portion of the subject, identifying a plurality of corresponding points between the first image F1 and the plurality of second images F2i, and calculating orientation elements of the first camera C1 at the time of capturing the first image F1 based on the position coordinates in the photographic coordinate system of each of the plurality of corresponding points.

このような画像標定方法によれば、第1の画像F1の画像標定を行う際、標定対象区域内にマーカーの設置を必要としない。従って、マーカーの設置が禁止又は制限される区域の画像についても、画像標定を行うことができる。 According to this image orientation method, when performing image orientation of the first image F1, it is not necessary to install a marker within the area to be located. Therefore, image orientation can be performed even for images in areas where the installation of markers is prohibited or restricted.

また、当該標定方法は、対応点を複数点特定するステップの前に、複数の第2の画像F2iに基づいて、被写体を含む領域の3次元画像データを作成するステップを更に含んでもよい。これによって、ユーザは、3次元画像32aを視認することにより、複数の第2の画像F2iが、画像標定において十分な精度を得るために十分なデータであるか否かを確認することができる。また、ユーザは、3次元画像32aを視認することにより、第1の画像F1の画像標定が可能か否かを確認することができる。また、3次元画像32aと、絶対座標とを関連付けることにより、被写体の一点の、絶対座標系における位置座標を特定することができる。そうすると、カメラ座標系における対応点の、絶対座標系における位置座標を特定することができる。これによって、セルフキャリブレーション付きバンドル法の精度が向上し、画像標定の精度が向上する。 The orientation method may further include a step of creating three-dimensional image data of an area including the subject based on the second images F2i before the step of identifying the corresponding points. This allows the user to visually check the three-dimensional image 32a and confirm whether the second images F2i are sufficient data to obtain sufficient accuracy in image orientation. Also, the user can visually check the three-dimensional image 32a and confirm whether image orientation of the first image F1 is possible. Also, by associating the three-dimensional image 32a with absolute coordinates, the position coordinates of one point of the subject in the absolute coordinate system can be specified. Then, the position coordinates of the corresponding points in the camera coordinate system in the absolute coordinate system can be specified. This improves the accuracy of the bundle method with self-calibration, and improves the accuracy of image orientation.

また、第1実施形態の標定方法において、複数の第2の画像F2iは、被写体に対して移動可能な位置に設置された第2のカメラC2によって撮影されることによって得られた画像である。これによって、複数の第2の画像F2iを得るために、複数のカメラを必要とせず、被写体に対して異なる位置及び角度から、被写体を複数撮影することができる。 In addition, in the location method of the first embodiment, the multiple second images F2i are images obtained by photographing the subject with a second camera C2 installed in a position that can be moved relative to the subject. This makes it possible to photograph the subject multiple times from different positions and angles without requiring multiple cameras to obtain the multiple second images F2i.

また、第2実施形態の標定方法において、複数の第2の画像F2iは、被写体に対して固定された位置に設置された複数の第3のカメラC3によって撮影されることによって得られた画像である。これによって、第1の画像F1と、複数の第2の画像F2iとの画質が近くなる。そうすると、対応点特定部31が実行するパターンマッチングの精度を一定以上に保つことができ、ひいては得られる標定要素の精度を一定以上に保つことができる。 In addition, in the orientation method of the second embodiment, the multiple second images F2i are images obtained by photographing the subject with multiple third cameras C3 installed at fixed positions. This makes the image quality of the first image F1 and the multiple second images F2i closer. This makes it possible to maintain the accuracy of the pattern matching performed by the corresponding point identification unit 31 at a certain level or higher, and therefore the accuracy of the obtained orientation elements at a certain level or higher.

第1及び第2実施形態の画像標定装置2は、被写体における複数の点の各々に対応する対応点を、被写体に対して位置が固定された第1のカメラC1によって撮影して取得した第1の画像F1と、被写体の少なくとも一部を撮影して取得した複数の第2の画像F2iのうちの少なくとも一つと、から特定する対応点特定部と、複数の点の各々に対応する対応点の位置座標に基づいて、前記第1のカメラの、第1の画像F1の撮像時の標定要素を計算する標定計算部34と、を含む。 The image orientation device 2 of the first and second embodiments includes a corresponding point identification unit that identifies corresponding points corresponding to each of a plurality of points on a subject from a first image F1 captured by a first camera C1 whose position is fixed relative to the subject and at least one of a plurality of second images F2i captured by capturing at least a portion of the subject, and an orientation calculation unit 34 that calculates orientation elements of the first camera at the time of capturing the first image F1 based on the position coordinates of the corresponding points corresponding to each of the plurality of points.

このような画像標定装置2によれば、第1の画像F1の画像標定を行う際、標定対象区域内にマーカーの設置を必要とせずに、画像標定を行うことができる。従って、マーカーの設置が禁止又は制限される区域の画像についても、画像標定を行うことができる。 With this type of image orientation device 2, when performing image orientation of the first image F1, image orientation can be performed without the need to install markers within the area to be located. Therefore, image orientation can be performed even for images in areas where the installation of markers is prohibited or restricted.

第1及び第2実施形態の画像標定システム1は、被写体に対して位置が固定された第1のカメラC1と、第2のカメラC2と、上記画像標定装置2とを備える。 The image orientation system 1 of the first and second embodiments includes a first camera C1 whose position is fixed relative to the subject, a second camera C2, and the image orientation device 2.

このような画像標定システム1によれば、第1の画像F1の画像標定を行う際、標定対象区域内にマーカーの設置を必要とせずに、画像標定を行うことができる。従って、マーカーの設置が禁止又は制限される区域の画像についても、画像標定を行うことができる。 With this image orientation system 1, when performing image orientation of the first image F1, image orientation can be performed without the need to install markers within the area to be located. Therefore, image orientation can be performed even for images in areas where the installation of markers is prohibited or restricted.

第1及び第2実施形態の画像標定プログラムは、コンピューターに、被写体に対して固定された位置に設置された第1のカメラC1によって、被写体が撮影されることによって得られた第1の画像F1を取得させ、各々が、被写体の少なくとも一部が撮影されることによって得られた複数の第2の画像F2iを取得させ、第1の画像F1と、複数の第2の画像F2iとの対応点を複数点特定させ、複数の対応点の各々の、被写体に固定された座標系における位置座標を取得させ、複数の対応点に基づいて、第1のカメラC1の、第1の画像F1の撮像時の標定要素を計算させる。 The image orientation program of the first and second embodiments causes a computer to acquire a first image F1 obtained by photographing the subject with a first camera C1 installed at a fixed position relative to the subject, acquire multiple second images F2i, each of which is obtained by photographing at least a portion of the subject, identify multiple corresponding points between the first image F1 and the multiple second images F2i, obtain position coordinates of each of the multiple corresponding points in a coordinate system fixed to the subject, and calculate orientation elements of the first camera C1 at the time of capturing the first image F1 based on the multiple corresponding points.

このような画像標定プログラムによれば、第1の画像F1の画像標定を行う際、標定対象区域内にマーカーの設置を必要とせずに、コンピューターに画像標定を実行させることができる。従って、マーカーの設置が禁止又は制限される区域の画像についても、画像標定を行うことができる。 According to such an image orientation program, when performing image orientation of the first image F1, it is possible to have the computer perform image orientation without the need to install markers within the area to be located. Therefore, image orientation can be performed even for images in areas where the installation of markers is prohibited or restricted.

1:画像標定システム
C1:第1のカメラ
C2:第2のカメラ
C3:第3のカメラ
2:画像標定装置
20:CPU
21:主記憶装置
22:補助記憶装置
23:入力装置
24:出力装置
25:通信装置
30:特徴点特定部
31:対応点特定部
32:3次元画像データ作成部
33:表示制御部
34:標定計算部

1: Image orientation system C1: First camera C2: Second camera C3: Third camera 2: Image orientation device 20: CPU
21: Main memory device 22: Auxiliary memory device 23: Input device 24: Output device 25: Communication device 30: Feature point identification unit 31: Corresponding point identification unit 32: 3D image data creation unit 33: Display control unit 34: Orientation calculation unit

Claims (6)

少なくとも被写体を撮影するときに前記被写体に対して位置が固定された第1のカメラによって、前記被写体を撮影し、第1の画像を取得するステップと、
前記被写体の少なくとも一部を複数の箇所から撮影し、複数の第2の画像を取得するステップと、
前記複数の第2の画像に基づいて、前記被写体を含む領域の、絶対座標系における3次元画像データを作成するステップと、
前記被写体における複数の点の各々に対応する対応点を、前記第1の画像と、前記複数の第2の画像のうちの少なくとも一つと、から特定するステップと、
前記第1のカメラの絶対座標系における位置座標と、前記複数の点の各々に対応する対応点の写真座標系における位置座標と、前記複数の点の各々の前記3次元画像データに基づいて特定された絶対座標系における位置座標に基づいて、前記第1のカメラの、前記第1の画像の撮像時の絶対座標系における標定要素を計算するステップと、
を含む、画像標定方法。
capturing an image of the object by a first camera, the first camera being fixed in position relative to the object when capturing the image of the object;
capturing a plurality of second images of at least a portion of the subject from a plurality of locations;
creating three-dimensional image data in an absolute coordinate system of an area including the subject based on the plurality of second images;
identifying corresponding points from the first image and at least one of the second images, the corresponding points corresponding to each of the plurality of points in the object;
calculating an orientation element in an absolute coordinate system of the first camera at the time of capturing the first image based on a position coordinate in an absolute coordinate system of the first camera, a position coordinate in a photograph coordinate system of a corresponding point corresponding to each of the plurality of points , and a position coordinate in an absolute coordinate system specified based on the three-dimensional image data of each of the plurality of points;
The image orientation method includes:
前記複数の第2の画像は、前記被写体に対して位置が移動可能な第2のカメラによって、前記第2のカメラの移動中に前記被写体を撮影して取得した画像である
ことを特徴とする請求項1に記載の画像標定方法。
The image orientation method according to claim 1 , wherein the plurality of second images are images acquired by photographing the subject using a second camera whose position is movable relative to the subject while the second camera is moving.
前記複数の第2の画像は、少なくとも被写体を撮影するときに前記被写体に対して各々の位置が固定された複数の第3のカメラによって、被写体を撮影して取得した画像である
ことを特徴とする請求項1に記載の画像標定方法。
The image orientation method according to claim 1, wherein the plurality of second images are images obtained by photographing the subject using a plurality of third cameras, each of which is fixed in position relative to the subject when photographing the subject.
被写体における複数の点の各々に対応する対応点を、少なくとも被写体を撮影するときに前記被写体に対して位置が固定された第1のカメラによって撮影して取得した第1の画像と、前記被写体の少なくとも一部を複数の箇所から撮影して取得した複数の第2の画像のうちの少なくとも一つと、から特定する対応点特定部と、
前記複数の第2の画像に基づいて、前記被写体を含む領域の、絶対座標系における3次元画像データを作成する3次元画像データ作成部と、
前記第1のカメラの絶対座標系における位置座標と、前記複数の点の各々に対応する対応点の写真座標系における位置座標と、前記複数の点の各々の前記3次元画像データに基づいて特定された絶対座標系における位置座標に基づいて、前記第1のカメラの、前記第1の画像の撮像時の絶対座標系における標定要素を計算する標定計算部と、
を備えた、画像標定装置。
a corresponding point specifying unit that specifies corresponding points corresponding to each of a plurality of points on a subject from a first image obtained by photographing the subject with a first camera whose position is fixed with respect to the subject when photographing the subject, and from at least one of a plurality of second images obtained by photographing at least a portion of the subject from a plurality of locations;
a three-dimensional image data creation unit that creates three-dimensional image data in an absolute coordinate system of an area including the subject based on the plurality of second images;
an orientation calculation unit that calculates orientation elements in an absolute coordinate system of the first camera at the time of capturing the first image, based on position coordinates in an absolute coordinate system of the first camera, position coordinates in a photographic coordinate system of corresponding points corresponding to each of the plurality of points , and position coordinates in an absolute coordinate system specified based on the three-dimensional image data of each of the plurality of points;
An image orientation device comprising:
少なくとも被写体を撮影するときに被写体に対して位置が固定された第1のカメラと、
第2のカメラと、
請求項4に記載の画像標定装置と、
を備え、
前記第2のカメラは、前記複数の第2の画像を取得する、
画像標定システム。
a first camera whose position is fixed with respect to the subject when at least photographing the subject;
A second camera;
The image orientation device according to claim 4 ;
Equipped with
the second camera captures the second plurality of images;
Image orientation system.
コンピューターに、
少なくとも被写体を撮影するときに前記被写体に対して位置が固定された第1のカメラによって、前記被写体を撮影して取得した第1の画像を取得させ、
前記被写体の少なくとも一部を複数の箇所から撮影して取得した複数の第2の画像を取得させ、
前記複数の第2の画像に基づいて、前記被写体を含む領域の、絶対座標系における3次元画像データを作成させ、
前記被写体における複数の点の各々に対応する対応点を、前記第1の画像と、前記複数の第2の画像のうちの少なくとも一つと、から複数点特定させ、
前記第1のカメラの絶対座標系における位置座標と、前記複数の対応点の写真座標系における位置座標と、前記複数の点の各々の前記3次元画像データに基づいて特定された絶対座標系における位置座標に基づいて、前記第1のカメラの、前記第1の画像の撮像時の絶対座標系における標定要素を計算させる、
画像標定プログラム。
On the computer,
acquiring a first image by photographing the subject using a first camera that is fixed in position relative to the subject when photographing the subject;
acquiring a plurality of second images obtained by photographing at least a portion of the subject from a plurality of positions;
creating three-dimensional image data in an absolute coordinate system of an area including the subject based on the plurality of second images;
Identifying a plurality of corresponding points from the first image and at least one of the plurality of second images, the corresponding points corresponding to each of the plurality of points in the subject;
Calculating orientation elements in an absolute coordinate system of the first camera at the time of capturing the first image, based on position coordinates in an absolute coordinate system of the first camera, position coordinates in a photographic coordinate system of the plurality of corresponding points, and position coordinates in an absolute coordinate system specified based on the three-dimensional image data of each of the plurality of points.
Image orientation program.
JP2020208438A 2020-12-16 2020-12-16 Image orientation method, image orientation device, image orientation system, and image orientation program Active JP7493793B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020208438A JP7493793B2 (en) 2020-12-16 2020-12-16 Image orientation method, image orientation device, image orientation system, and image orientation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020208438A JP7493793B2 (en) 2020-12-16 2020-12-16 Image orientation method, image orientation device, image orientation system, and image orientation program

Publications (2)

Publication Number Publication Date
JP2022095239A JP2022095239A (en) 2022-06-28
JP7493793B2 true JP7493793B2 (en) 2024-06-03

Family

ID=82162997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020208438A Active JP7493793B2 (en) 2020-12-16 2020-12-16 Image orientation method, image orientation device, image orientation system, and image orientation program

Country Status (1)

Country Link
JP (1) JP7493793B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109200A (en) 2017-12-20 2019-07-04 オムロン株式会社 Data generation device for calibration, data generation method for calibration, calibration system, and control program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5227110B2 (en) * 2008-08-07 2013-07-03 株式会社トプコン Omnidirectional camera with GPS and spatial data collection device
JP6985593B2 (en) * 2017-10-18 2021-12-22 富士通株式会社 Image processing program, image processing device and image processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109200A (en) 2017-12-20 2019-07-04 オムロン株式会社 Data generation device for calibration, data generation method for calibration, calibration system, and control program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
織田 和夫,講座:バンドル法 第一回バンドル法概論と用語,写真測量とリモートセンシング,日本,一般社団法人 日本写真測量学会,2012年03月09日,VOL.51, NO.1,pp.54-61

Also Published As

Publication number Publication date
JP2022095239A (en) 2022-06-28

Similar Documents

Publication Publication Date Title
US9189853B1 (en) Automatic pose estimation from uncalibrated unordered spherical panoramas
CN110135455A (en) Image matching method, device and computer readable storage medium
KR101871764B1 (en) Industrial infrastructure management platform building system based on virtual reality
CN106530358A (en) Method for calibrating PTZ camera by using only two scene images
WO2017022033A1 (en) Image processing device, image processing method, and image processing program
CN112686877B (en) Binocular camera-based three-dimensional house damage model construction and measurement method and system
JP2007192832A (en) Calibrating method of fish eye camera
JP7220785B2 (en) Survey sampling point planning method, device, control terminal and storage medium
US8509522B2 (en) Camera translation using rotation from device
CN108444452B (en) Method and device for detecting longitude and latitude of target and three-dimensional space attitude of shooting device
CN109389645B (en) Camera self-calibration method and system, camera, robot and cloud server
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
KR101868740B1 (en) Apparatus and method for generating panorama image
JP7220784B2 (en) Survey sampling point planning method, device, control terminal and storage medium
Sahin Comparison and calibration of mobile phone fisheye lens and regular fisheye lens via equidistant model
CN113436267B (en) Visual inertial navigation calibration method, device, computer equipment and storage medium
KR102475790B1 (en) Map making Platform apparatus and map making method using the platform
RU2679200C1 (en) Data from the video camera displaying method and system
JP7493793B2 (en) Image orientation method, image orientation device, image orientation system, and image orientation program
CN113256811B (en) Building modeling method, building modeling apparatus, and computer-readable storage medium
CN109816628A (en) Face evaluation method and Related product
JP5885974B2 (en) Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data
JP2018088228A (en) Intersection detection device, camera calibration system, intersection detection method, camera calibration method, program and recording medium
CN114004839A (en) Image segmentation method and device of panoramic image, computer equipment and storage medium
CN114549650A (en) Camera calibration method and device, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240515

R150 Certificate of patent or registration of utility model

Ref document number: 7493793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150