JP2014089078A - Orientation method, orientation program, and orientation device - Google Patents
Orientation method, orientation program, and orientation device Download PDFInfo
- Publication number
- JP2014089078A JP2014089078A JP2012238204A JP2012238204A JP2014089078A JP 2014089078 A JP2014089078 A JP 2014089078A JP 2012238204 A JP2012238204 A JP 2012238204A JP 2012238204 A JP2012238204 A JP 2012238204A JP 2014089078 A JP2014089078 A JP 2014089078A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- orientation
- images
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 104
- 238000003384 imaging method Methods 0.000 claims abstract description 127
- 230000008569 process Effects 0.000 claims abstract description 52
- 238000006243 chemical reaction Methods 0.000 claims abstract description 25
- 238000000605 extraction Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 16
- 238000012937 correction Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002285 radioactive effect Effects 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本願発明は、移動体で移動しながら撮像した沿道状況の画像に基づいて、沿道対象物を計測する技術に関するものであり、より具体的には、概略の標定要素に基づいて取得画像の偏位修正を行い、この偏位修正画像を用いてペア画像の照合(マッチング)を行うとともに、その照合結果から正確な標定要素を求める技術に関する。 The present invention relates to a technique for measuring a roadside object based on an image of a roadside situation imaged while moving by a moving body, and more specifically, based on a rough orientation element, a deviation of an acquired image The present invention relates to a technique for performing correction and performing matching (matching) of a pair image using the displacement corrected image and obtaining an accurate orientation element from the matching result.
従来から、道路及び道路側方の地形など、いわゆる沿道の地形情報(空間情報)に対する需要は高く、その需要に応えるようにその計測技術も進歩してきた。 Conventionally, demand for so-called roadside terrain information (spatial information) such as roads and roadside terrain is high, and measurement techniques have also been advanced to meet the demand.
道路沿いには、家屋や集合住宅、商用ビル、擁壁といった構造物、あるいは標識や信号、屋外広告物など種々の施設が設置されている。このような構造物や施設は目視で確認しやすく、沿道の空間情報を整備することは、目的地までの目印を把握するためにも、目的地そのものを把握するためにも、極めて有用である。また、沿道に設置される構造物や施設(例えば屋外広告物)を管理する者にとっても、その管理業務が容易となるので有益である。 Along the road, various facilities such as houses, apartment houses, commercial buildings, retaining walls, signs, signals, outdoor advertisements, etc. are installed. Such structures and facilities are easy to check visually, and it is extremely useful to maintain roadside information to understand landmarks to the destination and the destination itself. . It is also beneficial for those who manage structures and facilities (for example, outdoor advertisements) installed on the roadside because the management work becomes easy.
一方で道路沿いの土地は、その利用価値が高いこともあって、比較的変化しやすい。特に市街地では、商用ビルなどの入れ替わりが激しく、屋外広告物も頻繁に変更されている。さらに、自然災害等によって予期せぬ地形変化が生ずることもある。そのため、沿道の空間情報は一度整備すれば足りるというものではなく、地形が変化するたびに、もしくは定期的に再整備していく必要がある。 On the other hand, land along the road is relatively easy to change due to its high utility value. Especially in urban areas, the replacement of commercial buildings is intense, and outdoor advertisements are also frequently changed. In addition, unexpected topographic changes may occur due to natural disasters. For this reason, it is not necessary to prepare the roadside spatial information once, but it is necessary to redevelop it whenever the topography changes or periodically.
従来、沿道状況の空間情報を取得するための技術としてはトータルステーションを利用した現地測量が主流であった。この手法によれば、作業上の手間と時間を著しく要する上に相当の費用もかかることから、沿道状況を頻繁に計測することは現実的には難しく、最新の沿道状況を反映した空間情報を維持し続けることは困難であった。 Traditionally, field surveys using total stations have been the mainstream technology for obtaining spatial information on roadside conditions. According to this method, it takes a lot of labor and time for work, and it costs a lot of money, so it is practically difficult to measure the roadside situation frequently, and spatial information reflecting the latest roadside situation is obtained. It was difficult to maintain.
昨今、トータルステーションを利用した現地測量よりも手軽に実施できる方法として注目されているのが、計測機器を搭載した車両で移動しながら空間情報を取得するという計測技術である。この計測技術は、モバイルマッピングシステム(Mobile Mapping System:MMS)と呼ばれるもので、測位計(例えば、GPS:Global Positioning System)、慣性計測装置(例えば、IMU:Inertial Measurement Unit)、距離計(DMI:Distance Measuring instrument)、レーザー距離計、撮像手段(例えばデジタルカメラ)などを適宜組み合わせて車両に搭載し、移動しながらこれらの計測機器によって沿道の空間情報を取得するものである。 In recent years, a technique that is attracting attention as a method that can be carried out more easily than on-site surveying using a total station is a measurement technology that acquires spatial information while moving on a vehicle equipped with a measuring device. This measurement technology is called a mobile mapping system (Mobile Mapping System: MMS), and includes a positioning device (for example, GPS: Global Positioning System), an inertial measurement device (for example, IMU: Internal Measurement Unit), and a distance meter (DMI: A distance measuring instrument), a laser distance meter, an imaging means (for example, a digital camera), and the like are appropriately combined and mounted on a vehicle, and roadside spatial information is acquired by these measuring devices while moving.
レーザー距離計を搭載したMMSは、沿道の計測対象に対して照射したレーザーパルスの反射信号を受けて計測するものであり、通常、GPSとIMUが車両に搭載されているのでレーザーパルスの照射位置(x,y,z)と照射姿勢(ω,φ,κ)が得られ、その結果、照射時刻と受信時刻の時間差から計測点の3次元座標を取得することができる。レーザー計測を行うMMSは、一度の走行で大量の計測点を取得できるため、微地形を把握することができる効果がある反面、IMUやレーザー距離計などは非常に高価であり、費用面で考えれば容易に実施できる手法ではないという問題を抱えていた。 An MMS equipped with a laser rangefinder is to receive and measure the reflected signal of a laser pulse irradiated to a roadside object. Usually, the GPS pulse and IMU are mounted on the vehicle, so the laser pulse irradiation position (X, y, z) and irradiation posture (ω, φ, κ) are obtained, and as a result, the three-dimensional coordinates of the measurement point can be acquired from the time difference between the irradiation time and the reception time. Since MMS that performs laser measurement can acquire a large number of measurement points in one run, it has the effect of grasping the fine topography, but IMU and laser rangefinders are very expensive and can be considered costly. In other words, there was a problem that it was not easy to implement.
そこで特許文献1では、レーザー距離計を設けることなく、観測車で移動しながらビデオカメラの撮影によって道路の3次元形状を計測する技術を提案している。 Therefore, Patent Document 1 proposes a technique for measuring a three-dimensional shape of a road by taking a video camera while moving with an observation vehicle without providing a laser distance meter.
特許文献1は、同一対象物を異なる方向からカメラで撮影した2枚の写真(いわゆるステレオぺア)を用いて対象物の位置座標を特定する技術であり、従来から行われてきたいわゆる写真測量である。 Patent Document 1 is a technique for specifying the position coordinates of an object using two photographs (so-called stereo pairs) obtained by photographing the same object from different directions, and so-called photogrammetry that has been performed conventionally. It is.
撮像手段を搭載したMMSで写真測量を行う場合、主点位置のずれや、放射性ひずみ、非対称性ひずみといった撮像手段の内部標定要素を求めるほか、撮像した時の撮像位置や撮像方向といった外部標定要素を求める必要がある。この外部標定要素を求めるための手段がGPSやIMU、DMIといった計測器であるが、測量用の高精度なGPSやIMUは著しく高価であり、DMIを取り付けるには車両を改造しなければならない。その結果、レーザー距離計を搭載したMMSに比べるとレーザー距離計を使用しない分だけ費用は軽減されるものの、それほど著しい費用の低減が期待きるものではない。 When performing photogrammetry with an MMS equipped with imaging means, in addition to obtaining the internal orientation elements of the imaging means such as displacement of the principal point, radioactive distortion, and asymmetric distortion, external orientation elements such as the imaging position and imaging direction at the time of imaging It is necessary to ask. A means for obtaining the external orientation element is a measuring instrument such as GPS, IMU, or DMI. However, high-precision GPS or IMU for surveying is extremely expensive, and the vehicle must be modified to attach the DMI. As a result, compared with MMS equipped with a laser distance meter, the cost can be reduced by not using the laser distance meter, but a significant reduction in cost is not expected.
ところで、近年では非測量用のGPSやジャイロが広く市場に流通しており、携帯電話などの携帯端末では当たり前のように搭載されている。これら非測量用のGPSやジャイロは測量用のものよりはるかに安価であり、これらを利用して高精度な写真測量を実現する技術は極めて有用である。 By the way, in recent years, GPS and gyros for non-surveying are widely distributed in the market, and are installed as usual in portable terminals such as mobile phones. These non-surveying GPSs and gyros are much cheaper than those for surveying, and a technique for realizing high-precision photogrammetry using them is extremely useful.
MMSによる写真測量において、測量用のGPSやIMUを使用することなく外部標定要素を求めるには、撮像画像を利用することが考えられる。しかしながらこの場合、撮像間隔と画像ひずみの問題を指摘することができる。例えば、動画のように撮像間隔を小さくした画像群に対して特徴点追跡や画像マッチングを行って外部標定要素を求める手法が挙げられるが、画像の数の分だけ誤差が累積する可能性があり、その結果期待した精度が得られないおそれがある。逆に、撮像間隔を大きくした画像群で外部標定要素を求めるとすると、画像上のテクスチャの歪みが大きくなる結果、特徴点抽出や画像マッチングが不安定となり、やはり期待した精度が得られないおそれがある。 In photogrammetry using MMS, it is conceivable to use a captured image in order to obtain an external orientation element without using a GPS or IMU for surveying. However, in this case, the problems of imaging interval and image distortion can be pointed out. For example, there is a method of obtaining external orientation elements by tracking feature points and matching images for images with a small imaging interval such as moving images, but there is a possibility that errors may accumulate for the number of images. As a result, the expected accuracy may not be obtained. On the other hand, if an external orientation element is obtained from an image group with a large imaging interval, the texture distortion on the image will increase, resulting in unstable feature point extraction and image matching, and may not achieve the expected accuracy. There is.
本願発明の課題は、前記のような問題を解決する技術を提供することであり、すなわち、高価な測量用測位計や慣性計測装置を用いることなく、移動しながら高精度な写真測量を実現することであり、撮像間隔を大きくした画像群に対して高精度に外部標定要素を求めることができる、標定方法、標定プログラム、及び標定装置を提供することにある。 An object of the present invention is to provide a technique for solving the above-described problems, that is, to realize high-precision photogrammetry while moving without using an expensive surveying position meter or inertial measurement device. Accordingly, it is an object of the present invention to provide an orientation method, an orientation program, and an orientation device that can obtain an external orientation element with high accuracy for an image group having a large imaging interval.
本願発明は、仮の標定要素に基づいて偏位修正を行った偏位修正画像で画像照合(マッチング)を行い、その結果から正確な標定要素を求める、という点に着目したものであり、従来にはなかった発想に基づいてなされた発明である。 The present invention focuses on the point that image collation (matching) is performed with a displacement corrected image obtained by performing displacement correction based on a provisional orientation element, and an accurate orientation element is obtained from the result. It was an invention made based on an idea that did not exist.
本願発明の標定方法は、移動中に撮像した画像に基づいて標定要素を求める標定方法であり、撮像工程と、画像抽出工程、ペア画像抽出工程、画像照合工程、標定工程を備えた方法である。このうち撮像工程では、移動しながら撮像して2以上の撮像画像を取得するとともに、撮像時における撮像位置及び撮像方向を取得する。画像変換工程では、撮像位置及び撮像方向に基づいて、それぞれの撮像画像を、所定の基準面の画像となるよう変換して、基準面画像を得る。ペア画像抽出工程では、同一箇所を含む2つの基準面画像を抽出し、これらを1組のペア画像とする。画像照合工程では、ペア画像を用いて部分画像の照合を行う。標定工程では、画像照合工程の照合結果に基づいて、撮像工程のそれぞれの撮像時における標定要素を求める。 The orientation method of the present invention is an orientation method for obtaining orientation elements based on an image captured during movement, and includes an imaging step, an image extraction step, a pair image extraction step, an image collation step, and an orientation step. . Among these, in an imaging process, while imaging, it acquires two or more captured images, and acquires an imaging position and an imaging direction at the time of imaging. In the image conversion step, each captured image is converted so as to become an image of a predetermined reference plane based on the imaging position and the imaging direction, and a reference plane image is obtained. In the pair image extraction step, two reference plane images including the same location are extracted and used as a pair of pair images. In the image collation process, partial images are collated using the pair images. In the orientation process, orientation elements at the time of imaging in the imaging process are obtained based on the matching result in the image matching process.
本願発明の標定方法は、画像位置特定工程を備えた方法とすることもできる。この場合、画像位置特定工程では、撮像時における撮像位置及び撮像方向に基づいてそれぞれの基準面画像に対して画像位置を特定し、ペア画像抽出工程では、画像位置に基づいて2つの基準面画像を抽出する。 The orientation method of the present invention may be a method including an image position specifying step. In this case, in the image position specifying step, an image position is specified for each reference plane image based on the imaging position and imaging direction at the time of imaging, and in the pair image extraction step, two reference plane images are determined based on the image position. To extract.
本願発明の標定方法は、撮像工程において、移動体の移動前方の前方撮像画像と、移動後方の後方撮像画像とを取得する方法とすることもできる。この場合ペア画像抽出工程では、前方撮像画像と後方撮像画像から1つずつ基準面画像を抽出する。 The orientation method of the present invention may be a method of acquiring a front captured image in front of the moving body and a rear captured image in the rear of the moving body in the imaging step. In this case, in the pair image extraction step, a reference plane image is extracted one by one from the front captured image and the rear captured image.
本願発明の標定プログラムは、移動中に撮像した画像に基づいて標定要素を求める処理をコンピュータに実行させる標定プログラムであり、画像変換処理と、ペア画像抽出処理、画像照合処理、標定処理をコンピュータに実行させるプログラムである。このうち画像変換処理は、移動しながら撮像した2以上の撮像画像と、撮像時における撮像位置及び撮像方向と、に基づいて、それぞれの撮像画像を、所定の基準面の画像となるよう変換して、基準面画像を得る処理である。ペア画像抽出処理は、同一箇所を含む2つの基準面画像を抽出し、これらを1組のペア画像として記憶する処理である。画像照合処理は、ペア画像を用いて部分画像の照合を行う処理である。標定処理は、画像照合処理による照合結果に基づいて、それぞれ撮像時における標定要素を求める演算処理である。 The orientation program of the present invention is an orientation program that causes a computer to execute a process for obtaining orientation elements based on an image captured during movement, and performs image conversion processing, pair image extraction processing, image collation processing, and orientation processing on the computer. It is a program to be executed. Among these, the image conversion process converts each captured image to be an image of a predetermined reference plane based on two or more captured images captured while moving and the imaging position and imaging direction at the time of imaging. This is a process for obtaining a reference plane image. The pair image extraction process is a process of extracting two reference plane images including the same portion and storing them as a pair of pair images. The image matching process is a process for matching partial images using pair images. The orientation process is an arithmetic process for obtaining orientation elements at the time of imaging based on the matching result obtained by the image matching process.
本願発明の標定プログラムは、画像位置特定処理をコンピュータに実行させるプログラムとすることもできる。この場合、画像位置特定処理は、撮像時における撮像位置及び撮像方向に基づいてそれぞれの基準面画像に対して画像位置を特定する処理であり、ペア画像抽出処理は、画像位置に基づいて2つの基準面画像を抽出する処理である。 The orientation program of the present invention may be a program that causes a computer to execute image position specifying processing. In this case, the image position specifying process is a process of specifying the image position with respect to each reference plane image based on the image pickup position and the image pickup direction at the time of image pickup, and the pair image extraction process is based on two image positions. This is processing for extracting a reference plane image.
本願発明の標定プログラムは、ペア画像抽出処理を、移動前方を撮像した前方撮像画像と、移動後方を撮像した後方撮像画像とから、それぞれ1つずつ基準面画像を抽出する処理とすることもできる。 In the orientation program of the present invention, the pair image extraction process may be a process of extracting a reference plane image one by one from a front captured image obtained by imaging the moving front and a rear captured image obtained by imaging the rear of the movement. .
本願発明の標定装置は、移動中に撮像した画像に基づいて標定要素を求める標定装置であり、移動体と、撮像手段、位置計測手段、画像変換手段、ペア画像抽出手段、画像照合手段、標定手段を備えた装置である。このうち撮像手段は、移動体に搭載され、移動体の前方を撮像して撮像画像を取得するとともに、移動体の後方を撮像して後方撮像画像を取得するものである。位置計測手段は、移動体に搭載され、撮像時における撮像手段の位置を取得するものである。画像変換手段は、撮像時における撮像位置及び撮像方向に基づいて、それぞれ前方撮像画像及び後方撮像画を、所定の基準面の画像となるよう変換して、基準面画像を得るものである。ペア画像抽出手段は、同一箇所を含む前方撮像画像と後方撮像画像を1つずつ抽出し、これらを1組のペア画像とするものである。画像照合手段は、ペア画像を用いて部分画像の照合を行うものである。標定手段は、画像照合手段による照合結果に基づいて、それぞれ撮像時における標定要素を求めるものである。 The orientation device of the present invention is an orientation device that obtains orientation elements based on an image captured during movement, and includes a moving body, an imaging means, a position measuring means, an image converting means, a pair image extracting means, an image collating means, an orientation. A device provided with means. Among these, the imaging means is mounted on the moving body, captures the front of the moving body to acquire a captured image, and captures the rear of the moving body to acquire the rear captured image. The position measuring unit is mounted on the moving body and acquires the position of the imaging unit at the time of imaging. The image conversion means converts the front captured image and the rear captured image into images of a predetermined reference plane based on the imaging position and imaging direction at the time of imaging, and obtains a reference plane image. The pair image extraction unit extracts one front captured image and one rear captured image including the same location one by one, and sets these as a pair of pair images. The image collating means collates partial images using pair images. The orientation means obtains orientation elements at the time of imaging based on the result of matching by the image matching means.
本願発明の標定方法、標定プログラム、及び標定装置には、次のような効果がある。
(1)高価な測量用測量用測位計(GPS等)や慣性計測装置(IMU等)、あるいは移動体(車両等)の改造を要する距離計(DMI等)を必要としないので、比較的安価に沿道状況の空間情報を取得することができる。
(2)照合(マッチング)に用いるペア画像は偏位修正を行っているので、画像上のテクスチャの歪みが抑制される結果、高精度の画像照合が可能となり、ひいては高精度の空間情報を取得することができる。
(3)移動前方の「前方撮像画像」と、移動後方の「後方撮像画像」で画像照合を行えば、さらに高精度の画像照合が可能となり、ひいては高精度の空間情報を取得することができる。
The orientation method, orientation program, and orientation apparatus of the present invention have the following effects.
(1) It is relatively inexpensive because it does not require an expensive surveying positioning meter (such as GPS), inertial measurement device (such as IMU), or a distance meter (such as DMI) that requires modification of a moving object (such as a vehicle). It is possible to obtain spatial information on roadside conditions.
(2) Since the pair images used for matching (correction) are corrected for displacement, the texture distortion on the images is suppressed, so that high-precision image matching is possible, and thus high-precision spatial information is acquired. can do.
(3) If image collation is performed using the “front-captured image” in front of the movement and the “rear-captured image” in the rear of the movement, it is possible to perform image collation with higher accuracy and thus obtain high-accuracy spatial information. .
本願発明の標定方法、標定プログラム、及び標定装置の実施形態の一例を、図に基づいて説明する。 An example of embodiments of the orientation method, orientation program, and orientation device of the present invention will be described with reference to the drawings.
1.全体概要
写真測量を行う場合、画像を取得するカメラやビデオといった撮像手段や撮像条件に関する標定要素を定める必要がある。この標定要素には、既述のとおり、撮像手段が備える内部標定要素(主点位置のずれ、放射性ひずみなど)と、撮像時の条件である外部標定要素(撮像位置や撮像方向)がある。本願発明は、取得した画像から標定要素を求めるものであり、3次元の空間情報をもとにした演算処理を行う。そこで、まずは3次元の空間情報について説明する。
1. General overview When performing photogrammetry, it is necessary to determine orientation elements relating to imaging means and imaging conditions such as a camera and video for acquiring images. As described above, this orientation element includes an internal orientation element (shift of principal point position, radioactive distortion, etc.) provided in the imaging means and an external orientation element (imaging position and imaging direction) that is a condition at the time of imaging. The invention of the present application obtains an orientation element from an acquired image, and performs arithmetic processing based on three-dimensional spatial information. Therefore, first, three-dimensional spatial information will be described.
3次元の空間情報は、平面座標値と高さの情報を持つ点や線、面、あるいはこれらの組み合わせで構成される情報である。さらに平面座標値とは、緯度と経度あるいはX座標とY座標で表されるものであり、高さとは標高など所定の基準水平面からの鉛直方向の距離を意味する。また3次元座標とは、平面座標と高さの組み合わせで表す座標を指す。 The three-dimensional spatial information is information composed of points, lines, surfaces, or combinations thereof having plane coordinate values and height information. Further, the plane coordinate value is represented by latitude and longitude or X and Y coordinates, and the height means a vertical distance from a predetermined reference horizontal plane such as an altitude. Further, the three-dimensional coordinates indicate coordinates expressed by a combination of plane coordinates and height.
次に、本願発明の一連の流れについて簡単に説明する。図1は、本願発明を説明するフロー図である。この図では、中央の列に実施する行為(工程、処理、手段)を示し、左列にはその行為に必要な入力情報を、右列にはその行為から生まれる出力情報を示している。なお図1は、本願発明の標定方法を例示するもので各行為を工程として示しているが、本願発明の標定プログラムの場合は各行為を処理として、本願発明の標定装置の場合は各行為を手段としてこの図を読み替えることができる。 Next, a series of flows of the present invention will be briefly described. FIG. 1 is a flowchart for explaining the present invention. In this figure, actions (processes, processes, means) to be performed are shown in the center column, input information necessary for the action is shown in the left column, and output information generated from the action is shown in the right column. In addition, although FIG. 1 illustrates the orientation method of the present invention and shows each act as a process, in the case of the orientation program of the present invention, each act is processed, and in the case of the orientation device of the present invention, each act is indicated. This figure can be read as a means.
図1にしたがって説明する。撮像工程(Step10)では、複数の画像を取得し、仮の標定要素を設定する(Step11)。このとき、内部標定要素は、使用した撮像手段の諸元等から求め、外部標定要素は、簡易の測位計(GPS等)と慣性計測装置(IMUや電子コンパス、鉛直センサ等)によって取得する。 This will be described with reference to FIG. In the imaging step (Step 10), a plurality of images are acquired, and temporary orientation elements are set (Step 11). At this time, the internal orientation element is obtained from the specifications of the imaging means used, and the external orientation element is obtained by a simple positioning meter (GPS or the like) and an inertial measurement device (IMU, electronic compass, vertical sensor or the like).
複数の撮像画像と、仮の標定要素が得られると、これらを入力情報として撮像画像の変換を行う(Step20)。ここでいう変換とは、撮像画像を水平面など所定の基準面の画像とすることであり、これにより得られる変換後の画像を便宜上「基準面画像」ということとする。取得した複数の撮像画像は、当然ながら様々な角度から撮像されているため、同じ対象物でもそれぞれ変形した画像として取得されている。その結果、後の工程で行う画像照合でうまく照合(マッチング)しない現象が起きる。この照合不一致を防ぐため、複数の撮像画像を所定基準面(例えば水平面)に、つまり共通する平面の画像に変換するわけである。 When a plurality of captured images and temporary orientation elements are obtained, the captured images are converted using these as input information (Step 20). Here, the conversion means that the captured image is an image of a predetermined reference plane such as a horizontal plane, and the converted image obtained thereby is referred to as a “reference plane image” for convenience. Since the acquired plurality of captured images are naturally captured from various angles, even the same object is acquired as a deformed image. As a result, a phenomenon in which matching (matching) is not performed well in image matching performed in a later process occurs. In order to prevent this mismatch, a plurality of captured images are converted to a predetermined reference plane (for example, a horizontal plane), that is, to a common plane image.
対象とする全ての撮像画像に対して基準面画像が得られると、基準面画像ごとに画像位置を特定する(Step30)。この結果、各基準面画像には、それぞれ画像位置が情報として紐づけられる。なお画像位置とは、その基準面画像が実際にどの場所を撮像したものかを示すもので、例えば基準面画像の輪郭を構成する各点の平面座標で表される。 When the reference plane images are obtained for all the captured images to be processed, the image position is specified for each reference plane image (Step 30). As a result, each reference plane image is associated with an image position as information. The image position indicates where the reference plane image is actually captured, and is represented by, for example, the plane coordinates of each point constituting the outline of the reference plane image.
次に、ペア画像を抽出し(Step40)、画像の照合を行う(Step50)。ペア画像とは、一部が重なりあう2枚の基準面画像からなるもので、つまり2枚の基準面画像で一組のペア画像を構成する。ペア画像を抽出する場合、人によって判断することもできるが、先に求めた画像位置を利用して好適なペア画像を抽出するとよい。ペア画像を構成するそれぞれの基準面画像には、重なり合う部分があって同一の対象物が撮像されているので、その対象物を頼りに部分的な画像の照合を行う。この場合の対象物としては、他と識別しやすい特徴的な物(以下、「特徴物」という。)を選択するとよい。 Next, a pair image is extracted (Step 40), and the images are collated (Step 50). The pair image is composed of two reference plane images that partially overlap each other, that is, a pair of pair images is formed by the two reference plane images. When a pair image is extracted, it can be determined by a person, but a suitable pair image may be extracted using the previously obtained image position. Since each reference plane image constituting the pair image has an overlapping portion and the same object is imaged, partial images are collated using the object. As an object in this case, it is preferable to select a characteristic object (hereinafter referred to as “characteristic object”) that can be easily distinguished from others.
複数の特徴物について画像照合ができると、バンドル調整等により標定要素を求める、いわゆる「標定」を行う(Step60)。この場合、内部標定要素と外部標定要素の両方を算出することもできるが、撮像手段の諸元等から求めた内部標定要素が信頼できるときは、この内部標定要素を用いて外部標定要素のみを算出することもできる。ここで算出されたものが、種々の調整を経て得られた高い精度の標定要素である。高精度な標定要素が得られれば、取得した撮像画像に示される様々な地物の3次元座標を求めることができる(Step70)。 When image collation can be performed for a plurality of features, so-called “orientation” is performed in which orientation elements are obtained by bundle adjustment or the like (Step 60). In this case, both the internal orientation element and the external orientation element can be calculated, but when the internal orientation element obtained from the specifications of the imaging means is reliable, only the external orientation element is used using this internal orientation element. It can also be calculated. What is calculated here is a highly accurate orientation element obtained through various adjustments. If a highly accurate orientation element is obtained, three-dimensional coordinates of various features shown in the acquired captured image can be obtained (Step 70).
以下、本願発明の標定方法、標定プログラム、及び標定装置を、構成する要素ごとに詳述する。 Hereinafter, the orientation method, orientation program, and orientation device of the present invention will be described in detail for each constituent element.
2.撮像
本願発明の標定方法を構成する撮像工程について説明する。図2は撮像工程を示す説明図である。この図に示すように、車や列車、自転車、航空機といった移動体10で移動しながら、移動体10に搭載した撮像手段20で、複数の画像を撮像していく。撮像画像は、移動体10が所定距離だけ、もしくは所定時間だけ進むたびに取得され、撮像間隔としては、移動体が10cm進行するたびに撮像したり、移動体が3m進行するたびに撮像したり、1秒経過するたびに撮像したり、状況に応じて適宜設計することができる。ただし、少なくとも進行方向に隣接する撮像画像どうしは、その一部が重なり合うような撮像間隔にする必要がある。なお既述のとおり、撮像間隔が小さすぎると誤差の累積が大きくなるため、2〜5mを撮像間隔とすることが望ましい。
2. Imaging The imaging process which comprises the orientation method of this invention is demonstrated. FIG. 2 is an explanatory diagram showing an imaging process. As shown in this figure, a plurality of images are picked up by the image pickup means 20 mounted on the moving
図3は、前後2方向の撮像画像を取得する場合の撮像工程を示す説明図である。この図に示すように、移動体10に搭載した2台の撮像手段20で、移動方向における前方の撮像画像(以下、「前方撮像画像」)と、移動方向における後方の撮像画像(以下、「後方撮像画像」)の2枚の撮像画像を取得することもできる。この場合、前方撮像画像と後方撮像画像が一部重なるような撮像間隔とすれば、必ずしも隣接する前方撮像画像どうしが重なり合うような間隔とする必要がない。なお図2では、前方撮像画像と後方撮像画像を取得するため2台の撮像手段20(つまり、前方撮像手段21と後方撮像手段22)を設置しているが、前方も後方も撮像し得る全方位カメラなどを利用すれば、1台の撮像手段20の設置とすることもできる。
FIG. 3 is an explanatory diagram illustrating an imaging process when acquiring captured images in two front and rear directions. As shown in this figure, with the two imaging means 20 mounted on the moving
撮像画像を取得する際には、撮影時(撮影したタイミング)における撮像位置、及び撮像方向を計測する。撮像位置とは、撮像手段20の主点位置の3次元座標(例えばX,Y,Z)であり、撮像方向とは、撮像手段20が撮像した方向で、例えば3軸からの回転角(ω,φ,κなど)で表される。撮像位置は測位計(GPS等)で計測することができ、撮像方向は慣性計測装置(IMU等)によって計測することができる。ただし、ここで計測し手得られた撮像位置と撮像方向は、あくまで仮の外部標定要素として設定するものであり、それほど高い精度を必要とせず概略の値でよい。したがってここで用いる測位計は、簡易な(測量用ではない)GPSとすることができる。また慣性計測装置も高価なIMUとする必要はなく、電子コンパスや鉛直センサを慣性計測装置として用いることもできるし、あるいはGPSを利用した慣性計測装置とすることもできる。GPSを利用した慣性計測装置とは、移動体10の移動前後の3次元座標に基づいて撮像手段20の姿勢を求める仕組みであり、例えば、移動体10の3箇所に搭載したGPSによって撮像手段20の姿勢を求めるなど、種々の手法で撮像手段20の姿勢を求めて撮像方向を推定することができる。
When acquiring a captured image, an imaging position and an imaging direction at the time of shooting (shooting timing) are measured. The imaging position is a three-dimensional coordinate (for example, X, Y, Z) of the principal point position of the
ここで説明した移動体10、撮像手段20、測位計(位置計測手段)、及び慣性計測装置は、本願発明の標定装置を構成する。
The moving
3.画像変換
本願発明の標定方法を構成する画像変換工程、本願発明の標定プログラムを構成する画像変換処理、本願発明の標定方法を構成する画像変換手段、について説明する。既述のとおり、撮像画像は様々な撮像方向で取得されるため、たとえ2枚の撮像画像に同じ特徴物があったとしても、それぞれの特徴物は独特な変形を生じているのでうまく画像照合しないこともある。そこで、照合する撮像画像どうしを共通の平面に変換したうえで画像照合を行えば、比較的精度よく照合する結果が得られる。
3. Image Conversion An image conversion process constituting the orientation method of the present invention, an image conversion process constituting the orientation program of the present invention, and an image conversion means constituting the orientation method of the present invention will be described. As described above, since the captured images are acquired in various imaging directions, even if two captured images have the same feature, each feature has a unique deformation, so image matching is successful. Sometimes it doesn't. Therefore, if the captured images to be collated are converted into a common plane and image collation is performed, a result of collation can be obtained with relatively high accuracy.
図4は、撮像画像を基準面画像に変換するしくみを説明するモデル図である。この図に示すように、撮像手段20で撮像して得られる撮像画像は、実際には撮像面Pに投影されている。このときの撮像画像は、図に示す「撮像範囲」を現実空間として撮像している。この現実の撮像範囲を推定し、その範囲を鉛直上方から仮想の撮像手段20vで撮像したと仮定した結果、得られる画像が基準面画像である。換言すれば基準面画像は、撮像面Pに投影された撮像画像を、基準面S(この場合は水平面)に投影した画像に変換したものである。なお、ここでは仮想の撮像手段20vを鉛直上方から撮像すると仮定して、基準面Sを水平面としたが、これに限らず任意の傾きを持った平面を基準面Sとして選定することができる。 FIG. 4 is a model diagram illustrating a mechanism for converting a captured image into a reference plane image. As shown in this figure, the captured image obtained by imaging by the imaging means 20 is actually projected on the imaging plane P. The captured image at this time is captured using the “imaging range” shown in the figure as a real space. As a result of estimating the actual imaging range and assuming that the range is captured by the virtual imaging means 20v from vertically above, the obtained image is the reference plane image. In other words, the reference plane image is obtained by converting the captured image projected on the imaging plane P into an image projected on the reference plane S (in this case, the horizontal plane). Here, it is assumed that the virtual imaging means 20v is imaged from above, and the reference plane S is a horizontal plane. However, the present invention is not limited to this, and a plane having an arbitrary inclination can be selected as the reference plane S.
基準面画像は、撮像画像を偏位修正することで作成され、いわゆるオルソ画像(正射投影画像)を作成する要領で行われる。具体的には、以下の式を用いて偏位修正を行う。
上記変換を行うためには標定要素が必要となるが、内部標定要素は撮像手段20の諸元等から求めた値を利用し、外部標定要素は先に取得した仮の撮像位置と撮像方向を使用する。また、撮像対象(図2や図3の場合は道路面)の高さも既知でなければならないため、移動体10の高さなどを参考に仮の高さを設定する。仮定した撮像対象の高さと、撮像手段20の高さによる比高差を、図4に符号hで示す。標定要素が与えられ、さらに図4の比高差hが与えられれば(つまり、上記式でZ=hとすれば)、上記式(1)と式(2)の定数a11〜a33を求めることができ、その結果、基準面Sに投影した基準面画像を得ることができる。
In order to perform the above conversion, orientation elements are required. Internal orientation elements use values obtained from the specifications of the imaging means 20 and external orientation elements use the provisional imaging position and imaging direction acquired earlier. use. In addition, since the height of the object to be imaged (the road surface in the case of FIGS. 2 and 3) must also be known, a temporary height is set with reference to the height of the moving
図5は、白線を含む道路面を撮像した際の、撮像画像のイメージと基準面画像のイメージを示す説明図である。この図に示すように、撮像画像では白線の形状が変形しており、撮像手段20の主点から遠い位置にあるほど大きな歪が生じている。一方、基準面画像は真上から撮像されたようにほとんど変形することなく白線が表示されている。この図からも、撮像画像のままでは他の画像と画像照合しにくいが、基準面画像にすれば画像照合しやすくなることが分かる。 FIG. 5 is an explanatory diagram illustrating an image of a captured image and an image of a reference plane image when a road surface including a white line is captured. As shown in this figure, the shape of the white line is deformed in the captured image, and the greater the distance from the main point of the imaging means 20, the greater the distortion. On the other hand, white lines are displayed in the reference plane image with almost no deformation as taken from right above. From this figure, it can be seen that it is difficult to collate with other images if the captured image is used as it is, but if the reference plane image is used, it is easier to perform image collation.
標定方法を構成する画像変換工程は、ここで説明した画像変換を行う工程であり、人によって実行することもできるし、オペレータが本願発明の標定プログラムや標定装置を操作して処理することもできる。また、標定プログラムを構成する画像変換処理は、ここで説明した画像変換をコンピュータに実行させる処理である。さらに、標定装置を構成する画像変換手段は、ここで説明した画像変換をコンピュータ等によって実行する手段である。 The image conversion step constituting the orientation method is a step of performing the image conversion described here, and can be executed by a person, or can be processed by an operator operating the orientation program and orientation device of the present invention. . Further, the image conversion process constituting the orientation program is a process for causing the computer to execute the image conversion described here. Further, the image conversion means constituting the orientation device is a means for executing the image conversion described here by a computer or the like.
4.ペア画像抽出
本願発明の標定方法を構成するペア画像抽出工程、本願発明の標定プログラムを構成するペア画像抽出処理、本願発明の標定方法を構成するペア画像抽出手段、について説明する。画像照合を行うため、ステレオペアと呼ばれる2枚一組の基準面画像(ペア画像)を抽出する。
4). Pair Image Extraction A pair image extraction process constituting the orientation method of the present invention, a pair image extraction process constituting the orientation program of the present invention, and a pair image extraction means constituting the orientation method of the present invention will be described. In order to perform image collation, a pair of reference plane images (pair images) called stereo pairs are extracted.
ペア画像は、それぞれ基準面画像の一部が重なりあい、つまりそれぞれの基準面画像は同一箇所を含む画像である。ところが、通常は一度の計測で多数の撮像画像、すなわち基準面撮像が得られるため、その中から適切なペア画像を抽出するのは容易ではない。撮像した順に基準面画像に連続番号を付与し、連続する基準面画像をペア画像とすることも考えられるが、重なりあう範囲(以下、「ラップ長」という。)が大きすぎて非効率となるなど、必ずしも隣接する基準面画像がペア画像に適しているとはいえない。そこで、それぞれの基準面画像に対して画像位置を付与し、この画像位置に基づいて好適なペア画像を抽出する。基準面画像は、先に説明した偏位修正を経て得られることから、基準面画像の輪郭を構成する各点等の平面座標は既に算出されており、これらを画像位置として基準面画像ごとに付与する。画像位置に基づいて好適なペア画像を抽出する手法としては、例えば、ラップ長が基準値(例えば、画像面積の60%等)に近くなる組み合わせをペア画像として抽出するなど座標計算による抽出手法が挙げられる。座標計算によってペア画像を抽出する手法とすれば、コンピュータ等を利用した自動抽出も可能となる。なお、ここで説明した基準面画像に対する画像位置の付与は、標定方法を構成する画像位置特定工程で行われ、標定プログラムを構成する画像位置特定処理に基づきコンピュータによって実行され、が、標定装置を構成する画像位置特定手段によって実行される。 In the pair images, a part of the reference plane images overlap each other, that is, each reference plane image is an image including the same portion. However, since a large number of captured images, that is, reference plane imaging is usually obtained by one measurement, it is not easy to extract an appropriate pair image from them. Although it is conceivable that serial numbers are assigned to the reference plane images in the order in which they are captured and the continuous reference plane images are used as pair images, the overlapping range (hereinafter referred to as “wrap length”) is too large, which is inefficient. For example, adjacent reference plane images are not necessarily suitable for pair images. Therefore, an image position is assigned to each reference plane image, and a suitable pair image is extracted based on the image position. Since the reference plane image is obtained through the above-described deviation correction, the plane coordinates such as points constituting the outline of the reference plane image have already been calculated, and these are used as image positions for each reference plane image. Give. As a method for extracting a suitable pair image based on the image position, for example, there is an extraction method based on coordinate calculation such as extracting a combination whose wrap length is close to a reference value (for example, 60% of the image area) as a pair image. Can be mentioned. If a method of extracting pair images by coordinate calculation is used, automatic extraction using a computer or the like is also possible. It should be noted that the provision of the image position to the reference plane image described here is performed in the image position specifying step that constitutes the orientation method, and is executed by the computer based on the image location specifying process that constitutes the orientation program. It is executed by the image position specifying means that constitutes.
ペア画像は、既述した前方撮像画像に基づく基準面画像(以下、「前方基準面画像」という。)から2枚を抽出することもできるが、後方撮像画像に基づく基準面画像(以下、「後方基準面画像」という。)を含めるとより好適となる。すなわち、前方基準面画像から1枚を抽出し、後方基準面画像から1枚を抽出してこれら2枚の基準面画像をペア画像とするわけである。 Two pairs of images can be extracted from the reference plane image (hereinafter referred to as “front reference plane image”) based on the above-described front captured image. It is more preferable to include “back reference plane image”). That is, one sheet is extracted from the front reference plane image, one sheet is extracted from the rear reference plane image, and these two reference plane images are used as a pair image.
図6は、前方基準面画像と後方基準面画像を照合したときの解像度を示す説明図である。この図に示すように、撮像手段20の主点から遠い位置にあるほど同じ地物(この図では例えば白線)でも小さく表示され、あわせて解像度も低くなる。前方基準面画像の場合は画像のうち前方にいくほど解像度が低くなり、逆に後方基準面画像の場合は画像のうち後方にいくほど解像度が低くなる。前方基準面画像のみからペア画像を抽出すると、一方の画像の前方範囲と、他方の画像の後方範囲が重なり合うこととなり、すなわち一方の画像は解像度の低い部分で画像照合を行うこととなる。その結果、画像照合の精度が低くなることも考えられる。図6に示すように、前方基準面画像と後方基準面画像からペア画像を抽出すると、前方基準面画像の後方範囲と、後方基準面画像の前方範囲が重なり合うこととなり、すなわち両方の画像ともに解像度の高い部分で画像照合を行うこととなる。その結果、画像照合の精度は向上する。 FIG. 6 is an explanatory diagram showing the resolution when the front reference plane image and the rear reference plane image are collated. As shown in this figure, the farther away from the main point of the image pickup means 20, the smaller the same feature (for example, white line in this figure) is displayed, and the lower the resolution is. In the case of a front reference plane image, the resolution decreases as it goes forward in the image. Conversely, in the case of a rear reference plane image, the resolution decreases as it moves backward in the image. When a pair image is extracted from only the front reference plane image, the front range of one image overlaps the rear range of the other image, that is, one image is subjected to image collation at a low resolution portion. As a result, it is conceivable that the accuracy of image matching is lowered. As shown in FIG. 6, when a pair image is extracted from the front reference plane image and the rear reference plane image, the rear range of the front reference plane image and the front range of the rear reference plane image overlap, that is, both images have a resolution. The image collation is performed at a high part. As a result, the accuracy of image matching is improved.
標定方法を構成するペア画像抽出工程は、ここで説明したペア画像の抽出を行う工程であり、人の判断によって抽出することもできるし、オペレータが本願発明の標定プログラムや標定装置を操作して処理することもできる。また、標定プログラムを構成するペア画像抽出処理は、ここで説明した画像変換をコンピュータに実行させる処理である。さらに、標定装置を構成する画像変換手段は、ここで説明した画像変換をコンピュータ等によって実行する手段である。 The pair image extraction step constituting the orientation method is a step of extracting the pair image described here, and can be performed by human judgment, or the operator operates the orientation program or orientation device of the present invention. It can also be processed. Moreover, the pair image extraction process which comprises an orientation program is a process which makes a computer perform the image conversion demonstrated here. Further, the image conversion means constituting the orientation device is a means for executing the image conversion described here by a computer or the like.
5.画像照合
本願発明の標定方法を構成する画像照合工程、本願発明の標定プログラムを構成する画像照合処理、本願発明の標定方法を構成する画像照合手段、について説明する。抽出されたペア画像(ステレオペア)を構成する2枚の基準面画像は、互いに、重なり合う部分があり、その中には同一の対象物が撮像されている。その対象物を手掛かりとして、部分的な画像の照合を行う。一つのペア画像に対して、照合する部分は複数個所検出する。既述のとおり、他と識別しやすい特徴物を多数抽出し、これら特徴物を頼りに照合するとよい。なお、ここで行う画像照合は、従来から行われている技術を利用することができ、コンピュータを用いた画像認識技術を応用して特徴物を自動検出し、これによって画像照合を行うこともできる。
5. Image Matching An image matching process constituting the orientation method of the present invention, an image matching process constituting the orientation program of the present invention, and an image matching means constituting the orientation method of the present invention will be described. The two reference plane images constituting the extracted pair image (stereo pair) have portions that overlap each other, and the same object is imaged therein. Using the object as a clue, partial image matching is performed. A plurality of portions to be collated are detected for one pair image. As described above, it is preferable to extract a large number of features that can be easily distinguished from others and to collate with these features. In addition, the image collation performed here can utilize the technique currently performed conventionally, and can apply the image recognition technique using a computer, and can detect an object automatically, and can also perform image collation by this .
標定方法を構成する画像照合工程は、ここで説明した画像照合を行う工程であり、人の判断によって抽出することもできるし、オペレータが本願発明の標定プログラムや標定装置を操作して処理することもできる。また、標定プログラムを構成するペア画像抽出処理は、ここで説明した画像照合をコンピュータに実行させる処理である。さらに、標定装置を構成する画像変換手段は、ここで説明した画像照合をコンピュータ等によって実行する手段である。 The image collation process constituting the orientation method is the image collation process described here, and can be extracted by human judgment, or can be processed by the operator operating the orientation program or orientation device of the present invention. You can also. Moreover, the pair image extraction process which comprises an orientation program is a process which makes a computer perform the image collation demonstrated here. Further, the image conversion means constituting the orientation device is means for executing the image collation described here by a computer or the like.
6.標定
本願発明の標定方法を構成する標定工程、本願発明の標定プログラムを構成する標定処理、本願発明の標定方法を構成する標定手段、について説明する。標定は、前述の画像照合の結果に基づいて行うもので、従来から用いられているバンドル法によるブロック調整をはじめ、相互標定や、単コース調整、多項式法によるブロック調整、独立モデル法によるブロック調整、DLT法などによって行われる。そして、この標定によって得られた結果が最終的な標定要素である。なお既述のとおり、内部標定要素と外部標定要素の両方を算出することもできるが、撮像手段の諸元等から求めた内部標定要素が信頼できるときは、この内部標定要素を用いて外部標定要素のみを算出することもできる。
6). Orientation The orientation process that constitutes the orientation method of the present invention, the orientation process that constitutes the orientation program of the present invention, and the orientation means that constitutes the orientation method of the present invention will be described. Orientation is based on the results of image matching described above, including block adjustment using the bundle method that has been used in the past, mutual orientation, single course adjustment, block adjustment using the polynomial method, and block adjustment using the independent model method. , DLT method or the like. The result obtained by this orientation is the final orientation element. As described above, both the internal orientation element and the external orientation element can be calculated, but when the internal orientation element obtained from the specifications of the imaging means is reliable, the external orientation can be calculated using this internal orientation element. Only elements can be calculated.
標定方法を構成する標定工程は、ここで説明した標定を行う工程であり、人の判断によって抽出することもできるし、オペレータが本願発明の標定プログラムや標定装置を操作して処理することもできる。また、標定プログラムを構成する標定処理は、ここで説明した標定をコンピュータに実行させる処理である。さらに、標定装置を構成する画像変換手段は、ここで説明した標定をコンピュータ等によって実行する手段である。 The orientation process that constitutes the orientation method is the step of performing orientation as described here, and can be extracted by human judgment, or can be processed by the operator operating the orientation program or orientation device of the present invention. . Further, the orientation processing that constitutes the orientation program is processing for causing the computer to execute the orientation described here. Further, the image conversion means constituting the orientation device is a means for executing the orientation described here by a computer or the like.
本願発明の標定方法、標定プログラム、及び標定装置は、沿道の空間情報を安価でしかも精度よく取得することができるので、地図の作成や更新を行う際に有効な発明である。また、沿道に設置される屋外広告や道路占用物を容易かつ正確に把握できるので、沿道施設の管理者にとっても極めて有用な発明である。さらに、道路に限らず、線路(軌道)沿いの状況にも容易に応用できるなど、各種の移動体で活用可能な発明である。 The orientation method, orientation program, and orientation device of the present invention are effective inventions for creating and updating maps because roadside spatial information can be obtained at low cost and with high accuracy. Moreover, since outdoor advertisements and road occupants installed along the road can be easily and accurately grasped, it is an extremely useful invention for roadside facility managers. Furthermore, it is an invention that can be used in various mobile objects such as not only roads but also easily applied to situations along tracks (tracks).
10 移動体
20 撮像手段
21 前方撮像手段
22 後方撮像手段
20v 仮想の撮像手段
h 比高差
P 撮像面
S 基準面
DESCRIPTION OF
Claims (7)
移動しながら撮像して2以上の撮像画像を取得するとともに、撮像時における撮像位置及び撮像方向を取得する撮像工程と、
前記撮像位置及び前記撮像方向に基づいて、それぞれの前記撮像画像を、所定の基準面の画像となるよう変換して、基準面画像を得る画像変換工程と、
同一箇所を含む2つの前記基準面画像を抽出し、これらを1組のペア画像とするペア画像抽出工程と、
前記ペア画像を用いて部分画像の照合を行う画像照合工程と、
前記画像照合工程の照合結果に基づいて、前記撮像工程のそれぞれの撮像時における標定要素を求める標定工程と、を備えたことを特徴とする標定方法。 In an orientation method for obtaining orientation elements based on images taken during movement,
An imaging step of acquiring two or more captured images by imaging while moving, and acquiring an imaging position and an imaging direction at the time of imaging;
Based on the imaging position and the imaging direction, each of the captured images is converted to be an image of a predetermined reference plane, and an image conversion step for obtaining a reference plane image;
A pair image extraction step of extracting the two reference plane images including the same location and making these a pair of images;
An image matching step for matching a partial image using the pair image;
And an orientation step for obtaining orientation elements at the time of imaging in the imaging step based on the matching result of the image matching step.
前記ペア画像抽出工程では、前記画像位置に基づいて、2つの前記基準面画像を抽出する、ことを特徴とする請求項1記載の標定方法。 An image position specifying step of specifying an image position for each of the reference plane images based on the image pickup position and the image pickup direction at the time of image pickup;
The orientation method according to claim 1, wherein in the pair image extraction step, the two reference plane images are extracted based on the image position.
前記ペア画像抽出工程では、前記前方撮像画像と前記後方撮像画像から1つずつ前記基準面画像を抽出する、ことを特徴とする請求項1又は請求項2記載の標定方法。 In the imaging step, the imaging means mounted on the moving body obtains a front captured image in front of the movement and a rear captured image in the rear of the movement,
The orientation method according to claim 1 or 2, wherein in the pair image extraction step, the reference plane image is extracted one by one from the front captured image and the rear captured image.
移動しながら撮像した2以上の撮像画像と、撮像時における撮像位置及び撮像方向と、に基づいて、それぞれの撮像画像を、所定の基準面の画像となるよう変換して、基準面画像を得る画像変換処理と、
同一箇所を含む2つの前記基準面画像を抽出し、これらを1組のペア画像として記憶するペア画像抽出処理と、
前記ペア画像を用いて部分画像の照合を行う画像照合処理と、
前記画像照合処理による照合結果に基づいて、それぞれ撮像時における標定要素を求める標定処理と、を前記コンピュータに実行させる機能を備えたことを特徴とする標定プログラム。 In an orientation program that causes a computer to execute a process for obtaining orientation elements based on an image captured during movement,
Based on two or more picked-up images picked up while moving and the pick-up position and pick-up direction at the time of pick-up, each picked-up image is converted to become a predetermined reference face image to obtain a reference face image. Image conversion processing,
A pair image extraction process for extracting two reference plane images including the same portion and storing them as a pair of pair images;
Image collation processing for collating partial images using the pair images;
An orientation program comprising a function for causing the computer to execute orientation processing for obtaining orientation elements at the time of imaging based on a matching result obtained by the image matching processing.
前記ペア画像抽出処理では、前記画像位置に基づいて、2つの前記基準面画像を抽出する、ことを特徴とする請求項4記載の標定プログラム。 A function of causing the computer to execute an image position specifying process for specifying an image position for each of the reference plane images based on the imaging position and the imaging direction at the time of imaging;
The orientation program according to claim 4, wherein in the pair image extraction process, the two reference plane images are extracted based on the image position.
移動体と、
前記移動体に搭載され、前記移動体の前方を撮像して前方撮像画像を取得するとともに、前記移動体の後方を撮像して後方撮像画像を取得する撮像手段と、
前記移動体に搭載され、撮像時における前記撮像手段の位置を取得する位置計測手段と、
撮像時における撮像位置及び撮像方向に基づいて、それぞれ前記前方撮像画像及び前記後方撮像画を、所定の基準面の画像となるよう変換して、基準面画像を得る画像変換手段と、
同一箇所を含む前記前方撮像画像と前記後方撮像画像を1つずつ抽出し、これらを1組のペア画像とするペア画像抽出手段と、
前記ペア画像を用いて部分画像の照合を行う画像照合手段と、
前記画像照合手段による照合結果に基づいて、それぞれ撮像時における標定要素を求める標定手段と、を備えたことを特徴とする標定装置。 In an orientation device that obtains orientation elements based on images captured during movement,
A moving object,
An imaging unit mounted on the mobile body, capturing a front captured image by capturing the front of the mobile body, and capturing a rear captured image by capturing the rear of the mobile body;
A position measuring means mounted on the moving body for acquiring the position of the imaging means at the time of imaging;
Image conversion means for converting the front captured image and the rear captured image into images of a predetermined reference plane based on an imaging position and an imaging direction at the time of imaging to obtain a reference plane image;
A pair image extraction unit that extracts the front captured image and the rear captured image including the same part one by one, and sets these as a pair image;
Image collating means for collating partial images using the pair images;
An orientation device comprising orientation means for obtaining orientation elements at the time of imaging based on the result of matching by the image matching means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012238204A JP6135972B2 (en) | 2012-10-29 | 2012-10-29 | Orientation method, orientation program, and orientation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012238204A JP6135972B2 (en) | 2012-10-29 | 2012-10-29 | Orientation method, orientation program, and orientation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014089078A true JP2014089078A (en) | 2014-05-15 |
JP6135972B2 JP6135972B2 (en) | 2017-05-31 |
Family
ID=50791098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012238204A Active JP6135972B2 (en) | 2012-10-29 | 2012-10-29 | Orientation method, orientation program, and orientation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6135972B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017182564A (en) * | 2016-03-31 | 2017-10-05 | 株式会社デンソーアイティーラボラトリ | Positioning device, positioning method, and positioning computer program |
JP6278544B1 (en) * | 2017-03-22 | 2018-02-14 | 国立研究開発法人国立環境研究所 | Monitoring device |
JP2018087484A (en) * | 2015-07-21 | 2018-06-07 | 株式会社東芝 | Crack analysis apparatus, crack analysis method, and crack analysis program |
JP2019046209A (en) * | 2017-09-04 | 2019-03-22 | 国際航業株式会社 | Vehicle position acquisition system and vehicle position acquisition method |
US11099030B2 (en) | 2016-06-02 | 2021-08-24 | Mitsubishi Electric Corporation | Attitude estimation apparatus, attitude estimation method, and observation system |
US11195324B1 (en) | 2018-08-14 | 2021-12-07 | Certainteed Llc | Systems and methods for visualization of building structures |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS582609A (en) * | 1981-06-27 | 1983-01-08 | Fujitsu Ltd | Altitude data extracting method utilizing remote sensing data from sattelite |
JPH08159762A (en) * | 1994-12-01 | 1996-06-21 | Asahi Koyo Kk | Method and apparatus for extracting three-dimensional data and stereo image forming apparatus |
EP1168246A2 (en) * | 2000-06-26 | 2002-01-02 | Kabushiki Kaisha Topcon | Stereo image measuring device |
JP2007327938A (en) * | 2006-05-10 | 2007-12-20 | Topcon Corp | Image processing device and method therefor |
JP2009271895A (en) * | 2008-04-30 | 2009-11-19 | Kokusai Kogyo Co Ltd | Image set and method for independent rectification |
JP2010014450A (en) * | 2008-07-01 | 2010-01-21 | Topcon Corp | Position measurement method, position measurement device, and program |
-
2012
- 2012-10-29 JP JP2012238204A patent/JP6135972B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS582609A (en) * | 1981-06-27 | 1983-01-08 | Fujitsu Ltd | Altitude data extracting method utilizing remote sensing data from sattelite |
JPH08159762A (en) * | 1994-12-01 | 1996-06-21 | Asahi Koyo Kk | Method and apparatus for extracting three-dimensional data and stereo image forming apparatus |
EP1168246A2 (en) * | 2000-06-26 | 2002-01-02 | Kabushiki Kaisha Topcon | Stereo image measuring device |
JP2007327938A (en) * | 2006-05-10 | 2007-12-20 | Topcon Corp | Image processing device and method therefor |
JP2009271895A (en) * | 2008-04-30 | 2009-11-19 | Kokusai Kogyo Co Ltd | Image set and method for independent rectification |
JP2010014450A (en) * | 2008-07-01 | 2010-01-21 | Topcon Corp | Position measurement method, position measurement device, and program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018087484A (en) * | 2015-07-21 | 2018-06-07 | 株式会社東芝 | Crack analysis apparatus, crack analysis method, and crack analysis program |
JP2020056303A (en) * | 2015-07-21 | 2020-04-09 | 株式会社東芝 | Crack analyzer, crack analysis method, and crack analysis program |
US10648922B2 (en) | 2015-07-21 | 2020-05-12 | Kabushiki Kaisha Toshiba | Crack analysis device, crack analysis method, and crack analysis program |
JP2017182564A (en) * | 2016-03-31 | 2017-10-05 | 株式会社デンソーアイティーラボラトリ | Positioning device, positioning method, and positioning computer program |
US11099030B2 (en) | 2016-06-02 | 2021-08-24 | Mitsubishi Electric Corporation | Attitude estimation apparatus, attitude estimation method, and observation system |
JP6278544B1 (en) * | 2017-03-22 | 2018-02-14 | 国立研究開発法人国立環境研究所 | Monitoring device |
JP2018159578A (en) * | 2017-03-22 | 2018-10-11 | 国立研究開発法人国立環境研究所 | Monitoring device |
JP2019046209A (en) * | 2017-09-04 | 2019-03-22 | 国際航業株式会社 | Vehicle position acquisition system and vehicle position acquisition method |
US11195324B1 (en) | 2018-08-14 | 2021-12-07 | Certainteed Llc | Systems and methods for visualization of building structures |
US11704866B2 (en) | 2018-08-14 | 2023-07-18 | Certainteed Llc | Systems and methods for visualization of building structures |
Also Published As
Publication number | Publication date |
---|---|
JP6135972B2 (en) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110859044B (en) | Integrated sensor calibration in natural scenes | |
JP4232167B1 (en) | Object identification device, object identification method, and object identification program | |
KR100912715B1 (en) | Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors | |
CN109813335B (en) | Calibration method, device and system of data acquisition system and storage medium | |
JP5389964B2 (en) | Map information generator | |
JP6135972B2 (en) | Orientation method, orientation program, and orientation device | |
KR100800554B1 (en) | Texture mapping method of 3d feature model using the camera and laser scanner | |
KR100671529B1 (en) | Drawing method of three-dimensional cubic map using multi aerial photograph image | |
JP4619962B2 (en) | Road marking measurement system, white line model measurement system, and white line model measurement device | |
JP6950832B2 (en) | Position coordinate estimation device, position coordinate estimation method and program | |
JP5762131B2 (en) | CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM | |
JP4978615B2 (en) | Target identification device | |
WO2011120141A1 (en) | Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination | |
EP1672314A3 (en) | Method for preparing a stereo image and three-dimensional data preparation system | |
JP2002156229A (en) | Mobile displacement measuring method and device for structure | |
JP5716273B2 (en) | Search target position specifying device, search target position specifying method and program | |
KR20110119589A (en) | System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof | |
JP3808833B2 (en) | Aerial photogrammetry | |
CN102224523A (en) | Stereo matching process system, stereo matching process method, and recording medium | |
JP5256464B2 (en) | Image top feature measurement method, display method, and measurement apparatus | |
JP2018185239A (en) | Position attitude estimation device and program | |
JP5769149B2 (en) | Mobile mapping system, roadside object measurement method using the same, and position specifying program | |
CN102620745A (en) | Airborne inertial measurement unite (IMU) collimation axis error calibration method | |
CN105959529B (en) | It is a kind of single as method for self-locating and system based on panorama camera | |
Kim et al. | An advanced approach for navigation and image sensor integration for land vehicle navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6135972 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |