JP2014089078A - Orientation method, orientation program, and orientation device - Google Patents

Orientation method, orientation program, and orientation device Download PDF

Info

Publication number
JP2014089078A
JP2014089078A JP2012238204A JP2012238204A JP2014089078A JP 2014089078 A JP2014089078 A JP 2014089078A JP 2012238204 A JP2012238204 A JP 2012238204A JP 2012238204 A JP2012238204 A JP 2012238204A JP 2014089078 A JP2014089078 A JP 2014089078A
Authority
JP
Japan
Prior art keywords
image
imaging
orientation
images
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012238204A
Other languages
Japanese (ja)
Other versions
JP6135972B2 (en
Inventor
Genki Takahashi
元気 高橋
Shunji Murai
俊治 村井
Hiroshi Takeda
浩志 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Kogyo Co Ltd
Original Assignee
Kokusai Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Kogyo Co Ltd filed Critical Kokusai Kogyo Co Ltd
Priority to JP2012238204A priority Critical patent/JP6135972B2/en
Publication of JP2014089078A publication Critical patent/JP2014089078A/en
Application granted granted Critical
Publication of JP6135972B2 publication Critical patent/JP6135972B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an orientation method, an orientation program, and an orientation device capable of highly accurately obtaining an external orientation element for a group of images in order to realize a highly accurate photogrammetry while moving without using an expensive positioning instrument for survey and an inertia measuring device.SOLUTION: The orientation method is a method for obtaining an orientation element based on a captured image while moving, and includes; a process of imaging; a process of extracting an image; a process of extracting a pair of images; a process of collating images; and a process of orientation. In the process of imaging, two or more imaged images are obtained, and an imaging position and an imaging direction are obtained. In the process of an image conversion, a reference surface image converted into the image of a prescribed reference surface is obtained based on the imaging position and the imaging direction. In the process of extracting a pair of the images, a pair of the images is obtained by extracting two reference surface images including the same portion. In the process of collating the images, the collation of the images is performed using the pair of the images. In the process of orientation, the orientation element is obtained based on the collation result.

Description

本願発明は、移動体で移動しながら撮像した沿道状況の画像に基づいて、沿道対象物を計測する技術に関するものであり、より具体的には、概略の標定要素に基づいて取得画像の偏位修正を行い、この偏位修正画像を用いてペア画像の照合(マッチング)を行うとともに、その照合結果から正確な標定要素を求める技術に関する。   The present invention relates to a technique for measuring a roadside object based on an image of a roadside situation imaged while moving by a moving body, and more specifically, based on a rough orientation element, a deviation of an acquired image The present invention relates to a technique for performing correction and performing matching (matching) of a pair image using the displacement corrected image and obtaining an accurate orientation element from the matching result.

従来から、道路及び道路側方の地形など、いわゆる沿道の地形情報(空間情報)に対する需要は高く、その需要に応えるようにその計測技術も進歩してきた。   Conventionally, demand for so-called roadside terrain information (spatial information) such as roads and roadside terrain is high, and measurement techniques have also been advanced to meet the demand.

道路沿いには、家屋や集合住宅、商用ビル、擁壁といった構造物、あるいは標識や信号、屋外広告物など種々の施設が設置されている。このような構造物や施設は目視で確認しやすく、沿道の空間情報を整備することは、目的地までの目印を把握するためにも、目的地そのものを把握するためにも、極めて有用である。また、沿道に設置される構造物や施設(例えば屋外広告物)を管理する者にとっても、その管理業務が容易となるので有益である。   Along the road, various facilities such as houses, apartment houses, commercial buildings, retaining walls, signs, signals, outdoor advertisements, etc. are installed. Such structures and facilities are easy to check visually, and it is extremely useful to maintain roadside information to understand landmarks to the destination and the destination itself. . It is also beneficial for those who manage structures and facilities (for example, outdoor advertisements) installed on the roadside because the management work becomes easy.

一方で道路沿いの土地は、その利用価値が高いこともあって、比較的変化しやすい。特に市街地では、商用ビルなどの入れ替わりが激しく、屋外広告物も頻繁に変更されている。さらに、自然災害等によって予期せぬ地形変化が生ずることもある。そのため、沿道の空間情報は一度整備すれば足りるというものではなく、地形が変化するたびに、もしくは定期的に再整備していく必要がある。   On the other hand, land along the road is relatively easy to change due to its high utility value. Especially in urban areas, the replacement of commercial buildings is intense, and outdoor advertisements are also frequently changed. In addition, unexpected topographic changes may occur due to natural disasters. For this reason, it is not necessary to prepare the roadside spatial information once, but it is necessary to redevelop it whenever the topography changes or periodically.

従来、沿道状況の空間情報を取得するための技術としてはトータルステーションを利用した現地測量が主流であった。この手法によれば、作業上の手間と時間を著しく要する上に相当の費用もかかることから、沿道状況を頻繁に計測することは現実的には難しく、最新の沿道状況を反映した空間情報を維持し続けることは困難であった。   Traditionally, field surveys using total stations have been the mainstream technology for obtaining spatial information on roadside conditions. According to this method, it takes a lot of labor and time for work, and it costs a lot of money, so it is practically difficult to measure the roadside situation frequently, and spatial information reflecting the latest roadside situation is obtained. It was difficult to maintain.

昨今、トータルステーションを利用した現地測量よりも手軽に実施できる方法として注目されているのが、計測機器を搭載した車両で移動しながら空間情報を取得するという計測技術である。この計測技術は、モバイルマッピングシステム(Mobile Mapping System:MMS)と呼ばれるもので、測位計(例えば、GPS:Global Positioning System)、慣性計測装置(例えば、IMU:Inertial Measurement Unit)、距離計(DMI:Distance Measuring instrument)、レーザー距離計、撮像手段(例えばデジタルカメラ)などを適宜組み合わせて車両に搭載し、移動しながらこれらの計測機器によって沿道の空間情報を取得するものである。   In recent years, a technique that is attracting attention as a method that can be carried out more easily than on-site surveying using a total station is a measurement technology that acquires spatial information while moving on a vehicle equipped with a measuring device. This measurement technology is called a mobile mapping system (Mobile Mapping System: MMS), and includes a positioning device (for example, GPS: Global Positioning System), an inertial measurement device (for example, IMU: Internal Measurement Unit), and a distance meter (DMI: A distance measuring instrument), a laser distance meter, an imaging means (for example, a digital camera), and the like are appropriately combined and mounted on a vehicle, and roadside spatial information is acquired by these measuring devices while moving.

レーザー距離計を搭載したMMSは、沿道の計測対象に対して照射したレーザーパルスの反射信号を受けて計測するものであり、通常、GPSとIMUが車両に搭載されているのでレーザーパルスの照射位置(x,y,z)と照射姿勢(ω,φ,κ)が得られ、その結果、照射時刻と受信時刻の時間差から計測点の3次元座標を取得することができる。レーザー計測を行うMMSは、一度の走行で大量の計測点を取得できるため、微地形を把握することができる効果がある反面、IMUやレーザー距離計などは非常に高価であり、費用面で考えれば容易に実施できる手法ではないという問題を抱えていた。   An MMS equipped with a laser rangefinder is to receive and measure the reflected signal of a laser pulse irradiated to a roadside object. Usually, the GPS pulse and IMU are mounted on the vehicle, so the laser pulse irradiation position (X, y, z) and irradiation posture (ω, φ, κ) are obtained, and as a result, the three-dimensional coordinates of the measurement point can be acquired from the time difference between the irradiation time and the reception time. Since MMS that performs laser measurement can acquire a large number of measurement points in one run, it has the effect of grasping the fine topography, but IMU and laser rangefinders are very expensive and can be considered costly. In other words, there was a problem that it was not easy to implement.

そこで特許文献1では、レーザー距離計を設けることなく、観測車で移動しながらビデオカメラの撮影によって道路の3次元形状を計測する技術を提案している。   Therefore, Patent Document 1 proposes a technique for measuring a three-dimensional shape of a road by taking a video camera while moving with an observation vehicle without providing a laser distance meter.

特開2002−081941JP-A-2002-081941

特許文献1は、同一対象物を異なる方向からカメラで撮影した2枚の写真(いわゆるステレオぺア)を用いて対象物の位置座標を特定する技術であり、従来から行われてきたいわゆる写真測量である。   Patent Document 1 is a technique for specifying the position coordinates of an object using two photographs (so-called stereo pairs) obtained by photographing the same object from different directions, and so-called photogrammetry that has been performed conventionally. It is.

撮像手段を搭載したMMSで写真測量を行う場合、主点位置のずれや、放射性ひずみ、非対称性ひずみといった撮像手段の内部標定要素を求めるほか、撮像した時の撮像位置や撮像方向といった外部標定要素を求める必要がある。この外部標定要素を求めるための手段がGPSやIMU、DMIといった計測器であるが、測量用の高精度なGPSやIMUは著しく高価であり、DMIを取り付けるには車両を改造しなければならない。その結果、レーザー距離計を搭載したMMSに比べるとレーザー距離計を使用しない分だけ費用は軽減されるものの、それほど著しい費用の低減が期待きるものではない。   When performing photogrammetry with an MMS equipped with imaging means, in addition to obtaining the internal orientation elements of the imaging means such as displacement of the principal point, radioactive distortion, and asymmetric distortion, external orientation elements such as the imaging position and imaging direction at the time of imaging It is necessary to ask. A means for obtaining the external orientation element is a measuring instrument such as GPS, IMU, or DMI. However, high-precision GPS or IMU for surveying is extremely expensive, and the vehicle must be modified to attach the DMI. As a result, compared with MMS equipped with a laser distance meter, the cost can be reduced by not using the laser distance meter, but a significant reduction in cost is not expected.

ところで、近年では非測量用のGPSやジャイロが広く市場に流通しており、携帯電話などの携帯端末では当たり前のように搭載されている。これら非測量用のGPSやジャイロは測量用のものよりはるかに安価であり、これらを利用して高精度な写真測量を実現する技術は極めて有用である。   By the way, in recent years, GPS and gyros for non-surveying are widely distributed in the market, and are installed as usual in portable terminals such as mobile phones. These non-surveying GPSs and gyros are much cheaper than those for surveying, and a technique for realizing high-precision photogrammetry using them is extremely useful.

MMSによる写真測量において、測量用のGPSやIMUを使用することなく外部標定要素を求めるには、撮像画像を利用することが考えられる。しかしながらこの場合、撮像間隔と画像ひずみの問題を指摘することができる。例えば、動画のように撮像間隔を小さくした画像群に対して特徴点追跡や画像マッチングを行って外部標定要素を求める手法が挙げられるが、画像の数の分だけ誤差が累積する可能性があり、その結果期待した精度が得られないおそれがある。逆に、撮像間隔を大きくした画像群で外部標定要素を求めるとすると、画像上のテクスチャの歪みが大きくなる結果、特徴点抽出や画像マッチングが不安定となり、やはり期待した精度が得られないおそれがある。   In photogrammetry using MMS, it is conceivable to use a captured image in order to obtain an external orientation element without using a GPS or IMU for surveying. However, in this case, the problems of imaging interval and image distortion can be pointed out. For example, there is a method of obtaining external orientation elements by tracking feature points and matching images for images with a small imaging interval such as moving images, but there is a possibility that errors may accumulate for the number of images. As a result, the expected accuracy may not be obtained. On the other hand, if an external orientation element is obtained from an image group with a large imaging interval, the texture distortion on the image will increase, resulting in unstable feature point extraction and image matching, and may not achieve the expected accuracy. There is.

本願発明の課題は、前記のような問題を解決する技術を提供することであり、すなわち、高価な測量用測位計や慣性計測装置を用いることなく、移動しながら高精度な写真測量を実現することであり、撮像間隔を大きくした画像群に対して高精度に外部標定要素を求めることができる、標定方法、標定プログラム、及び標定装置を提供することにある。   An object of the present invention is to provide a technique for solving the above-described problems, that is, to realize high-precision photogrammetry while moving without using an expensive surveying position meter or inertial measurement device. Accordingly, it is an object of the present invention to provide an orientation method, an orientation program, and an orientation device that can obtain an external orientation element with high accuracy for an image group having a large imaging interval.

本願発明は、仮の標定要素に基づいて偏位修正を行った偏位修正画像で画像照合(マッチング)を行い、その結果から正確な標定要素を求める、という点に着目したものであり、従来にはなかった発想に基づいてなされた発明である。   The present invention focuses on the point that image collation (matching) is performed with a displacement corrected image obtained by performing displacement correction based on a provisional orientation element, and an accurate orientation element is obtained from the result. It was an invention made based on an idea that did not exist.

本願発明の標定方法は、移動中に撮像した画像に基づいて標定要素を求める標定方法であり、撮像工程と、画像抽出工程、ペア画像抽出工程、画像照合工程、標定工程を備えた方法である。このうち撮像工程では、移動しながら撮像して2以上の撮像画像を取得するとともに、撮像時における撮像位置及び撮像方向を取得する。画像変換工程では、撮像位置及び撮像方向に基づいて、それぞれの撮像画像を、所定の基準面の画像となるよう変換して、基準面画像を得る。ペア画像抽出工程では、同一箇所を含む2つの基準面画像を抽出し、これらを1組のペア画像とする。画像照合工程では、ペア画像を用いて部分画像の照合を行う。標定工程では、画像照合工程の照合結果に基づいて、撮像工程のそれぞれの撮像時における標定要素を求める。   The orientation method of the present invention is an orientation method for obtaining orientation elements based on an image captured during movement, and includes an imaging step, an image extraction step, a pair image extraction step, an image collation step, and an orientation step. . Among these, in an imaging process, while imaging, it acquires two or more captured images, and acquires an imaging position and an imaging direction at the time of imaging. In the image conversion step, each captured image is converted so as to become an image of a predetermined reference plane based on the imaging position and the imaging direction, and a reference plane image is obtained. In the pair image extraction step, two reference plane images including the same location are extracted and used as a pair of pair images. In the image collation process, partial images are collated using the pair images. In the orientation process, orientation elements at the time of imaging in the imaging process are obtained based on the matching result in the image matching process.

本願発明の標定方法は、画像位置特定工程を備えた方法とすることもできる。この場合、画像位置特定工程では、撮像時における撮像位置及び撮像方向に基づいてそれぞれの基準面画像に対して画像位置を特定し、ペア画像抽出工程では、画像位置に基づいて2つの基準面画像を抽出する。   The orientation method of the present invention may be a method including an image position specifying step. In this case, in the image position specifying step, an image position is specified for each reference plane image based on the imaging position and imaging direction at the time of imaging, and in the pair image extraction step, two reference plane images are determined based on the image position. To extract.

本願発明の標定方法は、撮像工程において、移動体の移動前方の前方撮像画像と、移動後方の後方撮像画像とを取得する方法とすることもできる。この場合ペア画像抽出工程では、前方撮像画像と後方撮像画像から1つずつ基準面画像を抽出する。   The orientation method of the present invention may be a method of acquiring a front captured image in front of the moving body and a rear captured image in the rear of the moving body in the imaging step. In this case, in the pair image extraction step, a reference plane image is extracted one by one from the front captured image and the rear captured image.

本願発明の標定プログラムは、移動中に撮像した画像に基づいて標定要素を求める処理をコンピュータに実行させる標定プログラムであり、画像変換処理と、ペア画像抽出処理、画像照合処理、標定処理をコンピュータに実行させるプログラムである。このうち画像変換処理は、移動しながら撮像した2以上の撮像画像と、撮像時における撮像位置及び撮像方向と、に基づいて、それぞれの撮像画像を、所定の基準面の画像となるよう変換して、基準面画像を得る処理である。ペア画像抽出処理は、同一箇所を含む2つの基準面画像を抽出し、これらを1組のペア画像として記憶する処理である。画像照合処理は、ペア画像を用いて部分画像の照合を行う処理である。標定処理は、画像照合処理による照合結果に基づいて、それぞれ撮像時における標定要素を求める演算処理である。   The orientation program of the present invention is an orientation program that causes a computer to execute a process for obtaining orientation elements based on an image captured during movement, and performs image conversion processing, pair image extraction processing, image collation processing, and orientation processing on the computer. It is a program to be executed. Among these, the image conversion process converts each captured image to be an image of a predetermined reference plane based on two or more captured images captured while moving and the imaging position and imaging direction at the time of imaging. This is a process for obtaining a reference plane image. The pair image extraction process is a process of extracting two reference plane images including the same portion and storing them as a pair of pair images. The image matching process is a process for matching partial images using pair images. The orientation process is an arithmetic process for obtaining orientation elements at the time of imaging based on the matching result obtained by the image matching process.

本願発明の標定プログラムは、画像位置特定処理をコンピュータに実行させるプログラムとすることもできる。この場合、画像位置特定処理は、撮像時における撮像位置及び撮像方向に基づいてそれぞれの基準面画像に対して画像位置を特定する処理であり、ペア画像抽出処理は、画像位置に基づいて2つの基準面画像を抽出する処理である。   The orientation program of the present invention may be a program that causes a computer to execute image position specifying processing. In this case, the image position specifying process is a process of specifying the image position with respect to each reference plane image based on the image pickup position and the image pickup direction at the time of image pickup, and the pair image extraction process is based on two image positions. This is processing for extracting a reference plane image.

本願発明の標定プログラムは、ペア画像抽出処理を、移動前方を撮像した前方撮像画像と、移動後方を撮像した後方撮像画像とから、それぞれ1つずつ基準面画像を抽出する処理とすることもできる。   In the orientation program of the present invention, the pair image extraction process may be a process of extracting a reference plane image one by one from a front captured image obtained by imaging the moving front and a rear captured image obtained by imaging the rear of the movement. .

本願発明の標定装置は、移動中に撮像した画像に基づいて標定要素を求める標定装置であり、移動体と、撮像手段、位置計測手段、画像変換手段、ペア画像抽出手段、画像照合手段、標定手段を備えた装置である。このうち撮像手段は、移動体に搭載され、移動体の前方を撮像して撮像画像を取得するとともに、移動体の後方を撮像して後方撮像画像を取得するものである。位置計測手段は、移動体に搭載され、撮像時における撮像手段の位置を取得するものである。画像変換手段は、撮像時における撮像位置及び撮像方向に基づいて、それぞれ前方撮像画像及び後方撮像画を、所定の基準面の画像となるよう変換して、基準面画像を得るものである。ペア画像抽出手段は、同一箇所を含む前方撮像画像と後方撮像画像を1つずつ抽出し、これらを1組のペア画像とするものである。画像照合手段は、ペア画像を用いて部分画像の照合を行うものである。標定手段は、画像照合手段による照合結果に基づいて、それぞれ撮像時における標定要素を求めるものである。   The orientation device of the present invention is an orientation device that obtains orientation elements based on an image captured during movement, and includes a moving body, an imaging means, a position measuring means, an image converting means, a pair image extracting means, an image collating means, an orientation. A device provided with means. Among these, the imaging means is mounted on the moving body, captures the front of the moving body to acquire a captured image, and captures the rear of the moving body to acquire the rear captured image. The position measuring unit is mounted on the moving body and acquires the position of the imaging unit at the time of imaging. The image conversion means converts the front captured image and the rear captured image into images of a predetermined reference plane based on the imaging position and imaging direction at the time of imaging, and obtains a reference plane image. The pair image extraction unit extracts one front captured image and one rear captured image including the same location one by one, and sets these as a pair of pair images. The image collating means collates partial images using pair images. The orientation means obtains orientation elements at the time of imaging based on the result of matching by the image matching means.

本願発明の標定方法、標定プログラム、及び標定装置には、次のような効果がある。
(1)高価な測量用測量用測位計(GPS等)や慣性計測装置(IMU等)、あるいは移動体(車両等)の改造を要する距離計(DMI等)を必要としないので、比較的安価に沿道状況の空間情報を取得することができる。
(2)照合(マッチング)に用いるペア画像は偏位修正を行っているので、画像上のテクスチャの歪みが抑制される結果、高精度の画像照合が可能となり、ひいては高精度の空間情報を取得することができる。
(3)移動前方の「前方撮像画像」と、移動後方の「後方撮像画像」で画像照合を行えば、さらに高精度の画像照合が可能となり、ひいては高精度の空間情報を取得することができる。
The orientation method, orientation program, and orientation apparatus of the present invention have the following effects.
(1) It is relatively inexpensive because it does not require an expensive surveying positioning meter (such as GPS), inertial measurement device (such as IMU), or a distance meter (such as DMI) that requires modification of a moving object (such as a vehicle). It is possible to obtain spatial information on roadside conditions.
(2) Since the pair images used for matching (correction) are corrected for displacement, the texture distortion on the images is suppressed, so that high-precision image matching is possible, and thus high-precision spatial information is acquired. can do.
(3) If image collation is performed using the “front-captured image” in front of the movement and the “rear-captured image” in the rear of the movement, it is possible to perform image collation with higher accuracy and thus obtain high-accuracy spatial information. .

本願発明の主な流れを示すフロー図。The flowchart which shows the main flows of this invention. 撮像工程を示す説明図。Explanatory drawing which shows an imaging process. 前後2方向の撮像画像を取得する場合の撮像工程を示す説明図。Explanatory drawing which shows the imaging process in the case of acquiring the captured image of the front-back 2 directions. 撮像画像を基準面画像に変換するしくみを説明するモデル図。The model figure explaining the structure which converts a captured image into a reference plane image. 白線を含む道路面を撮像した際の、撮像画像のイメージと基準面画像のイメージを示す説明図。Explanatory drawing which shows the image of a picked-up image, and the image of a reference plane image at the time of imaging the road surface containing a white line. 前方基準面画像と後方基準面画像を照合したときの解像度を示す説明図。Explanatory drawing which shows the resolution when collating a front reference plane image and a back reference plane image.

本願発明の標定方法、標定プログラム、及び標定装置の実施形態の一例を、図に基づいて説明する。   An example of embodiments of the orientation method, orientation program, and orientation device of the present invention will be described with reference to the drawings.

1.全体概要
写真測量を行う場合、画像を取得するカメラやビデオといった撮像手段や撮像条件に関する標定要素を定める必要がある。この標定要素には、既述のとおり、撮像手段が備える内部標定要素(主点位置のずれ、放射性ひずみなど)と、撮像時の条件である外部標定要素(撮像位置や撮像方向)がある。本願発明は、取得した画像から標定要素を求めるものであり、3次元の空間情報をもとにした演算処理を行う。そこで、まずは3次元の空間情報について説明する。
1. General overview When performing photogrammetry, it is necessary to determine orientation elements relating to imaging means and imaging conditions such as a camera and video for acquiring images. As described above, this orientation element includes an internal orientation element (shift of principal point position, radioactive distortion, etc.) provided in the imaging means and an external orientation element (imaging position and imaging direction) that is a condition at the time of imaging. The invention of the present application obtains an orientation element from an acquired image, and performs arithmetic processing based on three-dimensional spatial information. Therefore, first, three-dimensional spatial information will be described.

3次元の空間情報は、平面座標値と高さの情報を持つ点や線、面、あるいはこれらの組み合わせで構成される情報である。さらに平面座標値とは、緯度と経度あるいはX座標とY座標で表されるものであり、高さとは標高など所定の基準水平面からの鉛直方向の距離を意味する。また3次元座標とは、平面座標と高さの組み合わせで表す座標を指す。   The three-dimensional spatial information is information composed of points, lines, surfaces, or combinations thereof having plane coordinate values and height information. Further, the plane coordinate value is represented by latitude and longitude or X and Y coordinates, and the height means a vertical distance from a predetermined reference horizontal plane such as an altitude. Further, the three-dimensional coordinates indicate coordinates expressed by a combination of plane coordinates and height.

次に、本願発明の一連の流れについて簡単に説明する。図1は、本願発明を説明するフロー図である。この図では、中央の列に実施する行為(工程、処理、手段)を示し、左列にはその行為に必要な入力情報を、右列にはその行為から生まれる出力情報を示している。なお図1は、本願発明の標定方法を例示するもので各行為を工程として示しているが、本願発明の標定プログラムの場合は各行為を処理として、本願発明の標定装置の場合は各行為を手段としてこの図を読み替えることができる。   Next, a series of flows of the present invention will be briefly described. FIG. 1 is a flowchart for explaining the present invention. In this figure, actions (processes, processes, means) to be performed are shown in the center column, input information necessary for the action is shown in the left column, and output information generated from the action is shown in the right column. In addition, although FIG. 1 illustrates the orientation method of the present invention and shows each act as a process, in the case of the orientation program of the present invention, each act is processed, and in the case of the orientation device of the present invention, each act is indicated. This figure can be read as a means.

図1にしたがって説明する。撮像工程(Step10)では、複数の画像を取得し、仮の標定要素を設定する(Step11)。このとき、内部標定要素は、使用した撮像手段の諸元等から求め、外部標定要素は、簡易の測位計(GPS等)と慣性計測装置(IMUや電子コンパス、鉛直センサ等)によって取得する。   This will be described with reference to FIG. In the imaging step (Step 10), a plurality of images are acquired, and temporary orientation elements are set (Step 11). At this time, the internal orientation element is obtained from the specifications of the imaging means used, and the external orientation element is obtained by a simple positioning meter (GPS or the like) and an inertial measurement device (IMU, electronic compass, vertical sensor or the like).

複数の撮像画像と、仮の標定要素が得られると、これらを入力情報として撮像画像の変換を行う(Step20)。ここでいう変換とは、撮像画像を水平面など所定の基準面の画像とすることであり、これにより得られる変換後の画像を便宜上「基準面画像」ということとする。取得した複数の撮像画像は、当然ながら様々な角度から撮像されているため、同じ対象物でもそれぞれ変形した画像として取得されている。その結果、後の工程で行う画像照合でうまく照合(マッチング)しない現象が起きる。この照合不一致を防ぐため、複数の撮像画像を所定基準面(例えば水平面)に、つまり共通する平面の画像に変換するわけである。   When a plurality of captured images and temporary orientation elements are obtained, the captured images are converted using these as input information (Step 20). Here, the conversion means that the captured image is an image of a predetermined reference plane such as a horizontal plane, and the converted image obtained thereby is referred to as a “reference plane image” for convenience. Since the acquired plurality of captured images are naturally captured from various angles, even the same object is acquired as a deformed image. As a result, a phenomenon in which matching (matching) is not performed well in image matching performed in a later process occurs. In order to prevent this mismatch, a plurality of captured images are converted to a predetermined reference plane (for example, a horizontal plane), that is, to a common plane image.

対象とする全ての撮像画像に対して基準面画像が得られると、基準面画像ごとに画像位置を特定する(Step30)。この結果、各基準面画像には、それぞれ画像位置が情報として紐づけられる。なお画像位置とは、その基準面画像が実際にどの場所を撮像したものかを示すもので、例えば基準面画像の輪郭を構成する各点の平面座標で表される。   When the reference plane images are obtained for all the captured images to be processed, the image position is specified for each reference plane image (Step 30). As a result, each reference plane image is associated with an image position as information. The image position indicates where the reference plane image is actually captured, and is represented by, for example, the plane coordinates of each point constituting the outline of the reference plane image.

次に、ペア画像を抽出し(Step40)、画像の照合を行う(Step50)。ペア画像とは、一部が重なりあう2枚の基準面画像からなるもので、つまり2枚の基準面画像で一組のペア画像を構成する。ペア画像を抽出する場合、人によって判断することもできるが、先に求めた画像位置を利用して好適なペア画像を抽出するとよい。ペア画像を構成するそれぞれの基準面画像には、重なり合う部分があって同一の対象物が撮像されているので、その対象物を頼りに部分的な画像の照合を行う。この場合の対象物としては、他と識別しやすい特徴的な物(以下、「特徴物」という。)を選択するとよい。   Next, a pair image is extracted (Step 40), and the images are collated (Step 50). The pair image is composed of two reference plane images that partially overlap each other, that is, a pair of pair images is formed by the two reference plane images. When a pair image is extracted, it can be determined by a person, but a suitable pair image may be extracted using the previously obtained image position. Since each reference plane image constituting the pair image has an overlapping portion and the same object is imaged, partial images are collated using the object. As an object in this case, it is preferable to select a characteristic object (hereinafter referred to as “characteristic object”) that can be easily distinguished from others.

複数の特徴物について画像照合ができると、バンドル調整等により標定要素を求める、いわゆる「標定」を行う(Step60)。この場合、内部標定要素と外部標定要素の両方を算出することもできるが、撮像手段の諸元等から求めた内部標定要素が信頼できるときは、この内部標定要素を用いて外部標定要素のみを算出することもできる。ここで算出されたものが、種々の調整を経て得られた高い精度の標定要素である。高精度な標定要素が得られれば、取得した撮像画像に示される様々な地物の3次元座標を求めることができる(Step70)。   When image collation can be performed for a plurality of features, so-called “orientation” is performed in which orientation elements are obtained by bundle adjustment or the like (Step 60). In this case, both the internal orientation element and the external orientation element can be calculated, but when the internal orientation element obtained from the specifications of the imaging means is reliable, only the external orientation element is used using this internal orientation element. It can also be calculated. What is calculated here is a highly accurate orientation element obtained through various adjustments. If a highly accurate orientation element is obtained, three-dimensional coordinates of various features shown in the acquired captured image can be obtained (Step 70).

以下、本願発明の標定方法、標定プログラム、及び標定装置を、構成する要素ごとに詳述する。   Hereinafter, the orientation method, orientation program, and orientation device of the present invention will be described in detail for each constituent element.

2.撮像
本願発明の標定方法を構成する撮像工程について説明する。図2は撮像工程を示す説明図である。この図に示すように、車や列車、自転車、航空機といった移動体10で移動しながら、移動体10に搭載した撮像手段20で、複数の画像を撮像していく。撮像画像は、移動体10が所定距離だけ、もしくは所定時間だけ進むたびに取得され、撮像間隔としては、移動体が10cm進行するたびに撮像したり、移動体が3m進行するたびに撮像したり、1秒経過するたびに撮像したり、状況に応じて適宜設計することができる。ただし、少なくとも進行方向に隣接する撮像画像どうしは、その一部が重なり合うような撮像間隔にする必要がある。なお既述のとおり、撮像間隔が小さすぎると誤差の累積が大きくなるため、2〜5mを撮像間隔とすることが望ましい。
2. Imaging The imaging process which comprises the orientation method of this invention is demonstrated. FIG. 2 is an explanatory diagram showing an imaging process. As shown in this figure, a plurality of images are picked up by the image pickup means 20 mounted on the moving body 10 while moving by the moving body 10 such as a car, a train, a bicycle, and an aircraft. A captured image is acquired every time the moving body 10 advances by a predetermined distance or a predetermined time. As an imaging interval, an image is taken every time the moving body advances 10 cm, or every time the moving body advances 3 m. An image can be taken every time one second elapses, or can be appropriately designed according to the situation. However, at least the captured images adjacent in the traveling direction need to have an imaging interval such that a part thereof overlaps. As described above, since the accumulation of errors increases when the imaging interval is too small, it is desirable to set the imaging interval to 2 to 5 m.

図3は、前後2方向の撮像画像を取得する場合の撮像工程を示す説明図である。この図に示すように、移動体10に搭載した2台の撮像手段20で、移動方向における前方の撮像画像(以下、「前方撮像画像」)と、移動方向における後方の撮像画像(以下、「後方撮像画像」)の2枚の撮像画像を取得することもできる。この場合、前方撮像画像と後方撮像画像が一部重なるような撮像間隔とすれば、必ずしも隣接する前方撮像画像どうしが重なり合うような間隔とする必要がない。なお図2では、前方撮像画像と後方撮像画像を取得するため2台の撮像手段20(つまり、前方撮像手段21と後方撮像手段22)を設置しているが、前方も後方も撮像し得る全方位カメラなどを利用すれば、1台の撮像手段20の設置とすることもできる。   FIG. 3 is an explanatory diagram illustrating an imaging process when acquiring captured images in two front and rear directions. As shown in this figure, with the two imaging means 20 mounted on the moving body 10, a front captured image in the moving direction (hereinafter referred to as “front captured image”) and a rear captured image in the moving direction (hereinafter “ It is also possible to acquire two captured images “backward captured images”). In this case, if the imaging interval is such that the front captured image and the rear captured image partially overlap, it is not always necessary to set the interval so that adjacent front captured images overlap. In FIG. 2, two image pickup means 20 (that is, the front image pickup means 21 and the rear image pickup means 22) are installed in order to acquire the front image pickup image and the rear image pickup image. If an azimuth camera or the like is used, one image pickup means 20 can be installed.

撮像画像を取得する際には、撮影時(撮影したタイミング)における撮像位置、及び撮像方向を計測する。撮像位置とは、撮像手段20の主点位置の3次元座標(例えばX,Y,Z)であり、撮像方向とは、撮像手段20が撮像した方向で、例えば3軸からの回転角(ω,φ,κなど)で表される。撮像位置は測位計(GPS等)で計測することができ、撮像方向は慣性計測装置(IMU等)によって計測することができる。ただし、ここで計測し手得られた撮像位置と撮像方向は、あくまで仮の外部標定要素として設定するものであり、それほど高い精度を必要とせず概略の値でよい。したがってここで用いる測位計は、簡易な(測量用ではない)GPSとすることができる。また慣性計測装置も高価なIMUとする必要はなく、電子コンパスや鉛直センサを慣性計測装置として用いることもできるし、あるいはGPSを利用した慣性計測装置とすることもできる。GPSを利用した慣性計測装置とは、移動体10の移動前後の3次元座標に基づいて撮像手段20の姿勢を求める仕組みであり、例えば、移動体10の3箇所に搭載したGPSによって撮像手段20の姿勢を求めるなど、種々の手法で撮像手段20の姿勢を求めて撮像方向を推定することができる。   When acquiring a captured image, an imaging position and an imaging direction at the time of shooting (shooting timing) are measured. The imaging position is a three-dimensional coordinate (for example, X, Y, Z) of the principal point position of the imaging unit 20, and the imaging direction is a direction captured by the imaging unit 20, for example, a rotation angle (ω from three axes). , Φ, κ, etc.). The imaging position can be measured by a positioning meter (GPS or the like), and the imaging direction can be measured by an inertial measurement device (IMU or the like). However, the imaging position and imaging direction obtained and measured here are set as temporary external orientation elements, and may be approximate values without requiring so high accuracy. Therefore, the positioning device used here can be a simple GPS (not for surveying). Also, the inertial measurement device need not be an expensive IMU, and an electronic compass or a vertical sensor can be used as the inertial measurement device, or an inertial measurement device using GPS. The inertial measurement device using GPS is a mechanism for obtaining the posture of the imaging unit 20 based on the three-dimensional coordinates before and after the movement of the moving body 10. For example, the imaging unit 20 uses GPS mounted at three locations on the moving body 10. It is possible to estimate the imaging direction by obtaining the attitude of the imaging means 20 by various methods such as obtaining the attitude of the image.

ここで説明した移動体10、撮像手段20、測位計(位置計測手段)、及び慣性計測装置は、本願発明の標定装置を構成する。   The moving body 10, the imaging unit 20, the positioning meter (position measuring unit), and the inertia measuring device described here constitute the orientation device of the present invention.

3.画像変換
本願発明の標定方法を構成する画像変換工程、本願発明の標定プログラムを構成する画像変換処理、本願発明の標定方法を構成する画像変換手段、について説明する。既述のとおり、撮像画像は様々な撮像方向で取得されるため、たとえ2枚の撮像画像に同じ特徴物があったとしても、それぞれの特徴物は独特な変形を生じているのでうまく画像照合しないこともある。そこで、照合する撮像画像どうしを共通の平面に変換したうえで画像照合を行えば、比較的精度よく照合する結果が得られる。
3. Image Conversion An image conversion process constituting the orientation method of the present invention, an image conversion process constituting the orientation program of the present invention, and an image conversion means constituting the orientation method of the present invention will be described. As described above, since the captured images are acquired in various imaging directions, even if two captured images have the same feature, each feature has a unique deformation, so image matching is successful. Sometimes it doesn't. Therefore, if the captured images to be collated are converted into a common plane and image collation is performed, a result of collation can be obtained with relatively high accuracy.

図4は、撮像画像を基準面画像に変換するしくみを説明するモデル図である。この図に示すように、撮像手段20で撮像して得られる撮像画像は、実際には撮像面Pに投影されている。このときの撮像画像は、図に示す「撮像範囲」を現実空間として撮像している。この現実の撮像範囲を推定し、その範囲を鉛直上方から仮想の撮像手段20vで撮像したと仮定した結果、得られる画像が基準面画像である。換言すれば基準面画像は、撮像面Pに投影された撮像画像を、基準面S(この場合は水平面)に投影した画像に変換したものである。なお、ここでは仮想の撮像手段20vを鉛直上方から撮像すると仮定して、基準面Sを水平面としたが、これに限らず任意の傾きを持った平面を基準面Sとして選定することができる。   FIG. 4 is a model diagram illustrating a mechanism for converting a captured image into a reference plane image. As shown in this figure, the captured image obtained by imaging by the imaging means 20 is actually projected on the imaging plane P. The captured image at this time is captured using the “imaging range” shown in the figure as a real space. As a result of estimating the actual imaging range and assuming that the range is captured by the virtual imaging means 20v from vertically above, the obtained image is the reference plane image. In other words, the reference plane image is obtained by converting the captured image projected on the imaging plane P into an image projected on the reference plane S (in this case, the horizontal plane). Here, it is assumed that the virtual imaging means 20v is imaged from above, and the reference plane S is a horizontal plane. However, the present invention is not limited to this, and a plane having an arbitrary inclination can be selected as the reference plane S.

基準面画像は、撮像画像を偏位修正することで作成され、いわゆるオルソ画像(正射投影画像)を作成する要領で行われる。具体的には、以下の式を用いて偏位修正を行う。

Figure 2014089078
ここで、左辺にある(x,y)は撮像画像上の任意座標系における平面座標で、右辺にある(X,Y,Z)は実空間の3次元座標である。また、(X,Y,Z)は撮像手段20の主点位置の3次元座標、△xと△yは内部標定要素の補正量、cは撮像手段20の焦点距離、a11〜a33は外部標定要素(撮像手段20の姿勢)によって定まる定数である。 The reference plane image is created by correcting the displacement of the captured image, and is performed in the manner of creating a so-called ortho image (orthographic projection image). Specifically, deviation correction is performed using the following equation.
Figure 2014089078
Here, (x, y) on the left side is a plane coordinate in an arbitrary coordinate system on the captured image, and (X, Y, Z) on the right side is a three-dimensional coordinate in the real space. (X 0 , Y 0 , Z 0 ) is the three-dimensional coordinate of the principal point position of the imaging means 20, Δx and Δy are the correction amounts of the internal orientation elements, c is the focal length of the imaging means 20, and a 11 to a 33 is a constant determined by the external orientation element (the posture of the imaging means 20).

上記変換を行うためには標定要素が必要となるが、内部標定要素は撮像手段20の諸元等から求めた値を利用し、外部標定要素は先に取得した仮の撮像位置と撮像方向を使用する。また、撮像対象(図2や図3の場合は道路面)の高さも既知でなければならないため、移動体10の高さなどを参考に仮の高さを設定する。仮定した撮像対象の高さと、撮像手段20の高さによる比高差を、図4に符号hで示す。標定要素が与えられ、さらに図4の比高差hが与えられれば(つまり、上記式でZ=hとすれば)、上記式(1)と式(2)の定数a11〜a33を求めることができ、その結果、基準面Sに投影した基準面画像を得ることができる。 In order to perform the above conversion, orientation elements are required. Internal orientation elements use values obtained from the specifications of the imaging means 20 and external orientation elements use the provisional imaging position and imaging direction acquired earlier. use. In addition, since the height of the object to be imaged (the road surface in the case of FIGS. 2 and 3) must also be known, a temporary height is set with reference to the height of the moving body 10 and the like. A difference in specific height depending on the assumed height of the imaging target and the height of the imaging means 20 is indicated by a symbol h in FIG. If the orientation element is given and the specific height difference h in FIG. 4 is given (that is, if Z = h in the above equation), the constants a 11 to a 33 in the above equations (1) and (2) are changed. As a result, a reference plane image projected on the reference plane S can be obtained.

図5は、白線を含む道路面を撮像した際の、撮像画像のイメージと基準面画像のイメージを示す説明図である。この図に示すように、撮像画像では白線の形状が変形しており、撮像手段20の主点から遠い位置にあるほど大きな歪が生じている。一方、基準面画像は真上から撮像されたようにほとんど変形することなく白線が表示されている。この図からも、撮像画像のままでは他の画像と画像照合しにくいが、基準面画像にすれば画像照合しやすくなることが分かる。   FIG. 5 is an explanatory diagram illustrating an image of a captured image and an image of a reference plane image when a road surface including a white line is captured. As shown in this figure, the shape of the white line is deformed in the captured image, and the greater the distance from the main point of the imaging means 20, the greater the distortion. On the other hand, white lines are displayed in the reference plane image with almost no deformation as taken from right above. From this figure, it can be seen that it is difficult to collate with other images if the captured image is used as it is, but if the reference plane image is used, it is easier to perform image collation.

標定方法を構成する画像変換工程は、ここで説明した画像変換を行う工程であり、人によって実行することもできるし、オペレータが本願発明の標定プログラムや標定装置を操作して処理することもできる。また、標定プログラムを構成する画像変換処理は、ここで説明した画像変換をコンピュータに実行させる処理である。さらに、標定装置を構成する画像変換手段は、ここで説明した画像変換をコンピュータ等によって実行する手段である。   The image conversion step constituting the orientation method is a step of performing the image conversion described here, and can be executed by a person, or can be processed by an operator operating the orientation program and orientation device of the present invention. . Further, the image conversion process constituting the orientation program is a process for causing the computer to execute the image conversion described here. Further, the image conversion means constituting the orientation device is a means for executing the image conversion described here by a computer or the like.

4.ペア画像抽出
本願発明の標定方法を構成するペア画像抽出工程、本願発明の標定プログラムを構成するペア画像抽出処理、本願発明の標定方法を構成するペア画像抽出手段、について説明する。画像照合を行うため、ステレオペアと呼ばれる2枚一組の基準面画像(ペア画像)を抽出する。
4). Pair Image Extraction A pair image extraction process constituting the orientation method of the present invention, a pair image extraction process constituting the orientation program of the present invention, and a pair image extraction means constituting the orientation method of the present invention will be described. In order to perform image collation, a pair of reference plane images (pair images) called stereo pairs are extracted.

ペア画像は、それぞれ基準面画像の一部が重なりあい、つまりそれぞれの基準面画像は同一箇所を含む画像である。ところが、通常は一度の計測で多数の撮像画像、すなわち基準面撮像が得られるため、その中から適切なペア画像を抽出するのは容易ではない。撮像した順に基準面画像に連続番号を付与し、連続する基準面画像をペア画像とすることも考えられるが、重なりあう範囲(以下、「ラップ長」という。)が大きすぎて非効率となるなど、必ずしも隣接する基準面画像がペア画像に適しているとはいえない。そこで、それぞれの基準面画像に対して画像位置を付与し、この画像位置に基づいて好適なペア画像を抽出する。基準面画像は、先に説明した偏位修正を経て得られることから、基準面画像の輪郭を構成する各点等の平面座標は既に算出されており、これらを画像位置として基準面画像ごとに付与する。画像位置に基づいて好適なペア画像を抽出する手法としては、例えば、ラップ長が基準値(例えば、画像面積の60%等)に近くなる組み合わせをペア画像として抽出するなど座標計算による抽出手法が挙げられる。座標計算によってペア画像を抽出する手法とすれば、コンピュータ等を利用した自動抽出も可能となる。なお、ここで説明した基準面画像に対する画像位置の付与は、標定方法を構成する画像位置特定工程で行われ、標定プログラムを構成する画像位置特定処理に基づきコンピュータによって実行され、が、標定装置を構成する画像位置特定手段によって実行される。   In the pair images, a part of the reference plane images overlap each other, that is, each reference plane image is an image including the same portion. However, since a large number of captured images, that is, reference plane imaging is usually obtained by one measurement, it is not easy to extract an appropriate pair image from them. Although it is conceivable that serial numbers are assigned to the reference plane images in the order in which they are captured and the continuous reference plane images are used as pair images, the overlapping range (hereinafter referred to as “wrap length”) is too large, which is inefficient. For example, adjacent reference plane images are not necessarily suitable for pair images. Therefore, an image position is assigned to each reference plane image, and a suitable pair image is extracted based on the image position. Since the reference plane image is obtained through the above-described deviation correction, the plane coordinates such as points constituting the outline of the reference plane image have already been calculated, and these are used as image positions for each reference plane image. Give. As a method for extracting a suitable pair image based on the image position, for example, there is an extraction method based on coordinate calculation such as extracting a combination whose wrap length is close to a reference value (for example, 60% of the image area) as a pair image. Can be mentioned. If a method of extracting pair images by coordinate calculation is used, automatic extraction using a computer or the like is also possible. It should be noted that the provision of the image position to the reference plane image described here is performed in the image position specifying step that constitutes the orientation method, and is executed by the computer based on the image location specifying process that constitutes the orientation program. It is executed by the image position specifying means that constitutes.

ペア画像は、既述した前方撮像画像に基づく基準面画像(以下、「前方基準面画像」という。)から2枚を抽出することもできるが、後方撮像画像に基づく基準面画像(以下、「後方基準面画像」という。)を含めるとより好適となる。すなわち、前方基準面画像から1枚を抽出し、後方基準面画像から1枚を抽出してこれら2枚の基準面画像をペア画像とするわけである。   Two pairs of images can be extracted from the reference plane image (hereinafter referred to as “front reference plane image”) based on the above-described front captured image. It is more preferable to include “back reference plane image”). That is, one sheet is extracted from the front reference plane image, one sheet is extracted from the rear reference plane image, and these two reference plane images are used as a pair image.

図6は、前方基準面画像と後方基準面画像を照合したときの解像度を示す説明図である。この図に示すように、撮像手段20の主点から遠い位置にあるほど同じ地物(この図では例えば白線)でも小さく表示され、あわせて解像度も低くなる。前方基準面画像の場合は画像のうち前方にいくほど解像度が低くなり、逆に後方基準面画像の場合は画像のうち後方にいくほど解像度が低くなる。前方基準面画像のみからペア画像を抽出すると、一方の画像の前方範囲と、他方の画像の後方範囲が重なり合うこととなり、すなわち一方の画像は解像度の低い部分で画像照合を行うこととなる。その結果、画像照合の精度が低くなることも考えられる。図6に示すように、前方基準面画像と後方基準面画像からペア画像を抽出すると、前方基準面画像の後方範囲と、後方基準面画像の前方範囲が重なり合うこととなり、すなわち両方の画像ともに解像度の高い部分で画像照合を行うこととなる。その結果、画像照合の精度は向上する。   FIG. 6 is an explanatory diagram showing the resolution when the front reference plane image and the rear reference plane image are collated. As shown in this figure, the farther away from the main point of the image pickup means 20, the smaller the same feature (for example, white line in this figure) is displayed, and the lower the resolution is. In the case of a front reference plane image, the resolution decreases as it goes forward in the image. Conversely, in the case of a rear reference plane image, the resolution decreases as it moves backward in the image. When a pair image is extracted from only the front reference plane image, the front range of one image overlaps the rear range of the other image, that is, one image is subjected to image collation at a low resolution portion. As a result, it is conceivable that the accuracy of image matching is lowered. As shown in FIG. 6, when a pair image is extracted from the front reference plane image and the rear reference plane image, the rear range of the front reference plane image and the front range of the rear reference plane image overlap, that is, both images have a resolution. The image collation is performed at a high part. As a result, the accuracy of image matching is improved.

標定方法を構成するペア画像抽出工程は、ここで説明したペア画像の抽出を行う工程であり、人の判断によって抽出することもできるし、オペレータが本願発明の標定プログラムや標定装置を操作して処理することもできる。また、標定プログラムを構成するペア画像抽出処理は、ここで説明した画像変換をコンピュータに実行させる処理である。さらに、標定装置を構成する画像変換手段は、ここで説明した画像変換をコンピュータ等によって実行する手段である。   The pair image extraction step constituting the orientation method is a step of extracting the pair image described here, and can be performed by human judgment, or the operator operates the orientation program or orientation device of the present invention. It can also be processed. Moreover, the pair image extraction process which comprises an orientation program is a process which makes a computer perform the image conversion demonstrated here. Further, the image conversion means constituting the orientation device is a means for executing the image conversion described here by a computer or the like.

5.画像照合
本願発明の標定方法を構成する画像照合工程、本願発明の標定プログラムを構成する画像照合処理、本願発明の標定方法を構成する画像照合手段、について説明する。抽出されたペア画像(ステレオペア)を構成する2枚の基準面画像は、互いに、重なり合う部分があり、その中には同一の対象物が撮像されている。その対象物を手掛かりとして、部分的な画像の照合を行う。一つのペア画像に対して、照合する部分は複数個所検出する。既述のとおり、他と識別しやすい特徴物を多数抽出し、これら特徴物を頼りに照合するとよい。なお、ここで行う画像照合は、従来から行われている技術を利用することができ、コンピュータを用いた画像認識技術を応用して特徴物を自動検出し、これによって画像照合を行うこともできる。
5. Image Matching An image matching process constituting the orientation method of the present invention, an image matching process constituting the orientation program of the present invention, and an image matching means constituting the orientation method of the present invention will be described. The two reference plane images constituting the extracted pair image (stereo pair) have portions that overlap each other, and the same object is imaged therein. Using the object as a clue, partial image matching is performed. A plurality of portions to be collated are detected for one pair image. As described above, it is preferable to extract a large number of features that can be easily distinguished from others and to collate with these features. In addition, the image collation performed here can utilize the technique currently performed conventionally, and can apply the image recognition technique using a computer, and can detect an object automatically, and can also perform image collation by this .

標定方法を構成する画像照合工程は、ここで説明した画像照合を行う工程であり、人の判断によって抽出することもできるし、オペレータが本願発明の標定プログラムや標定装置を操作して処理することもできる。また、標定プログラムを構成するペア画像抽出処理は、ここで説明した画像照合をコンピュータに実行させる処理である。さらに、標定装置を構成する画像変換手段は、ここで説明した画像照合をコンピュータ等によって実行する手段である。   The image collation process constituting the orientation method is the image collation process described here, and can be extracted by human judgment, or can be processed by the operator operating the orientation program or orientation device of the present invention. You can also. Moreover, the pair image extraction process which comprises an orientation program is a process which makes a computer perform the image collation demonstrated here. Further, the image conversion means constituting the orientation device is means for executing the image collation described here by a computer or the like.

6.標定
本願発明の標定方法を構成する標定工程、本願発明の標定プログラムを構成する標定処理、本願発明の標定方法を構成する標定手段、について説明する。標定は、前述の画像照合の結果に基づいて行うもので、従来から用いられているバンドル法によるブロック調整をはじめ、相互標定や、単コース調整、多項式法によるブロック調整、独立モデル法によるブロック調整、DLT法などによって行われる。そして、この標定によって得られた結果が最終的な標定要素である。なお既述のとおり、内部標定要素と外部標定要素の両方を算出することもできるが、撮像手段の諸元等から求めた内部標定要素が信頼できるときは、この内部標定要素を用いて外部標定要素のみを算出することもできる。
6). Orientation The orientation process that constitutes the orientation method of the present invention, the orientation process that constitutes the orientation program of the present invention, and the orientation means that constitutes the orientation method of the present invention will be described. Orientation is based on the results of image matching described above, including block adjustment using the bundle method that has been used in the past, mutual orientation, single course adjustment, block adjustment using the polynomial method, and block adjustment using the independent model method. , DLT method or the like. The result obtained by this orientation is the final orientation element. As described above, both the internal orientation element and the external orientation element can be calculated, but when the internal orientation element obtained from the specifications of the imaging means is reliable, the external orientation can be calculated using this internal orientation element. Only elements can be calculated.

標定方法を構成する標定工程は、ここで説明した標定を行う工程であり、人の判断によって抽出することもできるし、オペレータが本願発明の標定プログラムや標定装置を操作して処理することもできる。また、標定プログラムを構成する標定処理は、ここで説明した標定をコンピュータに実行させる処理である。さらに、標定装置を構成する画像変換手段は、ここで説明した標定をコンピュータ等によって実行する手段である。   The orientation process that constitutes the orientation method is the step of performing orientation as described here, and can be extracted by human judgment, or can be processed by the operator operating the orientation program or orientation device of the present invention. . Further, the orientation processing that constitutes the orientation program is processing for causing the computer to execute the orientation described here. Further, the image conversion means constituting the orientation device is a means for executing the orientation described here by a computer or the like.

本願発明の標定方法、標定プログラム、及び標定装置は、沿道の空間情報を安価でしかも精度よく取得することができるので、地図の作成や更新を行う際に有効な発明である。また、沿道に設置される屋外広告や道路占用物を容易かつ正確に把握できるので、沿道施設の管理者にとっても極めて有用な発明である。さらに、道路に限らず、線路(軌道)沿いの状況にも容易に応用できるなど、各種の移動体で活用可能な発明である。   The orientation method, orientation program, and orientation device of the present invention are effective inventions for creating and updating maps because roadside spatial information can be obtained at low cost and with high accuracy. Moreover, since outdoor advertisements and road occupants installed along the road can be easily and accurately grasped, it is an extremely useful invention for roadside facility managers. Furthermore, it is an invention that can be used in various mobile objects such as not only roads but also easily applied to situations along tracks (tracks).

10 移動体
20 撮像手段
21 前方撮像手段
22 後方撮像手段
20v 仮想の撮像手段
h 比高差
P 撮像面
S 基準面
DESCRIPTION OF SYMBOLS 10 Moving body 20 Imaging means 21 Front imaging means 22 Rear imaging means 20v Virtual imaging means h Specific height difference P Imaging surface S Reference surface

Claims (7)

移動中に撮像した画像に基づいて標定要素を求める標定方法において、
移動しながら撮像して2以上の撮像画像を取得するとともに、撮像時における撮像位置及び撮像方向を取得する撮像工程と、
前記撮像位置及び前記撮像方向に基づいて、それぞれの前記撮像画像を、所定の基準面の画像となるよう変換して、基準面画像を得る画像変換工程と、
同一箇所を含む2つの前記基準面画像を抽出し、これらを1組のペア画像とするペア画像抽出工程と、
前記ペア画像を用いて部分画像の照合を行う画像照合工程と、
前記画像照合工程の照合結果に基づいて、前記撮像工程のそれぞれの撮像時における標定要素を求める標定工程と、を備えたことを特徴とする標定方法。
In an orientation method for obtaining orientation elements based on images taken during movement,
An imaging step of acquiring two or more captured images by imaging while moving, and acquiring an imaging position and an imaging direction at the time of imaging;
Based on the imaging position and the imaging direction, each of the captured images is converted to be an image of a predetermined reference plane, and an image conversion step for obtaining a reference plane image;
A pair image extraction step of extracting the two reference plane images including the same location and making these a pair of images;
An image matching step for matching a partial image using the pair image;
And an orientation step for obtaining orientation elements at the time of imaging in the imaging step based on the matching result of the image matching step.
撮像時における前記撮像位置及び前記撮像方向に基づいて、それぞれの前記基準面画像に対して画像位置を特定する画像位置特定工程を、さらに備え、
前記ペア画像抽出工程では、前記画像位置に基づいて、2つの前記基準面画像を抽出する、ことを特徴とする請求項1記載の標定方法。
An image position specifying step of specifying an image position for each of the reference plane images based on the image pickup position and the image pickup direction at the time of image pickup;
The orientation method according to claim 1, wherein in the pair image extraction step, the two reference plane images are extracted based on the image position.
前記撮像工程では、移動体に搭載された撮像手段によって、移動前方の前方撮像画像と、移動後方の後方撮像画像とを取得し、
前記ペア画像抽出工程では、前記前方撮像画像と前記後方撮像画像から1つずつ前記基準面画像を抽出する、ことを特徴とする請求項1又は請求項2記載の標定方法。
In the imaging step, the imaging means mounted on the moving body obtains a front captured image in front of the movement and a rear captured image in the rear of the movement,
The orientation method according to claim 1 or 2, wherein in the pair image extraction step, the reference plane image is extracted one by one from the front captured image and the rear captured image.
移動中に撮像した画像に基づいて標定要素を求める処理を、コンピュータに実行させる標定プログラムにおいて、
移動しながら撮像した2以上の撮像画像と、撮像時における撮像位置及び撮像方向と、に基づいて、それぞれの撮像画像を、所定の基準面の画像となるよう変換して、基準面画像を得る画像変換処理と、
同一箇所を含む2つの前記基準面画像を抽出し、これらを1組のペア画像として記憶するペア画像抽出処理と、
前記ペア画像を用いて部分画像の照合を行う画像照合処理と、
前記画像照合処理による照合結果に基づいて、それぞれ撮像時における標定要素を求める標定処理と、を前記コンピュータに実行させる機能を備えたことを特徴とする標定プログラム。
In an orientation program that causes a computer to execute a process for obtaining orientation elements based on an image captured during movement,
Based on two or more picked-up images picked up while moving and the pick-up position and pick-up direction at the time of pick-up, each picked-up image is converted to become a predetermined reference face image to obtain a reference face image. Image conversion processing,
A pair image extraction process for extracting two reference plane images including the same portion and storing them as a pair of pair images;
Image collation processing for collating partial images using the pair images;
An orientation program comprising a function for causing the computer to execute orientation processing for obtaining orientation elements at the time of imaging based on a matching result obtained by the image matching processing.
撮像時における前記撮像位置及び前記撮像方向に基づいて、それぞれの前記基準面画像に対して画像位置を特定する画像位置特定処理を、前記コンピュータに実行させる機能をさらに備え、
前記ペア画像抽出処理では、前記画像位置に基づいて、2つの前記基準面画像を抽出する、ことを特徴とする請求項4記載の標定プログラム。
A function of causing the computer to execute an image position specifying process for specifying an image position for each of the reference plane images based on the imaging position and the imaging direction at the time of imaging;
The orientation program according to claim 4, wherein in the pair image extraction process, the two reference plane images are extracted based on the image position.
前記ペア画像抽出処理では、移動前方を撮像した前方撮像画像と、移動後方を撮像した後方撮像画像とから、それぞれ1つずつ前記基準面画像を抽出する、ことを特徴とする請求項4又は請求項5記載の標定プログラム。   5. The paired image extraction process is characterized in that the reference plane image is extracted one by one from a front captured image obtained by imaging the front of the movement and a rear captured image obtained by imaging the rear of the movement. Item 5. The orientation program according to item 5. 移動中に撮像した画像に基づいて標定要素を求める標定装置において、
移動体と、
前記移動体に搭載され、前記移動体の前方を撮像して前方撮像画像を取得するとともに、前記移動体の後方を撮像して後方撮像画像を取得する撮像手段と、
前記移動体に搭載され、撮像時における前記撮像手段の位置を取得する位置計測手段と、
撮像時における撮像位置及び撮像方向に基づいて、それぞれ前記前方撮像画像及び前記後方撮像画を、所定の基準面の画像となるよう変換して、基準面画像を得る画像変換手段と、
同一箇所を含む前記前方撮像画像と前記後方撮像画像を1つずつ抽出し、これらを1組のペア画像とするペア画像抽出手段と、
前記ペア画像を用いて部分画像の照合を行う画像照合手段と、
前記画像照合手段による照合結果に基づいて、それぞれ撮像時における標定要素を求める標定手段と、を備えたことを特徴とする標定装置。
In an orientation device that obtains orientation elements based on images captured during movement,
A moving object,
An imaging unit mounted on the mobile body, capturing a front captured image by capturing the front of the mobile body, and capturing a rear captured image by capturing the rear of the mobile body;
A position measuring means mounted on the moving body for acquiring the position of the imaging means at the time of imaging;
Image conversion means for converting the front captured image and the rear captured image into images of a predetermined reference plane based on an imaging position and an imaging direction at the time of imaging to obtain a reference plane image;
A pair image extraction unit that extracts the front captured image and the rear captured image including the same part one by one, and sets these as a pair image;
Image collating means for collating partial images using the pair images;
An orientation device comprising orientation means for obtaining orientation elements at the time of imaging based on the result of matching by the image matching means.
JP2012238204A 2012-10-29 2012-10-29 Orientation method, orientation program, and orientation device Active JP6135972B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012238204A JP6135972B2 (en) 2012-10-29 2012-10-29 Orientation method, orientation program, and orientation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012238204A JP6135972B2 (en) 2012-10-29 2012-10-29 Orientation method, orientation program, and orientation device

Publications (2)

Publication Number Publication Date
JP2014089078A true JP2014089078A (en) 2014-05-15
JP6135972B2 JP6135972B2 (en) 2017-05-31

Family

ID=50791098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012238204A Active JP6135972B2 (en) 2012-10-29 2012-10-29 Orientation method, orientation program, and orientation device

Country Status (1)

Country Link
JP (1) JP6135972B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182564A (en) * 2016-03-31 2017-10-05 株式会社デンソーアイティーラボラトリ Positioning device, positioning method, and positioning computer program
JP6278544B1 (en) * 2017-03-22 2018-02-14 国立研究開発法人国立環境研究所 Monitoring device
JP2018087484A (en) * 2015-07-21 2018-06-07 株式会社東芝 Crack analysis apparatus, crack analysis method, and crack analysis program
JP2019046209A (en) * 2017-09-04 2019-03-22 国際航業株式会社 Vehicle position acquisition system and vehicle position acquisition method
US11099030B2 (en) 2016-06-02 2021-08-24 Mitsubishi Electric Corporation Attitude estimation apparatus, attitude estimation method, and observation system
US11195324B1 (en) 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS582609A (en) * 1981-06-27 1983-01-08 Fujitsu Ltd Altitude data extracting method utilizing remote sensing data from sattelite
JPH08159762A (en) * 1994-12-01 1996-06-21 Asahi Koyo Kk Method and apparatus for extracting three-dimensional data and stereo image forming apparatus
EP1168246A2 (en) * 2000-06-26 2002-01-02 Kabushiki Kaisha Topcon Stereo image measuring device
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2009271895A (en) * 2008-04-30 2009-11-19 Kokusai Kogyo Co Ltd Image set and method for independent rectification
JP2010014450A (en) * 2008-07-01 2010-01-21 Topcon Corp Position measurement method, position measurement device, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS582609A (en) * 1981-06-27 1983-01-08 Fujitsu Ltd Altitude data extracting method utilizing remote sensing data from sattelite
JPH08159762A (en) * 1994-12-01 1996-06-21 Asahi Koyo Kk Method and apparatus for extracting three-dimensional data and stereo image forming apparatus
EP1168246A2 (en) * 2000-06-26 2002-01-02 Kabushiki Kaisha Topcon Stereo image measuring device
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2009271895A (en) * 2008-04-30 2009-11-19 Kokusai Kogyo Co Ltd Image set and method for independent rectification
JP2010014450A (en) * 2008-07-01 2010-01-21 Topcon Corp Position measurement method, position measurement device, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018087484A (en) * 2015-07-21 2018-06-07 株式会社東芝 Crack analysis apparatus, crack analysis method, and crack analysis program
JP2020056303A (en) * 2015-07-21 2020-04-09 株式会社東芝 Crack analyzer, crack analysis method, and crack analysis program
US10648922B2 (en) 2015-07-21 2020-05-12 Kabushiki Kaisha Toshiba Crack analysis device, crack analysis method, and crack analysis program
JP2017182564A (en) * 2016-03-31 2017-10-05 株式会社デンソーアイティーラボラトリ Positioning device, positioning method, and positioning computer program
US11099030B2 (en) 2016-06-02 2021-08-24 Mitsubishi Electric Corporation Attitude estimation apparatus, attitude estimation method, and observation system
JP6278544B1 (en) * 2017-03-22 2018-02-14 国立研究開発法人国立環境研究所 Monitoring device
JP2018159578A (en) * 2017-03-22 2018-10-11 国立研究開発法人国立環境研究所 Monitoring device
JP2019046209A (en) * 2017-09-04 2019-03-22 国際航業株式会社 Vehicle position acquisition system and vehicle position acquisition method
US11195324B1 (en) 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures
US11704866B2 (en) 2018-08-14 2023-07-18 Certainteed Llc Systems and methods for visualization of building structures

Also Published As

Publication number Publication date
JP6135972B2 (en) 2017-05-31

Similar Documents

Publication Publication Date Title
CN110859044B (en) Integrated sensor calibration in natural scenes
JP4232167B1 (en) Object identification device, object identification method, and object identification program
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
CN109813335B (en) Calibration method, device and system of data acquisition system and storage medium
JP5389964B2 (en) Map information generator
JP6135972B2 (en) Orientation method, orientation program, and orientation device
KR100800554B1 (en) Texture mapping method of 3d feature model using the camera and laser scanner
KR100671529B1 (en) Drawing method of three-dimensional cubic map using multi aerial photograph image
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
JP5762131B2 (en) CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM
JP4978615B2 (en) Target identification device
WO2011120141A1 (en) Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination
EP1672314A3 (en) Method for preparing a stereo image and three-dimensional data preparation system
JP2002156229A (en) Mobile displacement measuring method and device for structure
JP5716273B2 (en) Search target position specifying device, search target position specifying method and program
KR20110119589A (en) System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof
JP3808833B2 (en) Aerial photogrammetry
CN102224523A (en) Stereo matching process system, stereo matching process method, and recording medium
JP5256464B2 (en) Image top feature measurement method, display method, and measurement apparatus
JP2018185239A (en) Position attitude estimation device and program
JP5769149B2 (en) Mobile mapping system, roadside object measurement method using the same, and position specifying program
CN102620745A (en) Airborne inertial measurement unite (IMU) collimation axis error calibration method
CN105959529B (en) It is a kind of single as method for self-locating and system based on panorama camera
Kim et al. An advanced approach for navigation and image sensor integration for land vehicle navigation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170413

R150 Certificate of patent or registration of utility model

Ref document number: 6135972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250