JP2015125092A - Consistency determination method of measurement result and consistency determination apparatus of measurement result - Google Patents

Consistency determination method of measurement result and consistency determination apparatus of measurement result Download PDF

Info

Publication number
JP2015125092A
JP2015125092A JP2013271041A JP2013271041A JP2015125092A JP 2015125092 A JP2015125092 A JP 2015125092A JP 2013271041 A JP2013271041 A JP 2013271041A JP 2013271041 A JP2013271041 A JP 2013271041A JP 2015125092 A JP2015125092 A JP 2015125092A
Authority
JP
Japan
Prior art keywords
terrain
image
model
consistency
measurement point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013271041A
Other languages
Japanese (ja)
Other versions
JP6347061B2 (en
Inventor
栄 向山
Sakae Mukoyama
栄 向山
本間 信一
Shinichi Honma
信一 本間
謙一 本田
Kenichi Honda
謙一 本田
心介 石月
Shinsuke Ishizuki
心介 石月
容子 小林
Yoko Kobayashi
容子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Kogyo Co Ltd
Original Assignee
Kokusai Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Kogyo Co Ltd filed Critical Kokusai Kogyo Co Ltd
Priority to JP2013271041A priority Critical patent/JP6347061B2/en
Publication of JP2015125092A publication Critical patent/JP2015125092A/en
Application granted granted Critical
Publication of JP6347061B2 publication Critical patent/JP6347061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a consistency determination method of a measurement result and a consistency determination apparatus of a measurement result in which when consistency is determined regarding two and more different results of measuring a same area, determination elements can include a range in a horizontal direction in addition of a range in a height direction.SOLUTION: A consistency determination method of a measurement result determines consistency by comparing two measurement point groups obtained in a same area. The method includes a topographic quantity calculation process and a topographic image generation process. In the topographic quantity calculation process a tomographic quantity is calculated for each mesh constituting a topographic model, and in the topographic image generation process a topographic image based on the topographic quantity is generated. And, consistency of two measurement point groups is determined by collating both topographic images.

Description

本願発明は、同一領域を対象に取得された2つの計測点群を比較してその整合性を判定する技術に関するものであり、より具体的には2つの計測結果から得られた地形量を基にそれぞれ画像化し、これら画像どうしを比較照合することで両者の整合性を判定する計測結果の整合性判定方法、及び計測結果の整合性判定装置に関するものである。   The present invention relates to a technique for comparing two measurement point groups acquired for the same region and determining the consistency thereof, and more specifically, based on the amount of topography obtained from two measurement results. In particular, the present invention relates to a measurement result consistency determination method and a measurement result consistency determination apparatus that determine the consistency between the images by comparing the images.

地形図の作製など広範囲に渡って地形計測を行う場合、従来では航空機から撮影した空中写真を利用するのが一般的であったが、昨今では、航空レーザー計測や、衛星写真を利用した計測、あるいは合成開口レーダを利用した計測といった様々な計測手法が実用化され、状況に応じて好適な手法を選択できるようになった。   In the past, when performing topographic measurements over a wide range, such as creating topographic maps, it was common to use aerial photographs taken from aircraft, but nowadays, aerial laser measurements, measurements using satellite photographs, Alternatively, various measurement methods such as measurement using synthetic aperture radar have been put into practical use, and a suitable method can be selected according to the situation.

このうち航空レーザー計測は、図1に示すように、計測したい地形Fの上空を航空機Pで飛行し、地形Fに対して照射したレーザーパルスLの反射信号を受けて計測するものである。航空機Pには通常、GPS(Global Positioning System)などの測位計とIMU(Inertial Measurement Unit)などの慣性計測装置が搭載されているので、レーザーパルスLの照射位置(x,y,z)と照射姿勢(ω,φ,κ)を把握することができ、その結果、照射時刻と受信時刻の時間差から計測点(レーザーパルスLが反射した地点)の3次元座標を得ることができる。   Among these, as shown in FIG. 1, the aviation laser measurement is performed by flying the aircraft P over the terrain F to be measured and receiving a reflection signal of the laser pulse L irradiated to the terrain F. Since the aircraft P is normally equipped with a positioning device such as GPS (Global Positioning System) and an inertial measurement device such as IMU (Internal Measurement Unit), the irradiation position (x, y, z) and irradiation of the laser pulse L The posture (ω, φ, κ) can be grasped, and as a result, the three-dimensional coordinates of the measurement point (the point where the laser pulse L is reflected) can be obtained from the time difference between the irradiation time and the reception time.

地形Fで反射したレーザーパルスLは、航空機Pに搭載されたセンサで受信され、戻ってきたときのレーザーパルスLの強度(以下、「反射強度」という。)を取得し、受信時刻と併せて記録される。この反射強度は、いわば受信したレーザーパルスLのエネルギーの大きさであり、直接的には電圧として計測され、電圧を換算することでエネルギーの大きさが得られる。図1に示すように、一回の計測(フライト)で多数のレーザーパルスLが照射され、そのレーザーパルスLに応じた数の照射強度が記録される。   The laser pulse L reflected by the terrain F is received by a sensor mounted on the aircraft P, acquires the intensity of the laser pulse L when returning (hereinafter referred to as “reflection intensity”), and is combined with the reception time. To be recorded. This reflection intensity is the so-called energy level of the received laser pulse L, and is directly measured as a voltage, and the energy level can be obtained by converting the voltage. As shown in FIG. 1, a large number of laser pulses L are irradiated in one measurement (flight), and the number of irradiation intensities corresponding to the laser pulses L is recorded.

航空レーザー計測は、通常、広い範囲を計測対象とするため、複数のコース(航路)を飛行することで計測対象範囲を網羅している。そして、計測漏れ領域が生じないように隣接するコースではある程度重複(サイドラップ)して計測を行っている。つまり、サイドラップ範囲では異なるコースを飛行した2種類の計測を行っているわけである。   Aviation laser measurement usually covers a wide range, and therefore covers a range to be measured by flying a plurality of courses (routes). Then, the adjacent courses are measured to some extent (side wrap) so that the measurement omission area does not occur. In other words, in the side lap range, two types of measurements are performed on different courses.

ところで航空レーザー計測では、GPSやIMUなどの機器に依存する誤差や、レーザーパルスLが大気を通過することによる誤差を持つことが知られている。したがって、サイドラップ範囲で得られた2種類の計測結果には相違が生じ、すなわち双方の計測結果が整合しないことがある。そのため航空レーザー計測を行った際には、サイドラップ範囲における2つの計測結果を比較して整合性を判断するコース間検証が行われ、整合しないと判断された場合には両計測結果を整合させるコース間調整が行われる。   By the way, it is known that aviation laser measurement has an error depending on equipment such as GPS and IMU and an error due to the laser pulse L passing through the atmosphere. Therefore, there is a difference between the two types of measurement results obtained in the side wrap range, that is, the two measurement results may not match. Therefore, when performing aerial laser measurement, cross-course verification is performed to determine consistency by comparing two measurement results in the side lap range. If it is determined that they do not match, both measurement results are aligned. Coordination between courses is performed.

航空レーザー計測により得られる結果は、離散した多数の点である。このような点群からなる2種類の計測結果を比較する場合、これまでは横断図や縦断図など点群に基づく地形を描いたうえで比較していた。2種類の地形を比較し、同一の平面位置における高さの相違を見るわけである。言い換えれば、計測較差のうち高さ方向の較差のみによって両者の整合性を判断し、水平方向の較差による不整合は判断に含めていなかった。   The results obtained from aero laser measurements are a large number of discrete points. When comparing two types of measurement results consisting of such point clouds, the comparison has been made after drawing the topography based on point clouds such as cross-sections and vertical sections. Two types of terrain are compared, and the difference in height at the same plane position is seen. In other words, the consistency between the two was determined only by the height difference among the measurement differences, and the mismatch due to the horizontal difference was not included in the determination.

コース間検証を行う場合、本来であれば高さ方向の較差に加え、水平方向の較差も含めたうえで整合性判定を行うことが望ましい。しかしながら、コース間検証に限らず2時期の計測結果を比較する場合であっても、航空レーザー計測のように離散した点群を2つ照らし合わせるには、平面位置を基準として高さを比較するのが主流であった。   When performing inter-course verification, it is desirable to perform consistency determination after including a horizontal difference in addition to a height difference. However, not only between course verifications but also when comparing measurement results of two periods, to compare two discrete point clouds as in aerial laser measurement, compare the heights with reference to the plane position Was the mainstream.

そこで特許文献1では、2時期の地形を比較する際、離散した点群から地形モデルを作成し、この地形モデルを構成するメッシュごとに地形量を算出するとともに、当該地形量に応じた画像を作成することを提案している。2時期の地形が画像化されることによって、部分的な地形変化が明瞭になり、しかも地形モデルを作成した効果で3次元(平面方向と高さ方向)の変位ベクトルを求めることができる。すなわち、高さ方向の変化のみならず、平面方向の変化を確認することができるわけである。   Therefore, in Patent Document 1, when comparing the terrain of two periods, a terrain model is created from discrete point clouds, the terrain amount is calculated for each mesh constituting the terrain model, and an image corresponding to the terrain amount is displayed. Propose to create. By imaging the topography of the two periods, the partial topographic change becomes clear, and a three-dimensional (plane direction and height direction) displacement vector can be obtained by the effect of creating a topographic model. That is, not only the change in the height direction but also the change in the plane direction can be confirmed.

特開2010−266419号公報JP 2010-266419 A

特許文献1は、2時期における地形の変化を把握するには好適な技術であるが、コース間検証に用いる技術について提案しているものではない。すなわち、2時期の計測結果は確からしい(許容すべき誤差範囲内にある)ことを前提にしたものであって、種々の誤差が生じることを前提に本来一致すべき2種類の計測結果の較差(あるいはその程度)を判定する技術ではない。本願発明の課題は、上記問題を解決することであり、すなわち同一領域を計測した2以上の異なる結果について整合性の判定を行う際に、高さ方向の較差に加えて水平方向の較差も判定要素に含めることのできる計測結果の整合性判定方法、及び計測結果の整合性判定装置を提供することにある。   Patent Document 1 is a suitable technique for grasping a change in topography in two periods, but does not propose a technique used for inter-course verification. In other words, it is based on the premise that the measurement results of the two periods are probable (within an allowable error range), and the difference between the two types of measurement results that should be consistent with each other assuming that various errors occur. It is not a technique for determining (or the extent). An object of the present invention is to solve the above-mentioned problem, that is, when performing consistency determination for two or more different results obtained by measuring the same region, in addition to the difference in the height direction, the difference in the horizontal direction is also determined. An object of the present invention is to provide a measurement result consistency determination method and a measurement result consistency determination apparatus that can be included in an element.

本願発明は、コース間検証など本来一致すべき2種類の計測結果の整合性の判定を行うに際し、DSM(Digital Surface Model)やDEM(Digital Elevation Model)など3次元の空間情報に基づく地形モデルを利用し、算出される地形量を基に画像化したもので比較するという点に着目したものであり、従来にはなかった発想に基づいてなされた発明である。   The present invention uses a topographic model based on three-dimensional spatial information, such as DSM (Digital Surface Model) and DEM (Digital Elevation Model), when determining consistency between two types of measurement results that should be consistent, such as cross-course verification. The invention is based on an idea that has not been used in the past, focusing on the fact that it is used and compared based on the calculated amount of topography.

本願発明の計測結果の整合性判定方法は、同一の領域で得られた2つの計測点群を比較して整合性を判定する方法であり、地形量算出工程と地形画像作成工程を備えた方法である。本願発明を実施するに当たっては、複数のメッシュからなるモデルを2つ用意する。一つは第1の計測点群に基づき作成された第1の地形モデルであり、もう一つは第2の計測点群に基づき作成された第2の地形モデルである。地形量算出工程では、第1の地形モデルを構成するメッシュごとに地形量を算出するとともに、第2の地形モデルを構成するメッシュごとに地形量を算出する。地形画像作成工程では、地形量に基づいて第1の地形モデルを画像化した第1の地形画像を作成するとともに、同じく地形量に基づいて第2の地形モデルを画像化した第2の地形画像を作成する。そして、第1の地形画像と第2の地形画像を画像照合することによって、2つの計測点群の整合性を判定する。   The measurement result consistency determination method of the present invention is a method for determining consistency by comparing two measurement point groups obtained in the same region, and includes a terrain amount calculation step and a terrain image creation step. It is. In practicing the present invention, two models composed of a plurality of meshes are prepared. One is a first terrain model created based on the first measurement point group, and the other is a second terrain model created based on the second measurement point group. In the terrain amount calculation step, the terrain amount is calculated for each mesh constituting the first terrain model, and the terrain amount is calculated for each mesh constituting the second terrain model. In the terrain image creation step, a first terrain image obtained by imaging the first terrain model based on the terrain amount and a second terrain image obtained by imaging the second terrain model based on the terrain amount are also used. Create Then, the consistency between the two measurement point groups is determined by performing image matching between the first terrain image and the second terrain image.

本願発明の計測結果の整合性判定方法は、さらに、部分照合工程と、較差ベクトル算出工程、不整合領域検出工程を備えた方法とすることもできる。部分照合工程では、第1の地形画像を分割して複数の検索領域を得るとともに、それぞれの検索領域を基に画像照合を行って第2の地形画像から照合領域を抽出する。較差ベクトル算出工程では、検索領域と照合領域から較差ベクトルを算出する。不整合領域検出工程では、較差ベクトルに基づいて、第1の計測点群と第2の計測点群が整合していない不整合領域を検出する。   The measurement result consistency determination method according to the present invention may further include a partial verification step, a difference vector calculation step, and a mismatch region detection step. In the partial collation step, the first topographic image is divided to obtain a plurality of search areas, and image collation is performed based on each search area to extract a collation area from the second topographic image. In the difference vector calculation step, a difference vector is calculated from the search area and the collation area. In the inconsistent area detecting step, an inconsistent area in which the first measurement point group and the second measurement point group are not matched is detected based on the difference vector.

本願発明の計測結果の整合性判定装置は、地形モデル読み出し手段と、地形量算出手段、地形画像作成手段、画像照合手段を備えたものである。地形モデル読み出し手段は、複数のメッシュからなるモデルを2つ読み出す。すなわち、第1の計測点群に基づき作成された第1の地形モデルと、第2の計測点群に基づき作成された第2の地形モデルである。地形量算出手段は、第1の地形モデルを構成するメッシュごとに地形量を算出するとともに、第2の地形モデルを構成するメッシュごとに地形量を算出する。地形画像作成手段は、地形量に基づいて、第1の地形モデルを画像化した第1の地形画像を作成するとともに、第2の地形モデルを画像化した第2の地形画像を作成する。画像照合手段は、第1の地形画像と第2の地形画像を画像照合する。そして、画像照合の結果によって2つの計測点群の整合性を判定する。   The apparatus for determining consistency of measurement results according to the present invention includes a terrain model reading unit, a terrain amount calculating unit, a terrain image creating unit, and an image collating unit. The terrain model reading means reads two models composed of a plurality of meshes. That is, a first terrain model created based on the first measurement point group and a second terrain model created based on the second measurement point group. The terrain amount calculation means calculates the terrain amount for each mesh constituting the first terrain model, and calculates the terrain amount for each mesh constituting the second terrain model. The terrain image creating means creates a first terrain image obtained by imaging the first terrain model based on the amount of terrain, and creates a second terrain image obtained by imaging the second terrain model. The image collating means collates the first terrain image and the second terrain image. Then, the consistency of the two measurement point groups is determined based on the result of image collation.

本願発明の計測結果の整合性判定装置は、さらに、部分照合手段と、較差ベクトル算出手段、不整合領域検出手段を含むものとすることもできる。部分照合手段は、第1の地形画像を分割して複数の検索領域を得るとともに、それぞれの検索領域を基に画像照合を行って第2の地形画像から照合領域を抽出する。較差ベクトル算出手段は、検索領域と照合領域から較差ベクトルを算出する。不整合領域検出手段は、較差ベクトルに基づいて、第1の計測点群と第2の計測点群が整合していない不整合領域を検出する。   The measurement result consistency determination apparatus according to the present invention may further include a partial verification unit, a difference vector calculation unit, and an inconsistency region detection unit. The partial matching unit divides the first terrain image to obtain a plurality of search areas, and performs image matching based on each search area to extract a matching area from the second terrain image. The difference vector calculation means calculates a difference vector from the search area and the collation area. The inconsistent area detecting means detects an inconsistent area in which the first measurement point group and the second measurement point group are not matched based on the difference vector.

本願発明の計測結果の整合性判定方法、及び計測結果の整合性判定装置には、次のような効果がある。
(1)例えばコース間検証を行う場合、高さ方向の較差に加え、水平方向の較差も整合性判断に含めることができる。この結果、より適切なコース間検証を行うことができ、ひいては良質な計測結果を得ることができる。
(2)明瞭なキャリブレーションサイトがない森林等でも、容易かつ適切に整合性の判定を行うことができる。
(3)画像照合によって性判断することから、不整合箇所を明確に抽出することができる。
The measurement result consistency determination method and measurement result consistency determination apparatus of the present invention have the following effects.
(1) For example, when performing inter-course verification, in addition to the difference in the height direction, the difference in the horizontal direction can be included in the consistency determination. As a result, more appropriate course-to-course verification can be performed, and as a result, a high-quality measurement result can be obtained.
(2) The consistency can be determined easily and appropriately even in a forest or the like that does not have a clear calibration site.
(3) Since sex determination is performed by image matching, inconsistent portions can be clearly extracted.

航空レーザーによる計測状況を示す説明図。Explanatory drawing which shows the measurement condition by an aviation laser. 「表面」を説明するモデル図。The model figure explaining "surface". 「地表面」を説明するモデル図。The model figure explaining "the ground surface". 整合性判定装置の構成を示すブロック図。The block diagram which shows the structure of a consistency determination apparatus. (a)は検索領域を説明するモデル図、(b)は被検索範囲を説明するモデル図。(A) is a model diagram explaining a search area, (b) is a model diagram explaining a search range. 第2の地形画像における「検索領域に相当する領域」と「照合領域」を示すモデル図。The model figure which shows the "area | region equivalent to a search area" and the "collation area | region" in a 2nd topographic image. 照合領域の位置を補正する考え方を示すグラフ図。The graph figure which shows the view which correct | amends the position of a collation area | region. 検索領域の中から選出されたテンプレートを示す説明図。Explanatory drawing which shows the template elected from the search area | region. (a)は検索領域の画像を示したモデル図、(b)は第2の地形画像を示したモデル図。(A) is the model figure which showed the image of the search area | region, (b) is the model figure which showed the 2nd topographic image. 整合性判定装置で実行される処理手順を示すフロー図。The flowchart which shows the process sequence performed with a consistency determination apparatus.

本願発明の計測結果の整合性判定方法、及び計測結果の整合性判定装置の実施形態の一例を、図に基づいて説明する。   An example of embodiments of a measurement result consistency determination method and a measurement result consistency determination apparatus according to the present invention will be described with reference to the drawings.

1.全体概要
本願発明は、ある程度広い範囲(以下、「対象領域」という。)に対して実施された計測結果に主に用いられ、すなわち広範囲から取得された3次元の空間情報を利用する。そこで、まずは3次元の空間情報について説明する。
1. Overall Outline The present invention is mainly used for measurement results carried out over a certain wide range (hereinafter referred to as “target region”), that is, uses three-dimensional spatial information acquired from a wide range. Therefore, first, three-dimensional spatial information will be described.

3次元の空間情報は、平面座標値と高さの情報を持つ点や線、面、あるいはこれらの組み合わせで構成される情報である。さらに平面座標値とは、緯度と経度あるいはX座標とY座標で表されるものであり、高さとは標高など所定の基準水平面からの鉛直方向の距離を意味する。この3次元の空間情報は、種々の手段によって作成することができる。例えば、2枚1組のステレオ航空写真(衛星写真)を基に作成したり、航空レーザー計測や衛星レーダ計測によって作成したり、あるいは直接現地を測量して作成することもできる。   The three-dimensional spatial information is information composed of points, lines, surfaces, or combinations thereof having plane coordinate values and height information. Further, the plane coordinate value is represented by latitude and longitude or X and Y coordinates, and the height means a vertical distance from a predetermined reference horizontal plane such as an altitude. This three-dimensional spatial information can be created by various means. For example, it can be created based on a set of two stereo aerial photographs (satellite photographs), can be created by aerial laser measurement or satellite radar measurement, or can be created by surveying the site directly.

ステレオ航空写真や航空レーザー計測に基づいて作成される3次元の空間情報は、通常、「表面」を表すものである。ここで表面とは、図2にも示すように、森林や農地といった緑被物や建物など地面上に立ち上がる地物の上面を意味する。これに対して「地表面」は、図3にも示すように、緑被物や建物などを取り除いた後の面、すなわち地面のことを意味する。ここでは、「表面」を3次元の空間情報で表したものを「表層モデル」、「地表面」を3次元の空間情報で表したものを「地表モデル」ということとする。なお、表層モデルの代表的なものもとしてはDSMが知られており、地表モデルの代表的なものもとしてはDEMが知られている。   The three-dimensional spatial information created on the basis of stereo aerial photographs and aerial laser measurements usually represents a “surface”. Here, as shown in FIG. 2, the surface means the upper surface of a feature that stands on the ground, such as a green object such as a forest or farmland, or a building. On the other hand, the “ground surface” means a surface after removing green objects or buildings, that is, the ground as shown in FIG. Here, the “surface” is represented by three-dimensional spatial information, the “surface model”, and the “surface” is represented by three-dimensional spatial information, “the ground model”. Note that DSM is known as a typical surface layer model, and DEM is known as a typical surface model.

地表モデルを作成するためには、表層モデルから緑被物や建物などを取り除く処理、いわゆるフィルタリング処理が行われる。フィルタリング処理は広く知られた技術であり、所定の条件に合うものを緑被物や建物として認識し除外する。この処理は、汎用のソフトウェアを用いてコンピュータで実行されることが一般的である。   In order to create the ground surface model, processing for removing green objects and buildings from the surface layer model, so-called filtering processing is performed. The filtering process is a well-known technique, and recognizes and excludes objects that meet a predetermined condition as green objects or buildings. This process is generally executed by a computer using general-purpose software.

つぎに、本願発明の概要について説明する。本願発明では、表層モデルや地表モデルに基づいて作成される(あるいは、表層モデルや地表モデルそのものである)「地形モデル」を利用する。この地形モデルは多数のグリッドとそのグリッドで区切られるメッシュを備えており、言い換えれば地形モデルは複数のメッシュによって構成されている。また、本願発明は同一領域を計測した2以上の異なる結果について整合性の判定を行うものであるから、異なる2つの地形モデルを用いる。なお便宜上ここでは、2つの地形モデルのうち一方を「第1の地形モデル」、他方を「第2の地形モデル」という。   Next, an outline of the present invention will be described. In the present invention, a “terrain model” created based on a surface layer model or a ground surface model (or a surface layer model or a ground surface model itself) is used. This terrain model includes a large number of grids and meshes separated by the grids. In other words, the terrain model is composed of a plurality of meshes. In addition, since the present invention determines consistency for two or more different results obtained by measuring the same region, two different terrain models are used. For convenience, one of the two terrain models is referred to as a “first terrain model” and the other is referred to as a “second terrain model”.

2以上の異なる結果について整合性の判定を行うため、第1の地形モデルと第2の地形モデルを比較するわけであるが、このとき両地形モデルを画像化したうえで比較する。地形モデルを画像化するには、メッシュごとに地形量を算出し、この地形量に応じた画素情報を付与することによって行う。第1の地形モデルの画像と、第2の地形モデルの画像を比較することで、地形の較差量及び較差方向(以下、「較差ベクトル」という。)が求められ、この較差ベクトルに基づいて整合性の判定を行うことができる。   In order to determine consistency between two or more different results, the first terrain model and the second terrain model are compared. At this time, both terrain models are imaged and compared. In order to image the terrain model, the terrain amount is calculated for each mesh, and pixel information corresponding to the terrain amount is given. By comparing the image of the first terrain model and the image of the second terrain model, a difference amount and a direction of the terrain (hereinafter referred to as a “difference vector”) are obtained, and matching is performed based on the difference vector. Sex determination can be made.

以下、要素ごとに詳述する。なおここでは、計測結果の整合性判定装置(以下、単に「整合性判定装置」という。)の例で本願発明の技術内容を説明することとし、計測結果の整合性判定方法特有の内容については後に説明することとする。   Hereinafter, each element will be described in detail. Here, the technical contents of the present invention will be described using an example of a measurement result consistency determination apparatus (hereinafter simply referred to as “consistency determination apparatus”), and the contents specific to the measurement result consistency determination method will be described. This will be explained later.

2.整合性判定装置
(構成手段)
図4は、整合性判定装置100の構成を示すブロック図である。この図に示すように整合性判定装置100は種々の手段によって構成され、これらの手段はコンピュータを用いることで好適に実行される。以下、各手段について詳しく説明する。入力手段110は、後述する種々の手段に対して処理を実行すべく指示を与えるものであり、キーボードやポインティングデバイスなどを利用することができる。
2. Consistency judgment device (configuration means)
FIG. 4 is a block diagram illustrating a configuration of the consistency determination device 100. As shown in this figure, the consistency determination apparatus 100 is constituted by various means, and these means are preferably executed by using a computer. Hereinafter, each means will be described in detail. The input unit 110 gives an instruction to execute processing to various units described later, and a keyboard, a pointing device, or the like can be used.

図4に示す地形モデル記憶手段120は、第1の地形モデルと第2の地形モデルを記憶するものであり、コンピュータのハードディスクやCD−ROMといった記憶媒体である。つまり、これらの地形モデルはコンピュータで処理可能なデータ形式で形成されている。なお地形モデル記憶手段120は、第1の地形モデル用、第2の地形モデル用それぞれ別に用意してもよいし、一体のものとして構成することもできる。また図4に示すようにデータ登録手段130を備え、このデータ登録手段130によって第1の地形モデルや第2の地形モデルを、コンピュータのハードディスク等に記憶させることもできる。   The terrain model storage means 120 shown in FIG. 4 stores the first terrain model and the second terrain model, and is a storage medium such as a computer hard disk or CD-ROM. That is, these terrain models are formed in a data format that can be processed by a computer. The terrain model storage unit 120 may be prepared separately for the first terrain model and for the second terrain model, or may be configured as an integral unit. Further, as shown in FIG. 4, data registration means 130 is provided, and the data registration means 130 can store the first terrain model and the second terrain model in a hard disk of a computer or the like.

既述のとおり、地形モデルは複数のメッシュによって構成されている。メッシュは、例えば直交するグリッドに区切られて形成されるもので、メッシュごとに代表点を備えている。レーザー計測点は通常ランダムデータであるため、メッシュの代表点に高さを与えるには幾何計算されることが多い。この算出方法としては、ランダムデータから形成される不整三角網によって高さを求めるTIN(Triangulated Irregular Network)による手法、最も近いレーザー計測点4を採用する最近隣法(Nearest Neibor)による手法のほか、逆距離加重法(IWD)、Kriging法、平均法など従来から用いられる種々の手法を採用することができる。なお、メッシュを構成するグリッドは必ずしも直交する必要はなく、任意の交差角によるグリッドとすることができる。また、ここで用いる第1の地形モデルと第2の地形モデルは、本願発明のために作成してもよいし、当然ながら既製のものがあればこれを利用することもできる。   As described above, the terrain model is composed of a plurality of meshes. The mesh is formed by being divided into, for example, orthogonal grids, and each mesh has a representative point. Since the laser measurement point is usually random data, geometric calculation is often performed to give a height to the representative point of the mesh. As this calculation method, in addition to a method by TIN (Triangulated Irregular Network) for obtaining height by an irregular triangle network formed from random data, a method by nearest neighbor method (Nearest Neibor) employing the nearest laser measurement point 4, Various conventionally used methods such as an inverse distance weighting method (IWD), a Kriging method, and an averaging method can be employed. In addition, the grid which comprises a mesh does not necessarily need to orthogonally cross, and can be made into the grid by arbitrary crossing angles. In addition, the first terrain model and the second terrain model used here may be created for the present invention, and of course, if there is a ready-made one, it can be used.

地形モデル読み出し手段140は、入力手段110によって入力された指示に従って、地形モデル記憶手段120から第1の地形モデルや第2の地形モデルを読み出す。地形量算出手段150は、地形モデル読み出し手段140で読み出した地形モデルのメッシュごとに地形量を算出するものである。ここで地形量とは、地形の特徴を表すいわば指標であり、メッシュの代表点や元のランダムデータなどに基づいて算出される。   The terrain model reading unit 140 reads the first terrain model and the second terrain model from the terrain model storage unit 120 in accordance with the instruction input by the input unit 110. The terrain amount calculation unit 150 calculates the terrain amount for each mesh of the terrain model read by the terrain model reading unit 140. Here, the terrain amount is a so-called index representing the feature of the terrain, and is calculated based on the representative points of the mesh, the original random data, and the like.

地形量としては、標高値、ラプラシアン値、地上開度値、地下開度値、傾斜量、あるいはこれらの組み合わせなどを例示することができる。ここでラプラシアン値とは、一般には傾斜の変化率を表すラプラシアン図を描画するためのものである。このラプラシアン図は、くぼんだ地形で正、突出した地形で負となり、地形の変化が大きいところで絶対値が大きくなるといった特徴がある。   Examples of the terrain amount include an altitude value, a Laplacian value, a ground opening value, an underground opening value, an inclination amount, or a combination thereof. Here, the Laplacian value is generally used for drawing a Laplacian diagram that represents the rate of change in inclination. This Laplacian diagram has a feature that it is positive in a depressed terrain, negative in a protruding terrain, and has an absolute value where the change in the terrain is large.

地上開度値や地下開度値は、一般には開度図を描画するためのものである。開度図のうち地上開度図は、着目する地点から一定距離内で見える空の広さを表しているもので、周囲から突出している地点ほど地上開度値は大きくなり、例えば、山頂や尾根で大きな地上開度値を示し、その結果、突出した山頂や尾根が強調されるといった特徴がある。一方、開度図のうち地下開度図は、地上開度図とは逆に、地表面から地下を見渡す時、一定距離内における地下の広さを表しており、地下にくい込んでいる地点ほど地下開度値は大きい値を示し、例えば、くぼ地や谷底で大きな地下開度値を示し、その結果、くぼ地や谷地が強調されるといった特徴がある。   The ground opening value and the underground opening value are generally for drawing an opening diagram. Among the opening diagrams, the ground opening diagram represents the extent of the sky that can be seen within a certain distance from the point of interest, and the ground opening value increases as the point protrudes from the surroundings. The ridge shows a large ground opening value, and as a result, it has a feature that the protruding peak and ridge are emphasized. On the other hand, in the opening map, the underground opening map shows the size of the basement within a certain distance when looking down from the ground surface, contrary to the ground opening map. The underground opening value indicates a large value, for example, a large underground opening value is indicated at a depression or a valley bottom, and as a result, the depression or valley is emphasized.

傾斜量は、一般に傾斜量図を描画するためのものである。傾斜量図は、地形の傾斜の度合いを示すもので、傾斜が大きいほど大きな傾斜値を示し、逆に緩やかな傾斜であるほど小さな傾斜値を示す。   The tilt amount is generally used for drawing a tilt amount diagram. The inclination amount map indicates the degree of inclination of the terrain. The larger the inclination, the larger the inclination value, and vice versa.

地形画像作成手段160は、地形量算出手段150で算出した地形量に基づいて地形画像を作成するもので、具体的には画像作成のための画素(ピクセル)に対して地形量に応じた画素情報を付与し、この画素情報を持つ画素を集合することで地形画像を作成する。この画素は、メッシュを基準に形成されるものであり、例えば1メッシュを1画素としたり、4つのメッシュを1画素としたり、9つのメッシュを1画素とするなど、種々のメッシュの組み合わせで画素を形成することができる。   The terrain image creating unit 160 creates a terrain image based on the terrain amount calculated by the terrain amount calculating unit 150. Specifically, the pixel corresponding to the terrain amount with respect to pixels (pixels) for image creation. A terrain image is created by adding information and collecting pixels having the pixel information. This pixel is formed on the basis of a mesh. For example, one pixel is one pixel, four meshes are one pixel, and nine meshes are one pixel. Can be formed.

画素に付与する画素情報とは、輝度や色(色相、彩度、及び明度)を表すものであり、RGBや、CMYK、NCSのような色モデルを使用することができる。画素情報は、メッシュの地形量に応じて与えられ、例えば地形量が大きな値を示す順に、赤、橙、黄、緑、青と定めたり、地形量のレンジにあわせて256階調の濃淡を割り当てたり、あるいは、標高値は色,傾斜量は輝度の組み合わせとするなど、任意に設定することができる。   Pixel information given to a pixel represents brightness and color (hue, saturation, and brightness), and color models such as RGB, CMYK, and NCS can be used. Pixel information is given according to the terrain amount of the mesh. For example, red, orange, yellow, green, and blue are set in the order in which the terrain amount shows a large value. The altitude value can be arbitrarily set, for example, the altitude value can be a color and the slope amount can be a combination of brightness.

上記手順により、第1の地形モデルを基に「第1の地形画像」が、第2の地形モデルを基に「第2の地形画像」が作成される。第1の地形画像と第2の地形画像が作成されると、一方を「検索画像」として選択し、他方を「被検索画像」として選択する。ここでは便宜上、第1の地形画像を検索画像とし、第2の地形画像を被検索画像とする場合で説明する。   By the above procedure, a “first terrain image” is created based on the first terrain model, and a “second terrain image” is created based on the second terrain model. When the first terrain image and the second terrain image are created, one is selected as the “search image” and the other is selected as the “searched image”. Here, for the sake of convenience, the case where the first terrain image is used as a search image and the second terrain image is used as a search target image will be described.

画像照合手段170は、地形画像作成手段160によって作成された、第1の地形画像と第2の地形画像を画像照合(マッチング)するものである。このとき、地形画像全体でマッチングすることもできるが、地形画像をいくつかに分割し、それぞれ分割した単位でマッチングすることもできる。これを実行するのが部分照合手段171であり、具体的には、検索画像である第1の地形画像から所定の部分領域である「検索領域」を切り出し、被検索画像である第2の地形画像を走査(スキャン)して、当該検索領域とマッチングする「照合領域」を検出する。   The image matching unit 170 performs image matching (matching) between the first terrain image and the second terrain image created by the terrain image creation unit 160. At this time, matching can be performed for the entire terrain image, but the terrain image can be divided into several parts, and matching can be performed in divided units. This is executed by the partial matching means 171. Specifically, the “search area” that is a predetermined partial area is cut out from the first terrain image that is the search image, and the second terrain that is the search target image. The image is scanned, and a “collation area” that matches the search area is detected.

図5は、部分照合手段171によって部分的な検索を説明する図であり、(a)は検索領域を説明するモデル図、(b)は被検索範囲を説明するモデル図である。図5(a)に示すように、部分照合手段171は第1の地形画像を任意の大きさの領域に分割し、複数の検索領域を切り出し、それぞれの検索領域でマッチングを行う。このとき、第2の地形画像をスキャンするわけであるが、第2の地形画像のうち特定の範囲だけスキャンすることもできる。この範囲は、第2の地形画像の中で第1の地形画像から切り出した検索領域に相当する領域を抽出し、その周辺に所定幅(バッファ)だけ拡張した領域を検索すべき領域(以下、「被検索範囲」という。)として設定することができる。この被検索範囲のみをスキャンすることで、効率的にマッチングを行うことができるわけである。   5A and 5B are diagrams for explaining a partial search by the partial matching means 171. FIG. 5A is a model diagram for explaining a search area, and FIG. 5B is a model diagram for explaining a search range. As shown in FIG. 5A, the partial matching unit 171 divides the first topographic image into regions of an arbitrary size, cuts out a plurality of search regions, and performs matching in each search region. At this time, the second topographic image is scanned, but only a specific range of the second topographic image can be scanned. In this range, an area corresponding to a search area cut out from the first terrain image is extracted from the second terrain image, and an area expanded by a predetermined width (buffer) around the area (hereinafter referred to as a search area) "Searchable range"). By scanning only this search range, matching can be performed efficiently.

検索領域によるマッチング行う際、第2の地形画像の範囲内(あるいは、被検索範囲内)において検索領域を1画素単位で移動させながらスキャンする。つまり、検索領域とマッチングした照合領域は、第2の地形画像の画素、つまり第2の地形モデルのメッシュで構成され、照合領域は地形モデルのグリッドで囲まれることになる。図6は、第2の地形画像における「検索領域に相当する領域」と「照合領域」を示すモデル図である。ところが、検索領域と最も照合する領域は、必ずしもグリッドで囲まれる位置にあるとは限らない。   When performing matching by the search area, scanning is performed while moving the search area in units of one pixel within the range of the second topographic image (or within the search range). That is, the matching area matched with the search area is configured by pixels of the second terrain image, that is, the mesh of the second terrain model, and the matching area is surrounded by the grid of the terrain model. FIG. 6 is a model diagram showing an “area corresponding to a search area” and a “collation area” in the second topographic image. However, the area most matched with the search area is not necessarily located at the position surrounded by the grid.

図7は、照合領域の位置を補正する考え方を示すグラフ図である。このグラフは、横軸が図6に示すX−Y平面であり、縦軸が高さ方向の較差の2乗和(照合領域内の2乗和)である。なおこのグラフは、本来、横軸がX−Y平面で表されており、較差の2乗和も面的にプロットされているが、便宜上ここではY=0の断面で表している。この図から、検索領域をX方向に−1だけ移動したときと、X方向に−2だけ移動したときの間で較差が最も小さくなり、この位置で照合領域を抽出することが適切であることが分かる。このように、グリッド位置から補正して照合領域位置を抽出することもできる。   FIG. 7 is a graph showing the idea of correcting the position of the collation area. In this graph, the horizontal axis is the XY plane shown in FIG. 6, and the vertical axis is the sum of squares of the difference in the height direction (the sum of squares in the matching region). In this graph, the horizontal axis is originally represented by the XY plane, and the square sum of the difference is also plotted in a plane, but here, for convenience, it is represented by a cross section of Y = 0. From this figure, the difference is the smallest between when the search area is moved by -1 in the X direction and when it is moved by -2 in the X direction, and it is appropriate to extract the collation area at this position. I understand. In this way, it is possible to extract the collation region position by correcting from the grid position.

検索領域によるマッチングを行う際、複数の画素の組み合わせからなるテンプレートを利用することもできる。このテンプレートは、検索領域の中から選出される複数の画素によって形成され、特に特徴的な形状を構成するものが適している。図8は、検索領域の中から選出されたテンプレート200を示す説明図である。抽出したテンプレート200で、第2の地形画像内に同様の画像を見つけるべくスキャンするわけであるが、ここでテンプレート200によってマッチングさせる理由について説明する。図9(a)は検索領域の画像を示したモデル図であり、図9(b)は第2の地形画像を示したモデル図である。図9(a)のうちの一つの画素Vに着目し、これに該当する画素を図9(b)の中から検索すると、同じ輝度(明度)の画素V、画素V、画素Vが照合される。すなわち、画素Vの較差は3パターンが考えられることになり、どれかひとつに特定することができない。一方、図9(a)のうち画素Vを含む四つの画素からなるテンプレート200(図中破線で囲った範囲)に着目して、これに該当する画像を図9(b)の中から探すと、図9(b)の破線で囲ったテンプレート200が特定できる。このように、テンプレート200を利用すれば2つの画像が照合しやすくなるわけである。 When matching by the search area, a template composed of a combination of a plurality of pixels can be used. This template is formed by a plurality of pixels selected from the search area, and a template that forms a particularly characteristic shape is suitable. FIG. 8 is an explanatory diagram showing the template 200 selected from the search area. The extracted template 200 is scanned to find a similar image in the second terrain image. Here, the reason for matching by the template 200 will be described. FIG. 9A is a model diagram showing an image of a search area, and FIG. 9B is a model diagram showing a second topographic image. Focusing on one pixel V 0 in FIG. 9A and searching for a corresponding pixel in FIG. 9B, pixel V 1 , pixel V 2 , and pixel V having the same luminance (brightness) are obtained. 3 is matched. In other words, three patterns of the difference of the pixel V 0 can be considered and cannot be specified as any one. On the other hand, by focusing on the template 200 comprised of four pixels including the pixel V 1 of FIG. 9 (a) (a range in surrounded by the broken line drawing), search for images corresponding thereto among shown in FIG. 9 (b) Then, the template 200 surrounded by the broken line in FIG. 9B can be specified. In this way, using the template 200 makes it easier to collate two images.

テンプレート200が抽出されると、このテンプレート200によって第2の地形画像内に同様の画像を見つけるべくスキャンしていく。具体的には、テンプレート200が具備する画素情報に基づいて、同様の画素情報の配置となる組み合わせを、第2の地形画像の中から検索していく。   When the template 200 is extracted, the template 200 is scanned to find a similar image in the second terrain image. Specifically, based on the pixel information included in the template 200, a combination that has the same pixel information arrangement is searched from the second topographic image.

なお、テンプレート200と全く同じ画像が第2の地形画像内に存在するケースばかりとは限らない。そこで、照合の程度にある程度の冗長性を持たせることもできる。例えば、比較した画素情報の残差に閾値を設け、この閾値以内であれば同等の画像(画素)と判定したり、相違する画素の数(あるいは割合)が所定の閾値以下であれば同等のテンプレート200と照合すると判定したり、あるいはこれらを組み合わせて判定するなど、種々の条件で画像の相違を許容することができる。   Note that the same image as the template 200 does not always exist in the second topographic image. Therefore, a certain degree of redundancy can be given to the degree of collation. For example, a threshold is provided for the residual of the compared pixel information, and if it is within this threshold, it is determined as an equivalent image (pixel), or if the number (or ratio) of different pixels is equal to or less than a predetermined threshold Differences in images can be allowed under various conditions, such as determining to collate with the template 200 or determining by combining them.

較差ベクトル算出手段172は、部分照合手段171で抽出された検索領域と照合領域の組み合わせに基づいて、較差量と較差の方向を算出して較差ベクトルを求める。検索領域と照合領域は、それぞれ第1の地形画像と第2の地形画像の部分領域であり、これら地形画像は地形モデルのメッシュによって構成されていることから、容易に3次元の座標計算を行うことができる。   The difference vector calculation means 172 calculates a difference amount and a difference direction based on the combination of the search area and the matching area extracted by the partial matching means 171 to obtain a difference vector. The search area and the collation area are partial areas of the first terrain image and the second terrain image, respectively. Since these terrain images are composed of meshes of the terrain model, three-dimensional coordinate calculation is easily performed. be able to.

不整合領域検出手段173は、較差ベクトル算出手段172で求めた較差ベクトルに応じて、第1の地形モデルと第2の地形モデルの間で不整合となる部分領域を検出する。較差ベクトルの較差量が所定閾値を超える場合は不整合があると判定し、当該較差ベクトルの基礎となった検索領域(あるいは照合領域)を不整合領域として検出する。ここで検出された不整合領域や較差ベクトルは、ディスプレイやプリンタといった出力装置である出力手段180によって出力される。   The inconsistent area detection unit 173 detects a partial area that is inconsistent between the first terrain model and the second terrain model according to the difference vector obtained by the difference vector calculation unit 172. If the difference amount of the difference vector exceeds a predetermined threshold value, it is determined that there is a mismatch, and the search area (or matching area) that is the basis of the difference vector is detected as a mismatch area. The mismatched area and the difference vector detected here are output by the output means 180 which is an output device such as a display or a printer.

(処理の流れ)
次に、整合性判定装置100によって実行される処理の流れについて、図10を参考に説明する。まず、地形モデル読み出し手段140が、地形モデルを記憶する地形モデル記憶手段120から第1の地形モデルと第2の地形モデルを読み出す(Step11,Step12)。読みだされたそれぞれの地形モデルに対して、地形量算出手段150がメッシュごとに地形量を算出し(Step21,Step22)、地形画像作成手段160が地形量に基づいて第1の地形画像と第2の地形画像を作成する(Step31,Step32)。
(Process flow)
Next, the flow of processing executed by the consistency determination device 100 will be described with reference to FIG. First, the terrain model reading unit 140 reads the first terrain model and the second terrain model from the terrain model storage unit 120 that stores the terrain model (Step 11 and Step 12). For each of the read terrain models, the terrain amount calculation unit 150 calculates a terrain amount for each mesh (Step 21 and Step 22), and the terrain image creation unit 160 calculates the first terrain image and the first terrain model based on the terrain amount. 2 terrain images are created (Step 31, Step 32).

部分照合手段171によって第1の地形画像を任意の大きさの領域に分割し、複数(ここではn個)の検索領域を設定する(Step41)。n個の検索領域のうち一つの検索領域を選出する(Step51)とともに、第2の地形画像から被検索範囲を設定する(Step52)。   The first collation unit 171 divides the first topographic image into regions of an arbitrary size, and sets a plurality of (here, n) search regions (Step 41). One search area is selected from the n search areas (Step 51), and a search range is set from the second topographic image (Step 52).

選出された検索領域をもって、第2の地形画像のうち被検索範囲をスキャンし(Step60)、照合する照合領域を特定する(Step70)。そして、較差ベクトル算出手段172が、検索領域と照合領域に基づいて較差ベクトルを求め(Step80)、さらにこの較差ベクトルに基づいて両者の整合/不整合を判定し、不整合と判定された検索領域(あるいは照合領域)は不整合領域検出手段173によって不整合領域として検出される(Step90)。   With the selected search area, the search range is scanned in the second topographic image (Step 60), and the collation area to be collated is specified (Step 70). Then, the difference vector calculation means 172 obtains a difference vector based on the search area and the collation area (Step 80), further determines the matching / mismatch of both based on the difference vector, and the search area determined to be inconsistent (Or the collation area) is detected as an inconsistent area by the inconsistent area detecting means 173 (Step 90).

以上の処理が、分割された検索領域の数(n個)だけ繰り返し実施され(ループ)、最終的には不整合領域や較差ベクトルが、ディスプレイやプリンタといった出力手段180によって出力される(Step100)。   The above processing is repeatedly performed by the number (n) of the divided search areas (loop), and finally the mismatch area and the difference vector are output by the output unit 180 such as a display or a printer (Step 100). .

3.計測結果の整合性判定方法
計測結果の整合性判定方法は、整合性判定装置100で説明した内容を人(オペレータ)によって実施するものである。以下、個別に説明する。なお、整合性判定装置100と重複する内容については、ここでは繰り返しての説明は行わない。
3. Measurement Result Consistency Determination Method In the measurement result consistency determination method, the content described in the consistency determination apparatus 100 is executed by a person (operator). Hereinafter, it demonstrates individually. The content overlapping with the consistency determination device 100 will not be described repeatedly here.

地形量算出工程は、地形量算出手段150で説明した内容を行うものであり、地形モデルのメッシュごとに地形量を算出する。地形画像作成工程は、地形画像作成手段160で説明した内容を行うものであり、地形量に基づいて第1の地形画像と第2の地形画像を作成する。部分照合工程は、部分照合手段171で説明した内容を行うものであり、第1の地形画像から検索領域を設定し、第2の地形画像の被検索範囲から検索領域とマッチングする照合領域を検出する。移動ベクトル算出工程は、較差ベクトル算出手段172で説明した内容を行うものであり、検索領域と照合領域の較差に基づいて較差ベクトルを算出する。不整合領域検出工程は、不整合領域検出手段173で説明した内容を行うものであり、較差ベクトルに基づいて、第1の地形モデルと第2の地形モデルの間で不整合となる部分領域を検出する。   The terrain amount calculation step performs the contents described in the terrain amount calculation means 150, and calculates the terrain amount for each mesh of the terrain model. In the terrain image creation step, the contents described in the terrain image creation means 160 are performed, and a first terrain image and a second terrain image are created based on the amount of terrain. The partial matching step performs the contents described in the partial matching unit 171, sets a search area from the first topographic image, and detects a matching area that matches the search area from the search range of the second topographic image. To do. The movement vector calculation step performs the contents described in the difference vector calculation means 172, and calculates the difference vector based on the difference between the search area and the collation area. The inconsistent area detecting step performs the contents described in the inconsistent area detecting means 173, and based on the difference vector, a partial area that is inconsistent between the first topographic model and the second topographic model is detected. To detect.

本願発明の計測結果の整合性判定方法、及び計測結果の整合性判定装置は、広い範囲を対象に航空レーザー計測を実施した場合のコース間検証において好適に実施できる。また、航空レーザー計測のほか、航空写真や衛星画像を用いて同一箇所を複数回計測した場合にも利用できる。さらに、同一の範囲を、異なる手法で計測した場合の結果の整合性を判定する場合にも応用することができる。   The measurement result consistency determination method and the measurement result consistency determination apparatus according to the present invention can be suitably implemented in course-to-course verification when aviation laser measurement is performed over a wide range. In addition to aerial laser measurement, it can also be used when measuring the same location multiple times using aerial photographs and satellite images. Furthermore, the present invention can also be applied to the case where the consistency of results when the same range is measured by different methods is determined.

100 整合性判定装置
110 入力手段
120 地形モデル記憶手段
130 データ登録手段
140 地形モデル読み出し手段
150 地形量算出手段
160 地形画像作成手段
170 画像照合手段
171 部分照合手段
172 較差ベクトル算出手段
173 不整合領域検出手段
180 出力手段
200 テンプレート
F 地形
L レーザー
P 航空機
DESCRIPTION OF SYMBOLS 100 Consistency determination apparatus 110 Input means 120 Terrain model memory | storage means 130 Data registration means 140 Terrain model reading means 150 Terrain amount calculation means 160 Terrain image creation means 170 Image collation means 171 Partial collation means 172 Difference vector calculation means 173 Inconsistency area detection Means 180 Output means 200 Template F Terrain L Laser P Aircraft

Claims (4)

同一の領域で得られた2つの計測点群を比較して整合性を判定する方法において、
複数のメッシュからなるモデルであって、第1の計測点群に基づき作成された第1の地形モデル、及び第2の計測点群に基づき作成された第2の地形モデルを用意し、
前記第1の地形モデルを構成するメッシュごとに地形量を算出するとともに、前記第2の地形モデルを構成するメッシュごとに地形量を算出する地形量算出工程と、
前記地形量に基づいて、前記第1の地形モデルを画像化した第1の地形画像を作成するとともに、前記第2の地形モデルを画像化した第2の地形画像を作成する地形画像作成工程と、を備え、
前記第1の地形画像と前記第2の地形画像を画像照合することよって、2つの計測点群の整合性を判定することを特徴とする計測結果の整合性判定方法。
In a method for determining consistency by comparing two measurement point groups obtained in the same region,
A model composed of a plurality of meshes, and a first terrain model created based on the first measurement point group and a second terrain model created based on the second measurement point group are prepared,
Calculating a terrain amount for each mesh constituting the first terrain model, and calculating a terrain amount for each mesh constituting the second terrain model;
Creating a first terrain image obtained by imaging the first terrain model based on the terrain amount, and creating a second terrain image obtained by imaging the second terrain model; With
A method for determining consistency of measurement results, wherein image consistency between the first terrain image and the second terrain image is used to determine consistency between two measurement point groups.
前記第1の地形画像を分割して複数の検索領域を得るとともに、それぞれの検索領域を基に画像照合を行って前記第2の地形画像から照合領域を抽出する部分照合工程と、
前記検索領域と前記照合領域から較差ベクトルを算出する較差ベクトル算出工程と、
前記較差ベクトルに基づいて、前記第1の計測点群と前記第2の計測点群が整合していない不整合領域を検出する不整合領域検出工程と、をさらに備えたことを特徴とする請求項1記載の計測結果の整合性判定方法。
A partial matching step of dividing the first terrain image to obtain a plurality of search areas and performing image matching based on each search area to extract a matching area from the second terrain image;
A difference vector calculating step of calculating a difference vector from the search area and the matching area;
And a mismatch region detection step of detecting a mismatch region in which the first measurement point group and the second measurement point group are not matched based on the difference vector. Item 5. A method for determining consistency of measurement results according to Item 1.
同一の領域で得られた2つの計測点群を比較して整合性を判定する装置において、
複数のメッシュからなるモデルであって、第1の計測点群に基づき作成された第1の地形モデル、及び第2の計測点群に基づき作成された第2の地形モデルを読み出す地形モデル読み出し手段と、
前記第1の地形モデルを構成するメッシュごとに地形量を算出するとともに、前記第2の地形モデルを構成するメッシュごとに地形量を算出する地形量算出手段と、
前記地形量に基づいて、前記第1の地形モデルを画像化した第1の地形画像を作成するとともに、前記第2の地形モデルを画像化した第2の地形画像を作成する地形画像作成手段と、
前記第1の地形画像と前記第2の地形画像を画像照合する画像照合手段と、を備え、
前記画像照合の結果によって2つの計測点群の整合性を判定し得ることを特徴とする計測結果の整合性判定装置。
In an apparatus for judging consistency by comparing two measurement point groups obtained in the same region,
A terrain model reading means for reading out a first terrain model created based on the first measurement point group and a second terrain model created based on the second measurement point group, the model comprising a plurality of meshes When,
A terrain quantity calculating means for calculating a terrain quantity for each mesh constituting the first terrain model, and calculating a terrain quantity for each mesh constituting the second terrain model;
Terrain image creation means for creating a first terrain image obtained by imaging the first terrain model based on the terrain quantity, and for creating a second terrain image obtained by imaging the second terrain model; ,
Image collating means for image collating the first terrain image and the second terrain image,
An apparatus for determining consistency of measurement results, wherein the consistency between two measurement point groups can be determined based on the result of image collation.
前記画像照合手段は、部分照合手段、較差ベクトル算出手段、及び不整合領域検出手段を含み、
前記部分照合手段では、前記第1の地形画像を分割して複数の検索領域を得るとともに、それぞれの検索領域を基に画像照合を行って前記第2の地形画像から照合領域を抽出し、
前記較差ベクトル算出手段では、前記検索領域と前記照合領域から較差ベクトルを算出し、
前記不整合領域検出手段では、前記較差ベクトルに基づいて、前記第1の計測点群と前記第2の計測点群が整合していない不整合領域を検出する、ことを特徴とする請求項3記載の計測結果の整合性判定装置。
The image collating unit includes a partial collating unit, a difference vector calculating unit, and an inconsistent region detecting unit,
The partial matching unit divides the first terrain image to obtain a plurality of search areas, performs image matching based on each search area, and extracts a matching area from the second terrain image,
The difference vector calculating means calculates a difference vector from the search area and the matching area,
4. The mismatch area detection unit detects an inconsistency area where the first measurement point group and the second measurement point group do not match based on the difference vector. Device for determining consistency of the measurement results described.
JP2013271041A 2013-12-27 2013-12-27 Measurement result consistency determination method and measurement result consistency determination apparatus Active JP6347061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013271041A JP6347061B2 (en) 2013-12-27 2013-12-27 Measurement result consistency determination method and measurement result consistency determination apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013271041A JP6347061B2 (en) 2013-12-27 2013-12-27 Measurement result consistency determination method and measurement result consistency determination apparatus

Publications (2)

Publication Number Publication Date
JP2015125092A true JP2015125092A (en) 2015-07-06
JP6347061B2 JP6347061B2 (en) 2018-06-27

Family

ID=53535883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013271041A Active JP6347061B2 (en) 2013-12-27 2013-12-27 Measurement result consistency determination method and measurement result consistency determination apparatus

Country Status (1)

Country Link
JP (1) JP6347061B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092628A (en) * 2016-12-02 2018-06-14 經緯航太科技股▲ふん▼有限公司GEOSAT Aerospace & Technology Inc. Method and system for automated object detection from aerial image
JP2019201275A (en) * 2018-05-15 2019-11-21 国際航業株式会社 Monitoring system
US10699119B2 (en) 2016-12-02 2020-06-30 GEOSAT Aerospace & Technology Methods and systems for automatic object detection from aerial imagery
JP2020165746A (en) * 2019-03-29 2020-10-08 国際航業株式会社 Landslide surface estimation device, and landslide surface estimation method
JP2021179365A (en) * 2020-05-14 2021-11-18 株式会社オービタルネット Information processing device, information processing method, and computer program
KR20220081776A (en) * 2020-12-09 2022-06-16 주식회사 맵퍼스 Point cloud matching method and point cloud matching device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004138578A (en) * 2002-10-21 2004-05-13 Pasuko:Kk Edge match method for laser data
JP2010266419A (en) * 2009-05-18 2010-11-25 Kokusai Kogyo Co Ltd Method of analyzing topography change using topography image, and program thereof
JP2012242321A (en) * 2011-05-23 2012-12-10 Topcon Corp Aerial photograph imaging method and aerial photograph imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004138578A (en) * 2002-10-21 2004-05-13 Pasuko:Kk Edge match method for laser data
JP2010266419A (en) * 2009-05-18 2010-11-25 Kokusai Kogyo Co Ltd Method of analyzing topography change using topography image, and program thereof
JP2012242321A (en) * 2011-05-23 2012-12-10 Topcon Corp Aerial photograph imaging method and aerial photograph imaging device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092628A (en) * 2016-12-02 2018-06-14 經緯航太科技股▲ふん▼有限公司GEOSAT Aerospace & Technology Inc. Method and system for automated object detection from aerial image
US10546195B2 (en) 2016-12-02 2020-01-28 Geostat Aerospace & Technology Inc. Methods and systems for automatic object detection from aerial imagery
US10699119B2 (en) 2016-12-02 2020-06-30 GEOSAT Aerospace & Technology Methods and systems for automatic object detection from aerial imagery
JP2019201275A (en) * 2018-05-15 2019-11-21 国際航業株式会社 Monitoring system
JP6995013B2 (en) 2018-05-15 2022-01-14 国際航業株式会社 Monitoring system
JP2020165746A (en) * 2019-03-29 2020-10-08 国際航業株式会社 Landslide surface estimation device, and landslide surface estimation method
JP7170575B2 (en) 2019-03-29 2022-11-14 国際航業株式会社 Landslide surface estimation device and landslide surface estimation method
JP2021179365A (en) * 2020-05-14 2021-11-18 株式会社オービタルネット Information processing device, information processing method, and computer program
KR20220081776A (en) * 2020-12-09 2022-06-16 주식회사 맵퍼스 Point cloud matching method and point cloud matching device
KR102513683B1 (en) * 2020-12-09 2023-03-27 주식회사 맵퍼스 Point cloud matching method and point cloud matching device

Also Published As

Publication number Publication date
JP6347061B2 (en) 2018-06-27

Similar Documents

Publication Publication Date Title
JP4545219B1 (en) Analysis method of topographic change using topographic image and program thereof
KR101933216B1 (en) River topography information generation method using drone and geospatial information
JP6347061B2 (en) Measurement result consistency determination method and measurement result consistency determination apparatus
US7376284B2 (en) System, computer program and method for 3D object measurement, modeling and mapping from single imagery
US8116530B2 (en) Map change detection device, map change detection method, and program
Whitehead et al. Applying ASPRS accuracy standards to surveys from small unmanned aircraft systems (UAS)
CN109238239A (en) Digital measurement three-dimensional modeling method based on aeroplane photography
Estornell et al. Study of shrub cover and height using LiDAR data in a Mediterranean area
JP6635649B2 (en) Data overlay program and data overlay method
JP2020165746A (en) Landslide surface estimation device, and landslide surface estimation method
JP6146731B2 (en) Coordinate correction apparatus, coordinate correction program, and coordinate correction method
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
CN109031235B (en) Method for rapidly acquiring three-dimensional contour line data of radar basic reflectivity
JP4825836B2 (en) Road map data creation system
Axelsson et al. Roof type classification using deep convolutional neural networks on low resolution photogrammetric point clouds from aerial imagery
US9372081B2 (en) Method and system for geo-referencing at least one sensor image
JP6296444B2 (en) Plotting method by point cloud image and plotting apparatus by point cloud image
Marks et al. The IHO-IOC GEBCO Cook Book.
Ostrowski et al. Analysis of point cloud generation from UAS images
KR101008394B1 (en) Apparatus for planarizing ground of building in digital elevation model using boundary of digital surface model
JP5181379B1 (en) Power generation potential evaluation device and power generation potential evaluation program
Lehrbass et al. Urban tree cover mapping with relief-corrected aerial imagery and LiDAR
KR101601720B1 (en) 3D City Modeling System for Transportation Noise Mapping and method thereof
JP2019148436A (en) Standing tree evaluation method in forest area and boundary line surveying method suitable for specifying evaluation target area in the evaluation method
Schwind Comparing and characterizing three-dimensional point clouds derived by structure from motion photogrammetry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180502

R150 Certificate of patent or registration of utility model

Ref document number: 6347061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250