JP5230354B2 - POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE - Google Patents

POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE Download PDF

Info

Publication number
JP5230354B2
JP5230354B2 JP2008276845A JP2008276845A JP5230354B2 JP 5230354 B2 JP5230354 B2 JP 5230354B2 JP 2008276845 A JP2008276845 A JP 2008276845A JP 2008276845 A JP2008276845 A JP 2008276845A JP 5230354 B2 JP5230354 B2 JP 5230354B2
Authority
JP
Japan
Prior art keywords
point data
perspective projection
projection conversion
ground
ground height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008276845A
Other languages
Japanese (ja)
Other versions
JP2010107224A (en
Inventor
秀明 前原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008276845A priority Critical patent/JP5230354B2/en
Publication of JP2010107224A publication Critical patent/JP2010107224A/en
Application granted granted Critical
Publication of JP5230354B2 publication Critical patent/JP5230354B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、例えば、防災ヘリコプタに搭載されているビデオカメラによって撮影された画像データから被災建造物の位置を特定する位置特定装置と、上記画像データから地上高が変化している建物を検出する異動建物検出装置とに関するものである。   The present invention detects, for example, a position identifying device that identifies the position of a damaged building from image data captured by a video camera mounted on a disaster prevention helicopter, and a building whose ground height is changing from the image data. The present invention relates to a transfer building detection apparatus.

例えば、以下の特許文献1に開示されている位置特定装置は、ヘリコプタに搭載されている撮影装置が地表面上の目標物を撮影すると、ヘリコプタの現在位置から撮影装置の方向に向けて延びる直線と、予め記録されている3次元地理データ上の地表面との交点を求め、その交点を目標物の位置として特定している。   For example, the position specifying device disclosed in Patent Document 1 below is a straight line extending from the current position of the helicopter toward the image capturing device when the image capturing device mounted on the helicopter captures an object on the ground surface. And an intersection with the ground surface on the three-dimensional geographic data recorded in advance is obtained, and the intersection is specified as the position of the target.

特開平8−285590号公報(図1)JP-A-8-285590 (FIG. 1)

従来の位置特定装置は以上のように構成されているので、撮影装置を搭載しているヘリコプタの現在位置を正確に検出することができなければ、目標物の位置を正確に特定することができないなどの課題があった。   Since the conventional position specifying device is configured as described above, the position of the target cannot be specified accurately unless the current position of the helicopter equipped with the photographing device can be accurately detected. There were issues such as.

この発明は上記のような課題を解決するためになされたもので、ヘリコプタなどの移動体に搭載されている撮影手段の正確な現在位置が判明しない場合でも、目標物の位置を正確に特定することができる位置特定装置を得ることを目的とする。
また、この発明は、ヘリコプタなどの移動体に搭載されている撮影手段の正確な現在位置が判明しない場合でも、地上高が変化している建物を正確に検出することができる異動建物検出装置を得ることを目的とする。
The present invention has been made to solve the above-described problems, and accurately identifies the position of a target even when the exact current position of an imaging unit mounted on a moving body such as a helicopter is not known. The object is to obtain a location device that can be used.
In addition, the present invention provides a moving building detection apparatus capable of accurately detecting a building whose ground height is changing even when the exact current position of the photographing means mounted on a moving body such as a helicopter is not known. The purpose is to obtain.

この発明に係る位置特定装置は、撮影手段により撮影された地上の画像データから撮影手段の撮影範囲の3次元形状を推定し、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する地上高パタン生成手段と、計測手段により計測された撮影手段の概略の位置を基準にして、撮影範囲に略対応する地表面上の領域を特定して、地図データ記憶手段から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する標高点データ取得手段と、透視投影変換用のパラメータを用いて、標高点データ取得手段により取得された標高点データの透視投影変換を行う透視投影変換手段とを設け、パラメータ更新手段が地上高パタン生成手段により生成された地上高パタンと透視投影変換手段により透視投影変換された標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換手段に設定するようにしたものである。   The position specifying device according to the present invention estimates the three-dimensional shape of the photographing range of the photographing means from the ground image data photographed by the photographing means and indicates the ground height at each point in the photographing range from the three-dimensional shape. An area on the ground surface that substantially corresponds to the imaging range is identified from the map data storage unit based on the approximate position of the imaging means measured by the ground height pattern generation unit that generates the pattern and the measurement unit, Elevation point data acquisition means that reads the map data of the area on the ground surface and acquires the elevation point data indicating the elevation of each point from the map data, and the elevation point data acquisition means using the parameters for perspective projection conversion Perspective projection conversion means for performing perspective projection conversion of the acquired elevation point data is provided, and the parameter updating means and the ground height pattern generated by the ground height pattern generation means are transmitted. In correlation with the perspective projection converted elevation point data by the projection conversion means calculates the parameters for the perspective projection transformation becomes maximum is obtained so as to set the parameter to perspective projection conversion means.

この発明によれば、撮影手段により撮影された地上の画像データから撮影手段の撮影範囲の3次元形状を推定し、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する地上高パタン生成手段と、計測手段により計測された撮影手段の概略の位置を基準にして、撮影範囲に略対応する地表面上の領域を特定して、地図データ記憶手段から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する標高点データ取得手段と、透視投影変換用のパラメータを用いて、標高点データ取得手段により取得された標高点データの透視投影変換を行う透視投影変換手段とを設け、パラメータ更新手段が地上高パタン生成手段により生成された地上高パタンと透視投影変換手段により透視投影変換された標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換手段に設定するように構成したので、ヘリコプタなどの移動体に搭載されている撮影手段の正確な現在位置が判明しない場合でも、目標物の位置を正確に特定することができる効果がある。   According to the present invention, the three-dimensional shape of the photographing range of the photographing means is estimated from the ground image data photographed by the photographing means, and the ground height pattern indicating the ground height of each point in the photographing range is generated from the three-dimensional shape. An area on the ground surface that substantially corresponds to the shooting range is identified on the basis of the approximate position of the shooting means measured by the ground height pattern generating means and the measuring means, and the above ground surface is determined from the map data storage means. Obtained by the elevation point data acquisition means using the elevation point data acquisition means for acquiring the elevation point data indicating the elevation of each point from the map data and the parameters for perspective projection conversion. A perspective projection conversion means for performing perspective projection conversion of the elevation point data, and the parameter update means generates the ground high pattern generated by the ground high pattern generation means and the perspective projection conversion means. Because it is configured to calculate the parameters for perspective projection conversion that maximizes the correlation with the elevation point data that has been perspective-projected by, and to set the parameters in the perspective projection conversion means, it is mounted on mobile objects such as helicopters. Even if the exact current position of the photographing means being used is not known, there is an effect that the position of the target can be accurately specified.

実施の形態1.
図1はこの発明の実施の形態1による位置特定装置を示す構成図である。
図1において、ヘリコプタ1はカメラ2や計測装置3を搭載している移動体である。
カメラ2はヘリコプタ1に設置されている雲台に固定されており、上空から地上を撮影して、地上の画像データを演算装置4に出力する処理を実施する。なお、カメラ2は撮影手段を構成している。
計測装置3はGPS電波受信機、角度センサー、レーザーレンジファインダなどを内蔵しており、カメラ2により撮影された時点のカメラ2の概略位置を示す座標(x,y,z)と、カメラ2から地上の目標地点までの距離Dと、機体ベクトル(Hu,Hv,Hw)と、光軸ベクトル(Ou,Ov,Ow)とを計測する処理を実施する。なお、計測装置3は計測手段を構成している。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a position specifying device according to Embodiment 1 of the present invention.
In FIG. 1, a helicopter 1 is a moving body on which a camera 2 and a measuring device 3 are mounted.
The camera 2 is fixed to a pan / tilt head installed in the helicopter 1, and performs a process of photographing the ground from above and outputting ground image data to the arithmetic device 4. The camera 2 constitutes a photographing unit.
The measuring device 3 incorporates a GPS radio wave receiver, an angle sensor, a laser range finder, and the like. The coordinates (x, y, z) indicating the approximate position of the camera 2 at the time of photographing by the camera 2 and the camera 2 Processing for measuring the distance D to the target point on the ground, the body vector (Hu, Hv, Hw), and the optical axis vector (Ou, Ov, Ow) is performed. The measuring device 3 constitutes a measuring means.

ただし、カメラ2の概略位置を示す座標(x,y,z)は、GPS電波受信機により受信されたGPSデータから得られる緯度・経度・高度を変換した平面直角座標で与えられるものとする。
また、機体ベクトルは、ヘリコプタ1の機体の重心から機体の下部方向の単位ベクトルとして与えられ、光軸ベクトルは、ヘリコプタ1の重心を原点とする単位ベクトルとして与えられるものとする。
なお、カメラ2とヘリコプタ1の相対位置及び計測装置3とヘリコプタ1の相対位置は変化しないので、計測装置3が自己の位置を計測すれば、カメラ2の位置を相対的に求めることができる。
However, the coordinates (x, y, z) indicating the approximate position of the camera 2 are given as plane rectangular coordinates obtained by converting latitude, longitude, and altitude obtained from GPS data received by the GPS radio wave receiver.
Also, the airframe vector is given as a unit vector in the lower direction of the airframe from the center of gravity of the helicopter 1, and the optical axis vector is given as a unit vector whose origin is the center of gravity of the helicopter 1.
Since the relative position between the camera 2 and the helicopter 1 and the relative position between the measuring device 3 and the helicopter 1 do not change, the position of the camera 2 can be relatively determined if the measuring device 3 measures its own position.

演算装置4はカメラ2により撮影された地上の画像データと計測装置3により計測された情報を収集して、カメラ2により撮影された地上の画像データの任意座標に対応する標高点データ(各地点の標高を示すデータ)を特定する処理を実施する。
ここでは、演算装置4の構成要素である地上高パタン生成部11、地図データ記憶部12、標高点データ取得部13、透視投影変換部14、パラメータ更新部15及び標高点データ写像部16のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路基板)で構成されているものを想定しているが、演算装置4がコンピュータで構成される場合には、地上高パタン生成部11、標高点データ取得部13、透視投影変換部14、パラメータ更新部15及び標高点データ写像部16の処理内容が記述されているプログラム(地上高パタン生成プログラム、標高点データ取得プログラム、透視投影変換プログラム、パラメータ更新プログラム、標高点データ写像プログラム)をコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
ディスプレイ5は演算装置4により特定された標高点データなどを表示する表示機器である。
The arithmetic device 4 collects the ground image data photographed by the camera 2 and the information measured by the measuring device 3, and the elevation point data corresponding to the arbitrary coordinates of the ground image data photographed by the camera 2 (each point To identify the altitude).
Here, each of the ground height pattern generation unit 11, the map data storage unit 12, the elevation point data acquisition unit 13, the perspective projection conversion unit 14, the parameter update unit 15, and the elevation point data mapping unit 16 that are components of the arithmetic device 4. Is configured with dedicated hardware (for example, a semiconductor integrated circuit board on which a CPU is mounted). However, when the arithmetic unit 4 is configured with a computer, the ground high pattern generation unit 11, a program in which processing contents of the elevation point data acquisition unit 13, the perspective projection conversion unit 14, the parameter update unit 15 and the elevation point data mapping unit 16 are described (ground height pattern generation program, elevation point data acquisition program, perspective projection) Conversion program, parameter update program, altitude point data mapping program) are stored in the memory of the computer, and the computer Data the CPU may execute a program stored in the memory.
The display 5 is a display device that displays altitude point data identified by the arithmetic device 4.

地上高パタン生成部11はカメラ2により撮影された地上の画像データからカメラ2の撮影範囲の3次元形状を推定し、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する処理を実施する。なお、地上高パタン生成部11は地上高パタン生成手段を構成している。
地図データ記憶部12は地図データを記憶しているハードディスクなどの記憶媒体である。なお、地図データ記憶部12は地図データ記憶手段を構成している。
The ground height pattern generation unit 11 estimates the three-dimensional shape of the photographing range of the camera 2 from the ground image data photographed by the camera 2, and uses the three-dimensional shape to represent the ground height pattern indicating the ground height of each point in the photographing range. Perform the process to generate. In addition, the ground high pattern production | generation part 11 comprises the ground high pattern production | generation means.
The map data storage unit 12 is a storage medium such as a hard disk that stores map data. The map data storage unit 12 constitutes map data storage means.

標高点データ取得部13は計測装置3により計測されたカメラ2の概略位置を基準にして、カメラ2の撮影範囲に略対応する地表面上の領域を特定して、地図データ記憶部12から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する処理を実施する。なお、標高点データ取得部13は標高点データ取得手段を構成している。
透視投影変換部14はパラメータ更新部15により更新される透視投影変換用のパラメータを用いて、標高点データ取得部13により取得された標高点データの透視投影変換を実施する。なお、透視投影変換部14は透視投影変換手段を構成している。
The elevation point data acquisition unit 13 specifies an area on the ground surface that substantially corresponds to the shooting range of the camera 2 on the basis of the approximate position of the camera 2 measured by the measuring device 3, and stores the above-mentioned data from the map data storage unit 12. The map data of the area on the ground surface is read, and the elevation point data indicating the elevation of each point is acquired from the map data. The elevation point data acquisition unit 13 constitutes elevation point data acquisition means.
The perspective projection conversion unit 14 performs the perspective projection conversion of the elevation point data acquired by the elevation point data acquisition unit 13 using the parameters for perspective projection conversion updated by the parameter update unit 15. The perspective projection conversion unit 14 constitutes a perspective projection conversion unit.

パラメータ更新部15は地上高パタン生成部11により生成された地上高パタンと透視投影変換部14により透視投影変換された標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換部14に設定する処理を実施する。なお、パラメータ更新部15はパラメータ更新手段を構成している。
標高点データ写像部16は例えばキーボードやマウスなどのマンマシンインタフェースを備えており、ユーザがマンマシンインタフェースを操作して、カメラ2により撮影された地上の画像データの任意座標を指定すると、透視投影変換部14により透視投影変換された標高点データの中から、その任意座標に対応する標高点データを特定する処理を実施する。なお、標高点データ写像部16は標高点データ写像手段を構成している。
The parameter update unit 15 calculates a parameter for perspective projection conversion that maximizes the correlation between the ground height pattern generated by the ground height pattern generation unit 11 and the elevation point data subjected to perspective projection conversion by the perspective projection conversion unit 14. Then, a process of setting the parameter in the perspective projection conversion unit 14 is performed. The parameter update unit 15 constitutes parameter update means.
The elevation point data mapping unit 16 includes a man-machine interface such as a keyboard and a mouse. When the user operates the man-machine interface and designates arbitrary coordinates of ground image data photographed by the camera 2, the perspective projection is performed. A process of specifying elevation point data corresponding to the arbitrary coordinates from the elevation point data subjected to perspective projection conversion by the conversion unit 14 is performed. The elevation point data mapping unit 16 constitutes elevation point data mapping means.

次に動作について説明する。
ヘリコプタ1に搭載されているカメラ2は、上空から地上を撮影して、地上の画像データを演算装置4に出力する。
ここで、図2はカメラ2により撮影された地上の画像データの一例を示す説明図であり、地上の画像データが512×512ピクセルである例を示している。
特に、(A)はカメラ2により時刻tに撮影された画像データであり、(B)は時刻t−1(時刻tの1秒前)に撮影された画像データである。
Next, the operation will be described.
The camera 2 mounted on the helicopter 1 captures the ground from above and outputs image data on the ground to the arithmetic device 4.
Here, FIG. 2 is an explanatory view showing an example of the ground image data taken by the camera 2, and shows an example in which the ground image data is 512 × 512 pixels.
In particular, (A) is image data taken at time t by the camera 2, and (B) is image data taken at time t-1 (one second before time t).

計測装置3は、カメラ2の位置と姿勢を計測するものであり、カメラ2により撮影された時点のカメラ2の概略位置を示す座標(x,y,z)と、カメラ2から地上の目標地点までの距離Dと、機体ベクトル(Hu,Hv,Hw)と、光軸ベクトル(Ou,Ov,Ow)とを計測する。
図3は計測装置3の計測結果の一例を示す説明図である。
この実施の形態1では、計測装置3は、カメラ2の概略位置を示す座標(x,y,z)については、内蔵しているGPS電波受信機を用いて計測し、カメラ2から地上の目標地点までの距離Dについては、内蔵しているレーザーレンジファインダを用いて計測し、機体ベクトル(Hu,Hv,Hw)と光軸ベクトル(Ou,Ov,Ow)については、内蔵している角度センサーを用いて計測している。
The measuring device 3 measures the position and orientation of the camera 2, and coordinates (x, y, z) indicating the approximate position of the camera 2 at the time of shooting by the camera 2 and a target point on the ground from the camera 2. Distance D, the airframe vector (Hu, Hv, Hw), and the optical axis vector (Ou, Ov, Ow).
FIG. 3 is an explanatory diagram illustrating an example of a measurement result of the measurement device 3.
In the first embodiment, the measuring device 3 measures the coordinates (x, y, z) indicating the approximate position of the camera 2 by using a built-in GPS radio wave receiver, and the ground target from the camera 2 is measured. The distance D to the point is measured using the built-in laser range finder, and the built-in angle sensor is used for the body vector (Hu, Hv, Hw) and the optical axis vector (Ou, Ov, Ow). It is measured using.

演算装置4の地図データ記憶部12には、予め地図データが記録されている。
地図データ記憶部12に記録されている地図データは、図4(A)に示すように、建物の形状と建物のIDを示すデータと、図4(B)に示すように、建物のIDと地上高の対応関係を示すテーブルとから構成されている。
Map data is recorded in advance in the map data storage unit 12 of the arithmetic device 4.
The map data recorded in the map data storage unit 12 includes data indicating the shape of the building and the ID of the building as shown in FIG. 4A, and the ID of the building as shown in FIG. 4B. It consists of a table that shows the correspondence of ground clearance.

演算装置4の地上高パタン生成部11は、カメラ2から時刻tの画像データと、時刻t−1の画像データとを受けると、例えば、それらの画像データに対してステレオ画像処理を実施することにより、カメラ2の撮影範囲の3次元形状を推定する。
なお、ステレオ画像処理は、一般に広く知られた計算機処理であるので、ここでは説明を省力する。
例えば、「金谷 健一,三島 等,未校正カメラによる2画像からの3次元復元とその信頼性評価,情報処理学会論文誌: コンピュータビジョンとイメージメディア, Vol.42,No.SIG 6 (CVIM 2) (2001),pp.1-8」などの非特許文献にステレオ画像処理が開示されている。
Upon receiving the image data at time t and the image data at time t-1 from the camera 2, the ground height pattern generation unit 11 of the arithmetic device 4 performs, for example, stereo image processing on the image data. Thus, the three-dimensional shape of the shooting range of the camera 2 is estimated.
Note that stereo image processing is generally well-known computer processing, and therefore description thereof is omitted here.
For example, “Kenya Kanaya, Mishima et al., 3D reconstruction from two images with uncalibrated camera and its reliability evaluation, IPSJ Transactions on Computer Vision and Image Media, Vol. 42, No. SIG 6 (CVIM 2) (2001), pp. 1-8 "and the like, stereo image processing is disclosed.

地上高パタン生成部11は、カメラ2の撮影範囲の3次元形状を推定すると、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する。
即ち、地上高パタン生成部11は、撮影範囲の3次元形状から撮影範囲の各地点の地上高を特定し、各地点の地上高を例えば33×33の2次元アレイとして量子化する。
そして、地上高パタン生成部11は、図5に示すように、各地点が量子化後の地上高に比例する濃淡値を有する地上高パタンを生成する。
図5の例では、撮影範囲が(−16〜+16)×(−16〜+16)の範囲であり、33×33=1089の地点が表されている。各地点における各種の模様は、地上高の範囲を示している。
When the three-dimensional shape of the shooting range of the camera 2 is estimated, the ground height pattern generation unit 11 generates a ground height pattern indicating the ground height of each point in the shooting range from the three-dimensional shape.
That is, the ground height pattern generation unit 11 identifies the ground height at each point in the shooting range from the three-dimensional shape of the shooting range, and quantizes the ground height at each point as, for example, a 33 × 33 two-dimensional array.
Then, as shown in FIG. 5, the ground level pattern generation unit 11 generates a ground level pattern in which each point has a gray value proportional to the ground level after quantization.
In the example of FIG. 5, the shooting range is a range of (−16 to +16) × (−16 to +16), and a point of 33 × 33 = 1089 is represented. Various patterns at each point indicate the range of ground clearance.

標高点データ取得部13は、計測装置3により計測されたカメラ2の位置と姿勢を基準にして、カメラ2の撮影範囲に概ね対応する地表面上の領域を特定する。
即ち、標高点データ取得部13は、図3の計測装置3の計測結果を参照して、カメラ2から出力された画像データの中央部分に相当する地表面上の座標である地表面基準座標(Gx,Gy)を計算する。
ここで、図6はカメラ2の概略位置を示す座標(x,y,z)と、対地表距離D(カメラ2から地上の目標地点までの距離)と、機体ベクトル(Hu,Hv,Hw)と、光軸ベクトル(Ou,Ov,Ow)と、地表面基準座標(Gx,Gy)との関係を示す説明図である。
機体ベクトル(Hu,Hv,Hw)と光軸ベクトル(Ou,Ov,Ow)を示すUVW座標系は、原点から北への向きをU軸、原点から天底への向きをW軸とする右手座標系である。
The elevation point data acquisition unit 13 specifies a region on the ground surface that roughly corresponds to the shooting range of the camera 2 with reference to the position and orientation of the camera 2 measured by the measuring device 3.
That is, the altitude point data acquisition unit 13 refers to the measurement result of the measurement device 3 in FIG. 3, and the ground surface reference coordinates (coordinates on the ground surface corresponding to the central portion of the image data output from the camera 2). Gx, Gy) is calculated.
Here, FIG. 6 shows coordinates (x, y, z) indicating the approximate position of the camera 2, a ground surface distance D (a distance from the camera 2 to a target point on the ground), and an airframe vector (Hu, Hv, Hw). And an optical axis vector (Ou, Ov, Ow) and the ground surface reference coordinates (Gx, Gy).
The UVW coordinate system showing the airframe vector (Hu, Hv, Hw) and the optical axis vector (Ou, Ov, Ow) is a right hand with the U direction from the origin to the north and the W axis from the origin to the nadir. Coordinate system.

地表面基準座標(Gx,Gy)は、下記の式(1)(2)から計算される。
Gx=x+Ou×D (1)
Gy=y+Ov×D (2)
標高点データ取得部13は、地表面基準座標(Gx,Gy)を計算すると、その地表面基準座標(Gx,Gy)を中心として、例えば、東西南北にそれぞれ200mの範囲が、カメラ2の撮影範囲に概ね対応する地表面上の領域であると特定する。
The ground surface reference coordinates (Gx, Gy) are calculated from the following formulas (1) and (2).
Gx = x + Ou × D (1)
Gy = y + Ov × D (2)
When the altitude point data acquisition unit 13 calculates the ground surface reference coordinates (Gx, Gy), the camera 2 captures a range of 200 m from the ground surface reference coordinates (Gx, Gy) to the east, west, south, and north, respectively. Identify the area on the ground surface that roughly corresponds to the range.

標高点データ取得部13は、カメラ2の撮影範囲に概ね対応する地表面上の領域を特定すると、地図データ記憶部12から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する。
即ち、標高点データ取得部13は、地図データ記憶部12から東西南北にそれぞれ200mの範囲の地図データを読み込み、図7に示すように、例えば、その地図データを10mの解像度で量子化し、量子化後の各地点が標高に比例する濃淡値を有する3次元点群(標高点データ)を生成する。
図7の例では、(−200〜+200)×(−200〜+200)の範囲に41×41=1681の地点が表されている。各地点における各種の模様は、標高の範囲を示している。
ここでは、説明の便宜上、地表面基準座標を原点(0,0,0)として、X軸とY軸がそれぞれ平面直角座標のX軸とY軸に平行な右手座標系中のデータとして、標高点データを正規化して用いる。
When the altitude point data acquisition unit 13 specifies an area on the ground surface that roughly corresponds to the shooting range of the camera 2, the altitude point data acquisition unit 13 reads the map data of the area on the ground surface from the map data storage unit 12, Elevation point data indicating the altitude of the is acquired.
That is, the elevation point data acquisition unit 13 reads map data in a range of 200 m from the map data storage unit 12 to the east, west, south, and north, respectively, and quantizes the map data with a resolution of 10 m as shown in FIG. A three-dimensional point group (elevation point data) in which each point after conversion has a gray value proportional to the altitude is generated.
In the example of FIG. 7, 41 × 41 = 1681 points are represented in the range of (−200 to +200) × (−200 to +200). Various patterns at each point indicate the range of elevation.
Here, for convenience of explanation, the altitude is assumed as data in a right-handed coordinate system in which the ground surface reference coordinates are the origin (0, 0, 0), and the X axis and the Y axis are parallel to the X axis and the Y axis, respectively, of plane rectangular coordinates Point data is normalized and used.

透視投影変換部14は、標高点データ取得部13が標高点データを取得すると、パラメータ更新部15により更新される透視投影変換用のパラメータを用いて、その標高点データの透視投影変換を実施する。
下記の式(3)(4)は、透視投影変換部14による透視投影変換の式であり、式(3)(4)では、6つのパラメータ(透視投影変換用カメラのX座標,Y座標,Z座標と、標高点データのX軸回りの回転角,Y軸回りの回転角,Z軸回りの回転角とをパラメータとしている)によって透視投影変換を定義している。
なお、i番目の標高点データの座標を(xi,yi,zi)、透視投影変換用カメラのX値,Y値,Z値をそれぞれCx,Cy,Cz、標高点データのX軸回りの回転角,Y軸回りの回転角,Z軸回りの回転角をそれぞれω,φ,κとしている。
When the elevation point data acquisition unit 13 acquires the elevation point data, the perspective projection conversion unit 14 performs the perspective projection conversion of the elevation point data using the parameters for perspective projection conversion updated by the parameter update unit 15. .
Expressions (3) and (4) below are expressions of perspective projection conversion by the perspective projection conversion unit 14, and in Expressions (3) and (4), six parameters (X coordinate, Y coordinate of the perspective projection conversion camera, The perspective projection transformation is defined by the Z coordinate, the rotation angle around the X axis of the elevation point data, the rotation angle around the Y axis, and the rotation angle around the Z axis) as parameters.
The coordinates of the i-th elevation point data are (x i , y i , z i ), and the X-value, Y-value, and Z-value of the perspective projection conversion camera are C x , C y , C z , and elevation point data, respectively. The rotation angle around the X axis, the rotation angle around the Y axis, and the rotation angle around the Z axis are ω, φ, and κ, respectively.

Figure 0005230354
ただし、fは透視投影変換用カメラの焦点距離、x''iとy''iは透視投影変換後の座標である。
Figure 0005230354
Here, f is a focal length of the perspective projection conversion camera, and x ″ i and y ″ i are coordinates after the perspective projection conversion.

図8、図9及び図10は図7の標高点データに対する透視投影変換例を示す説明図である。
透視投影変換部14が使用する透視投影変換用のパラメータ初期値は、計測装置3の計測結果である図3の数値に基づいて与える。
即ち、カメラ2の概略位置(x,y,z)、カメラ2から目標地点までの距離D、機体ベクトル(Hu,Hv,Hw)、光軸ベクトル(Ou,Ov,Ow)を下記の式(5)〜(12)に代入することで、透視投影変換用のパラメータ(Cx,Cy,Cz),ω,φ,κを計算する(光軸ベクトルがUV平面の第一象限にある場合)。
8, 9 and 10 are explanatory diagrams showing an example of perspective projection conversion for the elevation point data of FIG.
The initial parameter for perspective projection conversion used by the perspective projection conversion unit 14 is given based on the numerical values of FIG.
That is, the approximate position (x, y, z) of the camera 2, the distance D from the camera 2 to the target point, the body vector (Hu, Hv, Hw), and the optical axis vector (Ou, Ov, Ow) are expressed by the following formula ( By substituting into 5) to (12), parameters (Cx, Cy, Cz), ω, φ, κ for perspective projection conversion are calculated (when the optical axis vector is in the first quadrant of the UV plane).

Figure 0005230354
Figure 0005230354

パラメータ更新部15は、地上高パタン生成部11が地上高パタンを生成し、透視投影変換部14が標高点データの透視投影変換を行うと、その地上高パタンと透視投影変換後の標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換部14に設定する。
相関が最大になる透視投影変換用のパラメータの計算は、例えば、局所探索法などの公知のアルゴリズムによって相関評価を行うことにより、相関が最大になる透視投影変換用のパラメータを探索するものである。
即ち、パラメータ更新部15による透視投影変換部14に対するパラメータの設定と、透視投影変換部14による透視投影変換とが繰り返し実行されて、相関が最大になる透視投影変換用のパラメータが探索される。なお、局所探索法は、広く知られた方法であるため、ここでは説明を省略する。
図11は相関が最大になる透視投影変換用のパラメータを用いたときの標高点データの透視投影変換結果の一例を示す説明図である。
When the ground height pattern generation unit 11 generates the ground height pattern and the perspective projection conversion unit 14 performs perspective projection conversion of the elevation point data, the parameter update unit 15 performs elevation projection and elevation point data after the perspective projection conversion. The parameter for perspective projection conversion that maximizes the correlation with is calculated and set in the perspective projection conversion unit 14.
The calculation of the parameters for perspective projection conversion that maximizes the correlation is to search for the parameters for perspective projection conversion that maximizes the correlation, for example, by performing correlation evaluation using a known algorithm such as a local search method. .
That is, the parameter setting for the perspective projection conversion unit 14 by the parameter update unit 15 and the perspective projection conversion by the perspective projection conversion unit 14 are repeatedly executed to search for a parameter for perspective projection conversion that maximizes the correlation. Note that the local search method is a widely known method, and thus the description thereof is omitted here.
FIG. 11 is an explanatory diagram showing an example of the perspective projection conversion result of the elevation point data when the parameter for perspective projection conversion that maximizes the correlation is used.

標高点データ写像部16は、ユーザがマンマシンインタフェースを操作して、カメラ2により撮影された地上の画像データの任意座標を指定すると、透視投影変換部14により透視投影変換された標高点データの中から、その任意座標に対応する標高点データを特定する。
例えば、図4(A)の画像データにおいて、図12(A)に示すようなIX−IY座標上の点(153,165)は、透視投影変換結果である図12(B)のPX−PY座標上の点(−3,2)に対応しているので、点(−3,2)の標高点データを特定する。また、図7のX−Y座標上の点(−70,50)の標高点データに対応しているので、点(−70,50)の標高点データを特定する。
さらに、この標高点データは、図4において、建物IDが“1002”の建物に対応していることを辿ることができる。
標高点データ写像部16は、任意座標に対応する標高点データを特定すると、その標高点データをディスプレイ5上で明示する。
以上のプロセスにより、上空から撮影された画像データの任意座標に対応する建物の特定が可能となる。
When the user operates the man-machine interface and designates arbitrary coordinates of the ground image data photographed by the camera 2, the elevation point data mapping unit 16 converts the elevation point data obtained by the perspective projection conversion by the perspective projection conversion unit 14. Elevation point data corresponding to the arbitrary coordinates is specified from the inside.
For example, in the image data of FIG. 4A, the points (153, 165) on the IX-IY coordinates as shown in FIG. 12A are the PX-PY of FIG. Since it corresponds to the point (−3, 2) on the coordinates, the elevation point data of the point (−3, 2) is specified. Further, since it corresponds to the elevation point data of the point (−70, 50) on the XY coordinates in FIG. 7, the elevation point data of the point (−70, 50) is specified.
Further, this altitude point data can be traced to correspond to the building whose building ID is “1002” in FIG.
When the elevation point data mapping unit 16 specifies the elevation point data corresponding to the arbitrary coordinates, the elevation point data is clearly displayed on the display 5.
With the above process, it is possible to specify a building corresponding to an arbitrary coordinate of image data taken from the sky.

以上で明らかなように、この実施の形態1によれば、カメラ2により撮影された地上の画像データからカメラ2の撮影範囲の3次元形状を推定し、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する地上高パタン生成部11と、計測装置3により計測されたカメラ2の概略の位置を基準にして、撮影範囲に略対応する地表面上の領域を特定して、地図データ記憶部12から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する標高点データ取得部13と、透視投影変換用のパラメータを用いて、標高点データ取得部13により取得された標高点データの透視投影変換を行う透視投影変換部14とを設け、パラメータ更新部15が地上高パタン生成部11により生成された地上高パタンと透視投影変換部14により透視投影変換された標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換部14に設定するように構成したので、ヘリコプタ1に搭載されているカメラ2の正確な現在位置が判明しない場合でも、目標物の位置を正確に特定することができる効果を奏する。   As apparent from the above, according to the first embodiment, the three-dimensional shape of the photographing range of the camera 2 is estimated from the ground image data photographed by the camera 2, and each point in the photographing range is estimated from the three-dimensional shape. An area on the ground surface that substantially corresponds to the shooting range is identified with reference to the approximate position of the camera 2 measured by the measurement device 3 and the ground height pattern generation unit 11 that generates the ground height pattern indicating the ground height. Then, the map data storage unit 12 reads the map data of the area on the ground surface, and acquires the elevation point data acquisition unit 13 for acquiring the elevation point data indicating the elevation of each point from the map data, and for perspective projection conversion. A perspective projection conversion unit 14 that performs perspective projection conversion of the elevation point data acquired by the elevation point data acquisition unit 13 using the parameters is provided, and the parameter update unit 15 is the ground height pattern generation unit 1. Calculates a parameter for perspective projection conversion that maximizes the correlation between the ground height pattern generated by the above and the elevation point data subjected to the perspective projection conversion by the perspective projection conversion unit 14, and sets the parameter in the perspective projection conversion unit 14 Since it comprised so, even when the exact present position of the camera 2 mounted in the helicopter 1 is not known, there exists an effect which can pinpoint the position of a target object correctly.

実施の形態2.
図13はこの発明の実施の形態2による位置特定装置(異動建物検出装置)を示す構成図であり、図において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
異動建物検出部17は透視投影変換部14により透視投影変換された標高点データの中から、地上高パタン生成部11により生成された地上高パタンに対応する標高点データを特定して、その標高点データが透視投影変換される前の標高点データ(標高点データ取得部13により取得された標高点データ)を特定し、透視投影変換される前の標高点データと地上高パタンを比較して、地上高が変化している建物を検出する処理を実施する。なお、異動建物検出部17は異動建物検出手段を構成している。
Embodiment 2. FIG.
FIG. 13 is a block diagram showing a position specifying device (moving building detection device) according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
The transferred building detection unit 17 specifies the elevation point data corresponding to the ground height pattern generated by the ground height pattern generation unit 11 from the elevation point data subjected to the perspective projection conversion by the perspective projection conversion unit 14, and determines the elevation. The elevation point data before the point data is subjected to perspective projection conversion (elevation point data acquired by the elevation point data acquisition unit 13) is specified, and the elevation point data before the perspective projection conversion is compared with the ground height pattern. Execute the process to detect buildings where the ground clearance is changing. In addition, the transfer building detection part 17 comprises the transfer building detection means.

次に動作について説明する。
異動建物検出部17は、上記実施の形態1と同様にして、地上高パタン生成部11が地上高パタンを生成し、透視投影変換部14が標高点データの透視投影変換を実施すると、透視投影変換部14により透視投影変換された標高点データの中から、地上高パタン生成部11により生成された地上高パタンに対応する標高点データを特定する。
例えば、標高点データ写像部16により特定された図4(A)の画像データにおける建物ID「1002」の透視投影変換後の標高点データは、図12(B)の点(−3,2)の標高点データであり、図12(B)の点(−3,2)の標高点データは、図5の地上高パタンRX−RY座標上の点(−3,2)に対応する。
したがって、この例では、図5の点(−3,2)の地上高パタンに対応する透視投影変換後の標高点データは、図12(B)の点(−3,2)の標高点データであると特定する。
Next, the operation will be described.
Similarly to the first embodiment, the transfer building detection unit 17 generates a perspective projection when the ground height pattern generation unit 11 generates a ground height pattern and the perspective projection conversion unit 14 performs perspective projection conversion of the elevation point data. Elevation point data corresponding to the ground height pattern generated by the ground height pattern generation unit 11 is specified from the elevation point data subjected to perspective projection conversion by the conversion unit 14.
For example, the elevation point data after perspective projection conversion of the building ID “1002” in the image data of FIG. 4A specified by the elevation point data mapping unit 16 is the point (−3, 2) of FIG. The elevation point data of the point (−3, 2) in FIG. 12B corresponds to the point (−3, 2) on the ground height pattern RX-RY coordinate in FIG. 5.
Therefore, in this example, the elevation point data after perspective projection conversion corresponding to the ground height pattern of the point (−3, 2) in FIG. 5 is the elevation point data of the point (−3, 2) in FIG. To be identified.

異動建物検出部17は、地上高パタン生成部11により生成された地上高パタンに対応する標高点データを特定すると、その標高点データが透視投影変換される前の標高点データ(標高点データ取得部13により取得された図7の標高点データ)を特定する。
図7の標高点データには、図4(B)の地図データを構成するテーブルの情報が含まれているので、建物ID「1002」の建物の地上高として38mを取得することができる。
一方、図5の地上高パタンは、カメラ2の画像データから推定された各地点の地上高を示すので、建物ID「1002」の建物の推定地上高として、「35m以上」を得ることができる。
When the transferred building detection unit 17 specifies the elevation point data corresponding to the ground height pattern generated by the ground height pattern generation unit 11, the elevation point data (elevation point data acquisition) before the elevation point data is subjected to perspective projection conversion. The elevation point data of FIG. 7 acquired by the unit 13) is specified.
Since the elevation point data in FIG. 7 includes the information of the table constituting the map data in FIG. 4B, 38 m can be acquired as the ground height of the building with the building ID “1002”.
On the other hand, since the ground height pattern in FIG. 5 indicates the ground height at each point estimated from the image data of the camera 2, “35 m or more” can be obtained as the estimated ground height of the building with the building ID “1002”. .

異動建物検出部17は、図5の地上高パタンから得られる建物ID「1002」の建物の推定地上高と、図7の標高点データから得られる建物ID「1002」の建物の地上高とを比較して、建物ID「1002」の建物の地上高が変化しているか否かを検出する。
ここでは、建物ID「1002」の建物の地上高が変化しているか否かを検出するものについて示したが、カメラ2の撮影範囲内の各建物について、地上高が変化しているか否かを検出することで、地上高が増加している建物や、減少している建物を検出することができる。
The transfer building detection unit 17 calculates the estimated ground height of the building with the building ID “1002” obtained from the ground height pattern in FIG. 5 and the ground height of the building with the building ID “1002” obtained from the elevation point data in FIG. In comparison, it is detected whether the ground height of the building with the building ID “1002” has changed.
Here, the detection of whether or not the ground height of the building with the building ID “1002” has changed has been shown, but whether or not the ground height has changed for each building within the shooting range of the camera 2 is shown. By detecting, it is possible to detect a building where the ground height is increasing or a building where the ground height is decreasing.

以上で明らかなように、この実施の形態2によれば、異動建物検出部17が、透視投影変換部14により透視投影変換された標高点データの中から、地上高パタン生成部11により生成された地上高パタンに対応する標高点データを特定して、その標高点データが透視投影変換される前の標高点データを特定し、透視投影変換される前の標高点データと地上高パタンを比較して、地上高が変化している建物を検出するように構成したので、ヘリコプタ1に搭載されているカメラ2の正確な現在位置が判明しない場合でも、地上高が変化している建物を正確に検出することができる効果を奏する。   As is apparent from the above, according to the second embodiment, the transferred building detection unit 17 is generated by the ground height pattern generation unit 11 from the elevation point data subjected to the perspective projection conversion by the perspective projection conversion unit 14. The elevation point data corresponding to the above-mentioned ground height pattern is identified, the elevation point data before the elevation point data is subjected to perspective projection conversion is identified, and the elevation point data before the perspective projection transformation is compared with the ground height pattern. Because the building where the ground height is changing is detected, even if the exact current position of the camera 2 mounted on the helicopter 1 is not known, the building where the ground height is changing is accurately detected. There is an effect that can be detected.

実施の形態3.
上記実施の形態1,2では、標高点データ取得部13が地図データから各地点の標高を示す標高点データを取得するものについて示したが、地図データに含まれている標高点データのうち、重要度が所定値以上の標高点データだけを取得するようにしてもよい。
具体的には、以下の通りである。
Embodiment 3 FIG.
In Embodiments 1 and 2 described above, the elevation point data acquisition unit 13 acquires the elevation point data indicating the elevation of each point from the map data. Among the elevation point data included in the map data, You may make it acquire only the elevation point data whose importance is more than a predetermined value.
Specifically, it is as follows.

標高点データ取得部13により取得された標高点データを示している図7の例では、標高点の数が41×41=1681点である。
透視投影変換部14は、地上高が高い建物順に重要度が定義されており、例えば、重要度が所定値以上である標高点データが、標高が15m以上の標高点データであるとすれば、地図データに含まれている標高点データのうち、標高が15m以上の標高点データだけを取得するようにする。
図14は標高が15m以上の標高点データの一例を示す説明図である。
図14の例では、標高点の数が530点に減少している。
In the example of FIG. 7 showing the elevation point data acquired by the elevation point data acquisition unit 13, the number of elevation points is 41 × 41 = 1688.
The perspective projection conversion unit 14 has importance defined in the order of buildings with the highest ground height. For example, if the elevation point data having an importance level equal to or higher than a predetermined value is elevation point data having an elevation level of 15 m or higher, Of the elevation point data included in the map data, only elevation point data having an elevation of 15 m or higher is acquired.
FIG. 14 is an explanatory diagram showing an example of altitude point data having an altitude of 15 m or more.
In the example of FIG. 14, the number of elevation points is reduced to 530 points.

以上で明らかなように、この実施の形態3によれば、地図データに含まれている標高点データのうち、重要度が所定値以上の標高点データだけを取得するように構成したので、透視投影変換部14における透視投影変換の処理量が減少し、その結果、位置の特定や建物の検出を高速に行うことができる効果を奏する。   As apparent from the above, according to the third embodiment, the elevation point data included in the map data is configured to acquire only the elevation point data having an importance level equal to or higher than the predetermined value. The processing amount of the perspective projection conversion in the projection conversion unit 14 is reduced. As a result, there is an effect that the position can be specified and the building can be detected at high speed.

実施の形態4.
以下、上記実施の形態1〜3の変形例について説明する。
<変形例1>
上記実施の形態1では、カメラ2の位置と姿勢を特定する情報として、計測装置3が緯度・経度・高度・ロール角・ピッチ角・ヨー角を計測するものについて示したが、さらに、カメラ2を固定している雲台の取付角(パン角・チルト角)を計測するようにしてもよい。
これにより、カメラ2の撮影方向が固定されておらず、撮影方向が変化する場合にも適用することができる。
Embodiment 4 FIG.
Hereinafter, modified examples of the first to third embodiments will be described.
<Modification 1>
In the first embodiment, as information for specifying the position and orientation of the camera 2, the measurement device 3 has measured the latitude, longitude, altitude, roll angle, pitch angle, and yaw angle. You may make it measure the mounting angle (pan angle / tilt angle) of the pan head which is fixing.
Thereby, the shooting direction of the camera 2 is not fixed, and the present invention can be applied even when the shooting direction changes.

<変形例2>
上記実施の形態1では、標高点データ取得部13が地図データを10mの解像度で量子化するものについて示したが、量子化の解像度は10mに限るものではなく、例えば、5mや1mなどの細かい解像度で量子化するようにしてもよい。
このように、細かい解像度で量子化すれば、10mの解像度では、情報が欠落して位置の特定が困難であった小規模建物についても、位置を特定することができるようになる。
<Modification 2>
In the first embodiment, the altitude point data acquisition unit 13 quantizes the map data at a resolution of 10 m. However, the quantization resolution is not limited to 10 m, and is fine, for example, 5 m or 1 m. You may make it quantize with the resolution.
As described above, if quantization is performed with a fine resolution, it is possible to specify the position of a small-scale building in which it is difficult to specify a position due to lack of information at a resolution of 10 m.

<変形例3>
上記実施の形態1では、透視投影変換部14が、透視投影変換用の6つのパラメータとして、透視投影変換用カメラのX座標,Y座標,Z座標と、標高点データのX軸回りの回転角,Y軸回りの回転角,Z軸回りの回転角とを用いるものについて示したが、透視投影変換用の6つのパラメータとして、透視投影変換用カメラのX座標,Y座標,Z座標と、ロール角,ピッチ角,ヨー角とを用いるようにしてもよい。
<Modification 3>
In the first embodiment, the perspective projection conversion unit 14 uses the X, Y, and Z coordinates of the perspective projection conversion camera as the six parameters for perspective projection conversion, and the rotation angle around the X axis of the elevation point data. , The rotation angle around the Y axis and the rotation angle around the Z axis have been shown, but as the six parameters for perspective projection conversion, the X coordinate, Y coordinate, Z coordinate and roll of the perspective projection conversion camera An angle, a pitch angle, and a yaw angle may be used.

<変形例4>
上記実施の形態1では、計測装置3が内蔵するレーザーレンジファインダを用いて、カメラ2から地上の目標地点までの距離Dを計測するものについて示したが、レーザーレンジファインダを用いずに、カメラ2により撮影された画像データを参照して、カメラ2から地上の目標地点までの距離Dを計算するようにしてもよい。
図15はカメラ2により撮影された画像データと計測装置3の計測データから、カメラ2から地上の目標地点までの距離Dを計算する方法を示す説明図である。
<Modification 4>
In the first embodiment, the laser range finder built in the measuring device 3 is used to measure the distance D from the camera 2 to the target point on the ground, but the camera 2 is used without using the laser range finder. The distance D from the camera 2 to the target point on the ground may be calculated with reference to the image data photographed by the above.
FIG. 15 is an explanatory diagram showing a method for calculating the distance D from the camera 2 to the target point on the ground from the image data photographed by the camera 2 and the measurement data of the measuring device 3.

距離Dの概算値は、下記の式(13)によって計算される。

Figure 0005230354
The approximate value of the distance D is calculated by the following equation (13).
Figure 0005230354

ただし、(Xt,Yt,Zt)は時刻tにおけるカメラ2の座標、(Xt-1,Yt-1,Zt-1)は時刻t−1におけるカメラ2の座標、mは地表面上の地点Aのカメラ投影面(モデル)上の時刻t−1から時刻tまでの間の移動距離、fはカメラ2の焦点距離、(ex,ey,ez)はカメラ2の光軸ベクトル、φはカメラ2の移動ベクトルと光軸ベクトルのなす角、Mはカメラ2の時刻t−1から時刻tまでの間の移動距離である。
なお、地点Aは、時刻tに撮影された画像データにおいて、画像中央付近にある構造物の地点である。
However, (X t , Y t , Z t ) are the coordinates of the camera 2 at time t, (X t−1 , Y t−1 , Z t−1 ) are the coordinates of the camera 2 at time t−1, and m is moving distance from the time t-1 on the camera projection surface point a on the ground surface (model) to time t, f is the focal length of the camera 2, (e x, e y , e z) camera 2 , Φ is the angle formed by the movement vector of the camera 2 and the optical axis vector, and M is the movement distance of the camera 2 from time t−1 to time t.
Note that the point A is a point of a structure near the center of the image in the image data taken at time t.

<変形例4>
上記実施の形態3では、標高点データの重要度として、地上高が高い建物順に重要度が定義されているものについて示したが、標高点データの重要度として、建物の建築面積、耐震強度、上部構造物の複雑さ又は単純さなどを定義するようにしてもよい。
<Modification 4>
In Embodiment 3 above, as the importance of elevation point data, the importance is defined in the order of buildings with the highest ground height. However, as the importance of elevation point data, the building area, seismic strength, The complexity or simplicity of the superstructure may be defined.

この発明の実施の形態1による位置特定装置を示す構成図である。It is a block diagram which shows the position specific apparatus by Embodiment 1 of this invention. カメラ2により撮影された地上の画像データの一例を示す説明図である。It is explanatory drawing which shows an example of the ground image data image | photographed with the camera. 計測装置3の計測結果の一例を示す説明図である。It is explanatory drawing which shows an example of the measurement result of the measuring device. 地図データ記憶部12に記録されている地図データの一例を示す説明図である。It is explanatory drawing which shows an example of the map data currently recorded on the map data storage part. 地上高パタン生成部11により生成された地上高パタンの一例を示す説明図である。It is explanatory drawing which shows an example of the ground high pattern produced | generated by the ground high pattern production | generation part. カメラ2の概略位置を示す座標(x,y,z)と、対地表距離D(カメラ2から地上の目標地点までの距離)と、機体ベクトル(Hu,Hv,Hw)と、光軸ベクトル(Ou,Ov,Ow)と、地表面基準座標(Gx,Gy)との関係を示す説明図である。The coordinates (x, y, z) indicating the approximate position of the camera 2, the distance D to the ground surface (the distance from the camera 2 to the target point on the ground), the body vector (Hu, Hv, Hw), and the optical axis vector ( It is explanatory drawing which shows the relationship between (Ou, Ov, Ow) and ground surface reference coordinates (Gx, Gy). 標高点データ取得部13により取得された標高点データの一例を示す説明図である。It is explanatory drawing which shows an example of the altitude point data acquired by the altitude point data acquisition part. 図7の標高点データに対する透視投影変換例を示す説明図である。It is explanatory drawing which shows the example of perspective projection conversion with respect to the elevation point data of FIG. 図7の標高点データに対する透視投影変換例を示す説明図である。It is explanatory drawing which shows the example of perspective projection conversion with respect to the elevation point data of FIG. 図7の標高点データに対する透視投影変換例を示す説明図である。It is explanatory drawing which shows the example of perspective projection conversion with respect to the elevation point data of FIG. 相関が最大になる透視投影変換用のパラメータを用いたときの標高点データの透視投影変換結果の一例を示す説明図である。It is explanatory drawing which shows an example of the perspective projection conversion result of the elevation point data when the parameter for perspective projection conversion that maximizes the correlation is used. 画像データと透視投影変換後の標高点データの一例を示す説明図である。It is explanatory drawing which shows an example of the altitude point data after image data and perspective projection conversion. この発明の実施の形態2による位置特定装置(異動建物検出装置)を示す構成図である。It is a block diagram which shows the position specification apparatus (change building detection apparatus) by Embodiment 2 of this invention. 標高が15m以上の標高点データの一例を示す説明図である。It is explanatory drawing which shows an example of the elevation point data whose elevation is 15 m or more. カメラ2により撮影された画像データと計測装置3の計測データから、カメラ2から地上の目標地点までの距離Dを計算する方法を示す説明図である。It is explanatory drawing which shows the method of calculating the distance D from the camera 2 to the target point on the ground from the image data image | photographed with the camera 2, and the measurement data of the measuring device 3. FIG.

符号の説明Explanation of symbols

1 ヘリコプタ、2 カメラ、3 計測装置、4 演算装置、11 地上高パタン生成部(地上高パタン生成手段)、12 地図データ記憶部(地図データ記憶手段)、13 標高点データ取得部(標高点データ取得手段)、14 透視投影変換部(透視投影変換手段)、15 パラメータ更新部(パラメータ更新手段)、16 標高点データ写像部(標高点データ写像手段)、17 異動建物検出部(異動建物検出手段)。   DESCRIPTION OF SYMBOLS 1 Helicopter, 2 Cameras, 3 Measuring apparatus, 4 Arithmetic unit, 11 Ground height pattern production | generation part (ground height pattern production | generation means), 12 Map data storage part (map data storage means), 13 Elevation point data acquisition part (elevation point data Acquisition unit), 14 perspective projection conversion unit (perspective projection conversion unit), 15 parameter update unit (parameter update unit), 16 elevation point data mapping unit (elevation point data mapping unit), 17 changed building detection unit (changed building detection unit) ).

Claims (4)

上空から地上を撮影する撮影手段と、上記撮影手段の概略の位置を計測する計測手段と、上記撮影手段により撮影された地上の画像データから上記撮影手段の撮影範囲の3次元形状を推定し、上記3次元形状から上記撮影範囲における各地点の地上高を示す地上高パタンを生成する地上高パタン生成手段と、地図データを記憶している地図データ記憶手段と、上記計測手段により計測された上記撮影手段の概略の位置を基準にして、上記撮影範囲に略対応する地表面上の領域を特定して、上記地図データ記憶手段から上記地表面上の領域の地図データを読み込み、上記地図データから各地点の標高を示す標高点データを取得する標高点データ取得手段と、透視投影変換用のパラメータを用いて、上記標高点データ取得手段により取得された標高点データの透視投影変換を行う透視投影変換手段と、上記地上高パタン生成手段により生成された地上高パタンと上記透視投影変換手段により透視投影変換された標高点データとの相関が最大になる上記透視投影変換用のパラメータを計算して、上記パラメータを上記透視投影変換手段に設定するパラメータ更新手段と、上記透視投影変換手段により透視投影変換された標高点データの中から、上記撮影手段により撮影された地上の画像データの任意座標に対応する標高点データを特定する標高点データ写像手段とを備えた位置特定装置。   An imaging means for imaging the ground from above, a measuring means for measuring the approximate position of the imaging means, and estimating the three-dimensional shape of the imaging range of the imaging means from the ground image data captured by the imaging means, The ground height pattern generating means for generating the ground height pattern indicating the ground height at each point in the shooting range from the three-dimensional shape, the map data storage means storing map data, and the measurement means measured by the measuring means Based on the approximate position of the photographing means, an area on the ground surface substantially corresponding to the photographing range is specified, map data of the area on the ground surface is read from the map data storage means, and from the map data The altitude point data acquiring means for acquiring the altitude point data indicating the altitude of each point and the altitude point data acquiring means using the parameters for perspective projection conversion. The perspective projection conversion means for performing perspective projection conversion of point data, the above-described maximum correlation between the ground height pattern generated by the ground height pattern generation means and the elevation point data subjected to the perspective projection conversion by the perspective projection conversion means A parameter updating unit that calculates a parameter for perspective projection conversion and sets the parameter in the perspective projection conversion unit, and an altitude point data that has been subjected to perspective projection conversion by the perspective projection conversion unit, is captured by the imaging unit. A position specifying device comprising: elevation point data mapping means for specifying elevation point data corresponding to arbitrary coordinates of the obtained ground image data. 透視投影変換手段により透視投影変換された標高点データの中から、地上高パタン生成手段により生成された地上高パタンに対応する標高点データを特定して、上記標高点データが透視投影変換される前の標高点データを特定し、透視投影変換される前の上記標高点データと上記地上高パタンを比較して、地上高が変化している建物を検出する異動建物検出手段を設けたことを特徴とする請求項1記載の位置特定装置。   The elevation point data corresponding to the ground height pattern generated by the ground height pattern generation means is identified from the elevation point data that has been perspective projection transformed by the perspective projection transformation means, and the elevation point data is perspective projection transformed. Identifying the previous elevation point data, comparing the elevation point data before the perspective projection conversion with the above ground height pattern, and providing a moving building detection means for detecting a building whose ground height is changing. The position specifying device according to claim 1, wherein 標高点データ取得手段は、地図データに含まれている標高点データのうち、重要度が所定値以上の標高点データだけを取得することを特徴とする請求項1または請求項2記載の位置特定装置。   3. The position specification according to claim 1, wherein the elevation point data acquisition means acquires only elevation point data having an importance level equal to or higher than a predetermined value from the elevation point data included in the map data. apparatus. 上空から地上を撮影する撮影手段と、上記撮影手段の概略の位置を計測する計測手段と、上記撮影手段により撮影された地上の画像データから上記撮影手段の撮影範囲の3次元形状を推定し、上記3次元形状から上記撮影範囲における各地点の地上高を示す地上高パタンを生成する地上高パタン生成手段と、地図データを記憶している地図データ記憶手段と、上記計測手段により計測された上記撮影手段の概略の位置を基準にして、上記撮影範囲に略対応する地表面上の領域を特定して、上記地図データ記憶手段から上記地表面上の領域の地図データを読み込み、上記地図データから各地点の標高を示す標高点データを取得する標高点データ取得手段と、透視投影変換用のパラメータを用いて、上記標高点データ取得手段により取得された標高点データの透視投影変換を行う透視投影変換手段と、上記地上高パタン生成手段により生成された地上高パタンと上記透視投影変換手段により透視投影変換された標高点データとの相関が最大になる上記透視投影変換用のパラメータを計算して、上記パラメータを上記透視投影変換手段に設定するパラメータ更新手段と、上記透視投影変換手段により透視投影変換された標高点データの中から、上記地上高パタン生成手段により生成された地上高パタンに対応する標高点データを特定して、上記標高点データが透視投影変換される前の標高点データを特定し、透視投影変換される前の上記標高点データと上記地上高パタンを比較して、地上高が変化している建物を検出する異動建物検出手段とを備えた異動建物検出装置。   An imaging means for imaging the ground from above, a measuring means for measuring the approximate position of the imaging means, and estimating the three-dimensional shape of the imaging range of the imaging means from the ground image data captured by the imaging means, The ground height pattern generating means for generating the ground height pattern indicating the ground height at each point in the shooting range from the three-dimensional shape, the map data storage means storing map data, and the measurement means measured by the measuring means Based on the approximate position of the photographing means, an area on the ground surface substantially corresponding to the photographing range is specified, map data of the area on the ground surface is read from the map data storage means, and from the map data The altitude point data acquiring means for acquiring the altitude point data indicating the altitude of each point and the altitude point data acquiring means using the parameters for perspective projection conversion. The perspective projection conversion means for performing perspective projection conversion of point data, the above-described maximum correlation between the ground height pattern generated by the ground height pattern generation means and the elevation point data subjected to the perspective projection conversion by the perspective projection conversion means A parameter update unit that calculates parameters for perspective projection conversion and sets the parameters in the perspective projection conversion unit, and generates the ground height pattern from the elevation point data that has been perspective projection converted by the perspective projection conversion unit. The elevation point data corresponding to the ground height pattern generated by the means is specified, the elevation point data before the elevation point data is subjected to perspective projection conversion, the elevation point data before the perspective projection conversion is specified, and A changed building detection apparatus comprising: changed building detection means for detecting a building whose ground height is changing by comparing the above ground height patterns.
JP2008276845A 2008-10-28 2008-10-28 POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE Active JP5230354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008276845A JP5230354B2 (en) 2008-10-28 2008-10-28 POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008276845A JP5230354B2 (en) 2008-10-28 2008-10-28 POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE

Publications (2)

Publication Number Publication Date
JP2010107224A JP2010107224A (en) 2010-05-13
JP5230354B2 true JP5230354B2 (en) 2013-07-10

Family

ID=42296823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008276845A Active JP5230354B2 (en) 2008-10-28 2008-10-28 POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE

Country Status (1)

Country Link
JP (1) JP5230354B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107057303B (en) * 2017-06-13 2019-01-11 北京化工大学 A kind of blending and modifying aromatic polyester microcellular foam material and preparation method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5566353B2 (en) * 2011-09-02 2014-08-06 株式会社パスコ Data analysis apparatus, data analysis method, and program
WO2023047799A1 (en) * 2021-09-22 2023-03-30 富士フイルム株式会社 Image processing device, image processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP3465047B2 (en) * 2000-11-16 2003-11-10 独立行政法人航空宇宙技術研究所 A stereoscopic system that detects flat areas during vertical descent
JP2003148916A (en) * 2001-11-15 2003-05-21 Furukawa Electric Co Ltd:The Method and device for displacement measurement of steel tower and storage medium used for the displacement measurement
JP3759712B2 (en) * 2001-11-22 2006-03-29 日本電信電話株式会社 Camera parameter estimation method, apparatus, program, and recording medium
JP4339289B2 (en) * 2005-07-28 2009-10-07 Necシステムテクノロジー株式会社 Change determination device, change determination method, and change determination program
JP4896762B2 (en) * 2007-02-16 2012-03-14 三菱電機株式会社 Image processing apparatus and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107057303B (en) * 2017-06-13 2019-01-11 北京化工大学 A kind of blending and modifying aromatic polyester microcellular foam material and preparation method thereof

Also Published As

Publication number Publication date
JP2010107224A (en) 2010-05-13

Similar Documents

Publication Publication Date Title
JP6002126B2 (en) Method and apparatus for image-based positioning
US9224208B2 (en) Image-based surface tracking
US9001203B2 (en) System and program for generating integrated database of imaged map
JP6658001B2 (en) Position estimation device, program, position estimation method
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
JP5762131B2 (en) CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM
KR20130138247A (en) Rapid 3d modeling
JP6589636B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2013539872A (en) Online reference generation and tracking in multi-user augmented reality
Chen et al. Color and depth data fusion using an RGB‐D sensor for inexpensive and contactless dynamic displacement‐field measurement
WO2020031950A1 (en) Measurement calibration device, measurement calibration method, and program
KR101715780B1 (en) Voxel Map generator And Method Thereof
JP5384316B2 (en) Displacement measuring device, displacement measuring method, and displacement measuring program
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
JP4077385B2 (en) Global coordinate acquisition device using image processing
KR20180076441A (en) Method and apparatus for detecting object using adaptive roi and classifier
CN115371673A (en) Binocular camera target positioning method based on Bundle Adjustment in unknown environment
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
JP2018173882A (en) Information processing device, method, and program
JP2010009236A (en) Plane area estimation device and program
JP5409451B2 (en) 3D change detector
CN114429515A (en) Point cloud map construction method, device and equipment
CN111133274B (en) Method for estimating the movement of an object moving in an environment and a magnetic field
WO2024034469A1 (en) Information processing device, information processing method, and program
JP7117408B1 (en) POSITION CALCULATION DEVICE, PROGRAM AND POSITION CALCULATION METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5230354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250