JP2012137933A - Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device - Google Patents

Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device Download PDF

Info

Publication number
JP2012137933A
JP2012137933A JP2010289847A JP2010289847A JP2012137933A JP 2012137933 A JP2012137933 A JP 2012137933A JP 2010289847 A JP2010289847 A JP 2010289847A JP 2010289847 A JP2010289847 A JP 2010289847A JP 2012137933 A JP2012137933 A JP 2012137933A
Authority
JP
Japan
Prior art keywords
shape
model
photographed
coordinate system
digital elevation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010289847A
Other languages
Japanese (ja)
Inventor
Toshiharu Murai
俊治 村井
Takumi Sato
匠 佐藤
Masaru Mori
大 森
Sakae Mukoyama
栄 向山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Kogyo Co Ltd
Original Assignee
Kokusai Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Kogyo Co Ltd filed Critical Kokusai Kogyo Co Ltd
Priority to JP2010289847A priority Critical patent/JP2012137933A/en
Publication of JP2012137933A publication Critical patent/JP2012137933A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method grasping a position of planimetric features, e.g., a disaster-stricken position, and a shape of the planimetric features, e.g., a disaster scale, without causing a staff such as a surveying engineer to enter a disaster-stricken area and a program thereof, and further to provide a method capable of specifying a photographic position by a photographed photo image, a device and a program thereof.SOLUTION: A position specifying method of planimetric features to be photographed according to the present invention comprises the steps of: selecting four or more feature points from a shape of planimetric features to be photographed while providing the feature points with coordinates; selecting four or more points corresponding to the feature points from a model shape, on which a land surface model is projected, while providing the points corresponding thereto with coordinates; associating any coordinate system in a plane of a photo image with any coordinate system in the plane representing the model shape by causing the feature points of the planimetric features to be photographed to correspond to the points corresponding to the feature points of the model shape; providing the planimetric features to be photographed with space information based on a numerical altitude model; and specifying a position of the planimetric features to be photographed or/and the shape thereof.

Description

本願発明は、撮影した写真に写る被写地物の位置を特定する方法とプログラム、表示地図、及び写真を撮影した地点を特定する方法とそのプログラムと装置に関するものである。   The present invention relates to a method and program for specifying the position of an object to be photographed in a photograph taken, a display map, a method for identifying a spot where a photograph is taken, a program and an apparatus therefor.

我が国は地震が頻発する国として知られ、近年でも兵庫県南部地震や、新潟県中越地震など大きな地震が発生し、そのたびに甚大な被害を被っている。また、台風による被害もほぼ毎年のように発生しており、さらに昨今では、突発的に生ずる豪雨によって種々の被害を受けることがある。これら自然災害は、斜面崩壊を引き起こすことが多く、場合によっては地すべりの誘因となることもある。   Japan is known as a country where earthquakes occur frequently. In recent years, large earthquakes such as the Hyogoken-Nanbu Earthquake and the Niigata Chuetsu Earthquake have occurred, and each time they are suffering enormous damage. In addition, damage caused by typhoons occurs almost every year, and recently, various types of damage can be caused by sudden heavy rain. These natural disasters often cause slope failures and in some cases can trigger landslides.

斜面崩壊や地すべり(以下、「斜面崩壊等」という。)は、直下にある集落、道路、河川、砂防施設に対して被害を与えるものであり、植林や樹木を倒し森林資源を滅失させるとともに自然環境に対して影響を与えるものである。斜面崩壊等の災害によって集落や道路などが被害を受けると、これらの機能を復旧すべく速やかに対策が施される。   Slope failures and landslides (hereinafter referred to as “slope failures, etc.”) damage villages, roads, rivers, and sabo facilities directly below them. It has an impact on the environment. When villages or roads are damaged by disasters such as slope failures, measures are taken promptly to restore these functions.

対策工の計画、設計を実施するためには、斜面崩壊等による被災位置や被災規模(崩壊した形状や大きさなど)をできるだけ正確に把握する必要がある。一方で、斜面崩壊等は2次災害のおそれもあり、災害後直ちに被災地に近寄ることはできない。従来では、安全の確認を待ったうえで、測量技師がトータルステーションなどの測量機器を携えて被災地に入り、被災位置や被災規模を計測していた。被災規模が大きな場合や、その被害による社会的影響が大きい場合など、航空機によるステレオ写真撮影を用いて被災位置や被災規模を把握することもあるが、写真撮影のための飛行は天候に左右されることもあり、機動性に欠けるうえその手間や費用も大掛かりとなってしまう。   In order to implement countermeasures planning and design, it is necessary to ascertain as accurately as possible the location and scale of damage (such as collapsed shape and size) due to slope failure. On the other hand, slope failures, etc. may also be a secondary disaster, and it is not possible to approach the disaster area immediately after the disaster. Conventionally, after waiting for safety confirmation, a survey engineer enters a disaster-stricken area with a surveying device such as a total station, and measures the location and scale of the disaster. In some cases, such as when the scale of the disaster is large or the social impact of the damage is large, the location of the disaster and the scale of the damage may be ascertained using stereo photography by aircraft, but the flight for photography depends on the weather. In some cases, it lacks mobility and costs and labor.

前述のとおり、斜面崩壊等の災害に対しては迅速に復旧対策を実施する必要があり、そのためには可能な限り速やかに被災位置や被災規模を把握しなければならない。しかしながら、トータルステーションなど測量機器による計測方法は、被災地の安全確認のため計測までに所定期間を要し迅速性に欠けるうえ、被災地に進入する危険と機器等の運搬のための過酷な労力を測量技師に要求していた。また、航空機によるステレオ写真撮影を用いる方法は、天候に左右されるなど機動性に欠けるとともに手間や費用がかかるうえ、被災地周辺に計測点を設置する必要があることから、やはり被災地の安全確認のための期間を要し迅速性にも欠けるものである。   As described above, it is necessary to take quick recovery measures for disasters such as slope failures, and for that purpose, the location and scale of damage must be as quickly as possible. However, the measurement method using surveying equipment such as a total station requires a certain period of time for measurement to confirm the safety of the disaster-stricken area, lacks speed, and takes the harsh labor to transport the equipment and the risk of entering the disaster-stricken area. Requested a surveyor. In addition, the method using stereo photography by aircraft is not very mobile, such as being affected by the weather, is laborious and expensive, and requires measurement points around the disaster-stricken area. It takes a period for confirmation and lacks quickness.

このように、被災位置や被災規模を把握する従来手法は種々問題を抱えていることから、測量技師など人が被災地に立ち入ることなく、しかも斜面崩壊等の災害発生後速やかに被災位置や被災規模を把握する手法が待望されていた。本願発明は、この期待に応えるべくなされたもので、デジタルカメラ等で撮影した写真と数値標高モデルを利用した発明である。   As described above, the conventional methods for determining the location and scale of the disaster have various problems, so surveying engineers and other people do not enter the disaster-stricken area, and promptly after a disaster such as a slope failure occurs, There was a long-awaited approach to grasp the scale. The present invention has been made to meet this expectation and uses a photograph taken with a digital camera or the like and a digital elevation model.

撮影写真と数値標高モデルを用いて被災地などの位置を特定する技術に関してはこれまで提案されていないものの、本願発明でも一部利用している「数値標高モデルを任意視点から見た地形を用いた技術」についてはいくつか提案されている。   Although no technology has been proposed to identify the location of a disaster-stricken area using a photograph and a digital elevation model, it has been partially used in the present invention. Several technologies have been proposed.

国際公開公報WO2006/134962International Publication WO2006 / 134962 特開平05−46080JP 05-46080

特許文献1の投影図生成システムは、カーナビゲーションなどに利用されるもので、ある視点から3次元地形モデルを見たときの2次元投影面を表示するとともに、進行先の道路が遮蔽物によって隠れる場合にはこの遮蔽物を取り除いて表示するものである。   The projection map generation system disclosed in Patent Document 1 is used for car navigation and the like, displays a two-dimensional projection plane when a three-dimensional terrain model is viewed from a certain viewpoint, and hides a destination road by a shielding object. In some cases, the shield is removed and displayed.

特許文献2の透視図作成装置は、任意視点から3次元のデジタル位置データを見た投影面を透視図として表示するものであり、航行中の飛行機に搭載した場合など高速で視点位置が移動しても、その速度に対応した処理を行いリアルタイムで透視図を表示するものである。   The perspective view creation apparatus of Patent Document 2 displays a projection plane obtained by viewing three-dimensional digital position data from an arbitrary viewpoint as a perspective view, and the viewpoint position moves at a high speed when mounted on a sailing airplane. However, processing corresponding to the speed is performed and a perspective view is displayed in real time.

特許文献1や特許文献2のように、数値標高モデル(3次元の地形モデル)を任意の視点から見た投影面(あるいは透視面、以下「投影面」で統一する)を作成し、この投影面を利用する技術は、従来から様々な分野で利用されている。本願発明もこの任意視点からの投影面を利用するものであり、撮影された写真と照らし合わせることで写真中の地物位置が特定できることに着目してなされた発明である。 As in Patent Document 1 and Patent Document 2, a projection plane (or a perspective plane, hereinafter referred to as “projection plane”) obtained by viewing a digital elevation model (three-dimensional terrain model) from an arbitrary viewpoint is created. The technology using the surface has been conventionally used in various fields. The present invention also utilizes the projection plane from this arbitrary viewpoint, and is an invention made by paying attention to the fact that the position of the feature in the photograph can be specified by comparing with the photographed photograph.

さらに、投影面と写真中の地物を照合させると、その投影面の視点位置である写真撮影位置も特定できる。過去に撮影した写真がどこで撮影したものかを確認したい場合、あるいは観光地など不案内な場所で現在位置を把握したい場合など、撮影した写真によって、あるいは写真を撮影することによって写真撮影位置を特定できる技術はこれまで提案されることがなかった。   Further, by collating the projection surface with the feature in the photograph, the photographing position that is the viewpoint position of the projection surface can be specified. If you want to check where a photograph taken in the past was taken, or if you want to know the current position in an unfamiliar place such as a sightseeing spot, specify the shooting position by taking a picture or by taking a picture No technology that could be proposed has been proposed before.

本願発明の課題は、測量技師など人が被災地に立ち入ることなく地物位置(例えば、被災位置)や地物形状(例えば、被災規模)を把握する方法とそのプログラム及びその位置を表示した地図を提供するとともに、撮影した写真によって写真撮影位置を特定できる方法と装置とそのプログラムを提供することにある。 An object of the present invention is a method for grasping a feature position (for example, a damaged position) and a feature shape (for example, a damaged scale) without a person such as a surveying engineer entering the damaged area, a program for the method, and a map displaying the position And a method and apparatus capable of specifying a photo shooting position based on a photograph taken, and a program therefor.

本願発明の被写地物の位置特定方法は、数地標高モデルに基づいて、写真に写された被写地物の位置又は/及び形状を特定する方法であって、前記被写地物の形状から4点以上の特徴点を選出するとともに、これら特徴点に対して、写真平面内の任意座標系による座標を付与し、前記数値標高モデルに基づく地表モデルを投影したモデル形状から前記特徴点に相当する点を4点以上選出するとともに、これら特徴点に相当する点に対して、モデル形状を表す平面内の任意座標系の座標を付与し、前記被写地物の特徴点と、前記モデル形状の特徴点に相当する点とを対応させることで、写真平面内の任意座標系と、モデル形状を表す平面内の任意座標系とを関連づけ、前記数値標高モデルに基づいて、前記被写地物に空間情報を付与し、当該被写地物の位置又は/及び形状を特定する方法である。   The object specifying method of the present invention is a method for specifying the position or / and the shape of an object photographed in a photograph based on a number of elevation models, Four or more feature points are selected from the shape, and coordinates are assigned to these feature points in an arbitrary coordinate system in the photographic plane, and the feature points are derived from a model shape obtained by projecting a ground surface model based on the digital elevation model. 4 or more points are selected, and the coordinates corresponding to the feature points are given coordinates in an arbitrary coordinate system in the plane representing the model shape, By associating the points corresponding to the feature points of the model shape, the arbitrary coordinate system in the photographic plane is associated with the arbitrary coordinate system in the plane representing the model shape. Assign spatial information to the feature and A method of locating and / or shape of the feature.

本願発明の被写地物の位置特定方法は、数値標高モデルに基づいて、写真に写された被写地物の位置又は/及び形状を特定する方法であって、前記被写地物の一部又は全部の形状に基づいて2次元の基準形状を作成するとともに、写真平面内の任意座標系により基準形状に座標を付与し、前記数値標高モデルに基づく地表モデルを投影した2次元のモデル形状を作成するとともに、このモデル形状を表す平面内の任意座標系によりモデル形状に座標を付与し、前記基準形状の構成要素と、前記モデル形状の構成要素とを対応させることで、写真平面内の任意座標系と、モデル形状を表す平面内の任意座標系と、を関連づけ、前記数値標高モデルに基づいて、前記被写地物に空間情報を付与し、当該被写地物の位置又は/及び形状を特定する方法とすることもできる。   The method for specifying the position of the object to be photographed according to the present invention is a method for specifying the position or / and shape of the object to be photographed in the photograph based on the digital elevation model, wherein A two-dimensional model shape is created by creating a two-dimensional reference shape based on a part or all of the shape, assigning coordinates to the reference shape using an arbitrary coordinate system in the photograph plane, and projecting a ground surface model based on the digital elevation model And a coordinate is given to the model shape by an arbitrary coordinate system in the plane representing the model shape, and the component of the reference shape and the component of the model shape are made to correspond to each other in the photographic plane. An arbitrary coordinate system is associated with an arbitrary coordinate system in a plane representing a model shape, spatial information is given to the object based on the digital elevation model, and the position of the object or / and Those who specify the shape It can also be a.

本願発明の被写地物の位置特定方法は、数値標高モデルに基づいて、写真に写された被写地物の位置又は/及び形状を特定する方法であって、前記被写地物の一部又は全部の画像に基づいて2次元の基準形状を作成するとともに、写真平面内の任意座標系により基準形状を構成する画素に座標を付与し、画像が付与された数値標高モデルに基づく地表モデルを投影した投影画像から、2次元のモデル形状を作成するとともに、このモデル形状を表す平面内の任意座標系によりモデル形状を構成する画素に座標を付与し、前記基準形状の画素と、前記モデル形状の画素とを対応させることで、写真平面内の任意座標系と、モデル形状を表す平面内の任意座標系とを関連づけ、前記数値標高モデルに基づいて、前記被写地物に空間情報を付与し、当該被写地物の位置又は/及び形状を特定する方法とすることもできる。   The method for specifying the position of the object to be photographed according to the present invention is a method for specifying the position or / and shape of the object to be photographed in the photograph based on the digital elevation model, wherein A ground surface model based on a digital elevation model to which a two-dimensional reference shape is created based on a part or all of an image, and coordinates are assigned to pixels constituting the reference shape by an arbitrary coordinate system in a photographic plane. A two-dimensional model shape is created from the projection image obtained by projecting the image, and coordinates are given to the pixels constituting the model shape by an arbitrary coordinate system in a plane representing the model shape, and the reference shape pixel and the model By associating the shape pixels with each other, the arbitrary coordinate system in the photographic plane is associated with the arbitrary coordinate system in the plane representing the model shape, and spatial information is assigned to the object to be imaged based on the digital elevation model. Grant, It may be a method of locating and / or shape of 該被 copy feature.

本願発明の被写地物の位置特定方法は、請求項2又は請求項3記載の被写地物の位置特定方法において、地表モデルを投影するための視点及び視角を変えることによって、複数の地表モデルを投影した形状をモデル形状候補として作成し、前記モデル形状候補と基準形状を照合することによって、複数のモデル形状候補の中から基準形状に相当するものをモデル形状とすることもできる。   The object specifying method of the present invention is the object specifying method according to claim 2 or 3, wherein a plurality of ground surfaces are changed by changing a viewpoint and a viewing angle for projecting the ground model. A shape obtained by projecting a model is created as a model shape candidate, and by comparing the model shape candidate with a reference shape, a model shape corresponding to the reference shape can be selected from a plurality of model shape candidates.

本願発明の被写地物の表示地図は、数値標高モデルに基づいて、写真に写された被写地物の位置又は/及び形状が表示された地図であって、請求項1乃至請求項4記載の被写地物の位置特定方法によって、位置又は/及び形状が特定された被写地物が、表示されたものである。   The display map of the object according to the present invention is a map on which the position or / and shape of the object captured in the photograph is displayed based on the digital elevation model. The object in which the position or / and the shape is specified by the described object specifying method is displayed.

本願発明の被写地物の位置特定プログラムは、写真に写された被写地物の位置又は/及び形状を、数値標高モデルに基づいて特定するプログラムであって、請求項1乃至請求項4記載の被写地物の位置特定方法を、電子計算機(以下、「コンピュータ」という。)に実行させるものである。   The object location specifying program of the present invention is a program for specifying the position or / and shape of the object to be photographed on a photograph based on a digital elevation model. An electronic computer (hereinafter referred to as “computer”) executes the method for specifying the position of the object to be described.

本願発明の撮影位置取得方法は、写真に写された被写地物、及び数値標高モデルに基づいて、被写地物を撮影した地点を取得する方法であって、前記被写地物の一部又は全部の形状に基づいて2次元の基準形状を作成するとともに、写真平面内の任意座標系により基準形状に座標を付与し、前記数値標高モデルに基づく地表モデルを投影するための視点及び視角を変えることによって、複数の地表モデルを投影した2次元の形状をモデル形状候補として作成するとともに、これらモデル形状候補を表す平面内の任意座標系によりモデル形状候補に座標を付与し、前記モデル形状候補と基準形状を照合することによって、複数のモデル形状候補の中から基準形状に相当するものをモデル形状として抽出し、前記抽出されたモデル形状に対応する視点を被写地物の撮影地点とする方法である。   The shooting position acquisition method of the present invention is a method for acquiring a point where a photographed object was photographed based on a photographed object and a digital elevation model, A viewpoint and a viewing angle for creating a two-dimensional reference shape based on a part or all of the shape, assigning coordinates to the reference shape by an arbitrary coordinate system in a photographic plane, and projecting a ground surface model based on the digital elevation model To create a two-dimensional shape projecting a plurality of ground models as model shape candidates, and assign coordinates to the model shape candidates by an arbitrary coordinate system in a plane representing these model shape candidates. By collating the candidate with the reference shape, a model shape corresponding to the reference shape is extracted from among a plurality of model shape candidates and corresponds to the extracted model shape. The point is a method for the shooting location of the copy feature.

本願発明の撮影位置取得方法は、写真に写された被写地物、及び数値標高モデルに基づいて、被写地物を撮影した地点を取得する方法であって、前記被写地物の一部又は全部の画像に基づいて2次元の基準形状を作成するとともに、写真平面内の任意座標系により基準形状を構成する画素に座標を付与し、前記数値標高モデルに基づく地表モデルを投影するための視点及び視角を変えることによって、複数の地表モデルを投影した投影画像から、複数の2次元の形状をモデル形状候補として作成するとともに、これらモデル形状候補を表す平面内の任意座標系によりモデル形状を構成する画素に座標を付与し、前記モデル形状候補と基準形状を照合することによって、複数のモデル形状候補の中から基準形状に相当するものをモデル形状として抽出し、前記抽出されたモデル形状に対応する視点を被写地物の撮影地点とする方法とすることもできる。   The shooting position acquisition method of the present invention is a method for acquiring a point where a photographed object was photographed based on a photographed object and a digital elevation model, In order to create a two-dimensional reference shape based on a part or all of the image, assign coordinates to pixels constituting the reference shape by an arbitrary coordinate system in the photographic plane, and project a ground surface model based on the digital elevation model A plurality of two-dimensional shapes are created as model shape candidates from projection images obtained by projecting a plurality of ground models by changing the viewpoint and viewing angle of the model, and the model shape is determined by an arbitrary coordinate system in the plane representing these model shape candidates. A coordinate corresponding to the reference shape is selected from among a plurality of model shape candidates by assigning coordinates to the pixels constituting the model and collating the model shape candidate with the reference shape. Extracted, a viewpoint corresponding to the extracted model shape it may be a method for the imaging location of the object scene feature.

本願発明の撮影位置取得プログラムは、写真に写された被写地物、及び数値標高モデルに基づいて、被写地物を撮影した地点の位置情報を取得するプログラムであって、請求項7又は請求項8記載の撮影位置取得方法を、コンピュータに実行させるものである。   The shooting position acquisition program according to the present invention is a program for acquiring position information of a point where a photographed object is photographed based on a photographed object and a digital elevation model. According to another aspect of the present invention, there is provided a computer for executing the photographing position acquisition method.

本願発明の被写地物の撮影位置取得装置は、写真に写された被写地物、及び数値標高モデルに基づいて、被写地物を撮影した地点の位置情報を取得する装置であって、被写地物を撮影し、この画像データを取得する手段と、前記画像データから、請求項7又は請求項8記載の基準形状を作成する手段と、請求項7又は請求項8記載の複数のモデル形状候補を作成する手段と、前記モデル形状と基準形状を照合することによって、複数のモデル形状の中から基準形状に相当するものをモデル形状として抽出する手段と、前記抽出されたモデル形状に対応する視点を被写地物の撮影地点とする手段と、を備えたものである。   The subject position photographing position acquisition device of the present invention is a device for obtaining position information of a point where a subject feature is photographed based on a subject feature photographed in a photograph and a digital elevation model. The means for photographing the object to be photographed and acquiring the image data, the means for creating the reference shape according to claim 7 or 8 from the image data, and the plurality according to claim 7 or claim 8 Means for generating a model shape candidate, means for collating the model shape with a reference shape to extract a model shape corresponding to the reference shape from a plurality of model shapes, and the extracted model shape And a means for setting the viewpoint corresponding to the shooting point of the object to be photographed.

本願発明の被写地物の位置特定方法とそのプログラム、及び表示地図には、次のような効果がある。
(1)現地で実施するのは被写地物の撮影だけであり、極めて容易に被写地物の位置や形状を把握することができる。
(2)例えば斜面崩壊等の位置や形状を把握する場合、被災地に人が立ち入ることがないので安全であり、しかも災害後直ちに位置や形状を把握できるので速やかに対策工を実施することができる。
The method for specifying the position of the object to be imaged according to the present invention, the program thereof, and the display map have the following effects.
(1) Only the shooting of the object to be performed is performed locally, and the position and shape of the object to be captured can be grasped extremely easily.
(2) For example, when grasping the position and shape of slope failure, etc., it is safe because people do not enter the disaster area, and it is possible to grasp the position and shape immediately after the disaster, so it is necessary to implement countermeasures promptly it can.

本願発明の撮影位置取得方法とそのプログラム、及び撮影位置取得装置には、次のような効果がある。
(1)過去に撮影した写真についてその撮影場所を特定することができるので、その写真の情報価値が高まる。
(2)写真を撮影するだけで現在位置を特定することができるので、観光地など不案内な場所でも的確に目的地へ移動することができる。
The imaging position acquisition method, the program thereof, and the imaging position acquisition apparatus of the present invention have the following effects.
(1) Since the shooting location of a photo taken in the past can be specified, the information value of the photo increases.
(2) Since the current position can be specified only by taking a picture, it is possible to accurately move to a destination even in an unguided place such as a sightseeing spot.

航空レーザー計測を説明する説明図。Explanatory drawing explaining aerospace laser measurement. 斜面の崩壊を撮影している状況を説明するための説明図。Explanatory drawing for demonstrating the condition which has image | photographed the collapse of a slope. (a)は「被写地物を撮影している状況」を側方から見たモデル図、(b)はカメラ画像面に映し出された画像を示す説明図。(A) is the model figure which looked at "the situation which is photographing the to-be-photographed object" from the side, (b) is explanatory drawing which shows the image projected on the camera image surface. (a)は数値標高モデルをモデル画像面に投影させた状況を示す説明図、(b)はモデル画像面に投影された画像を示す説明図。(A) is explanatory drawing which shows the condition which projected the digital elevation model on the model image surface, (b) is explanatory drawing which shows the image projected on the model image surface. 2次元の射影変換によって基準形状とモデル形状を対応させる場合の実施フロー図。The execution flowchart in the case of making a reference | standard shape and a model shape respond | correspond by two-dimensional projective transformation. (a)は被写地物から抽出される基準形状を説明するモデル図、(b)は数値標高モデルを基に作成されるモデル形状を説明するモデル図、(c)は基準形状とモデル形状を照らし合わせた状態を説明するモデル図。(A) is a model diagram for explaining a reference shape extracted from an object, (b) is a model diagram for explaining a model shape created based on a digital elevation model, and (c) is a reference shape and model shape. The model figure explaining the state which collated. モデル形状を作成する概念を示す説明図。Explanatory drawing which shows the concept which produces a model shape. 基準形状の構成点とモデル形状の構成点との対応を図る概念を示す説明図。Explanatory drawing which shows the concept which aims at a response | compatibility with the composing point of a reference | standard shape, and the composing point of a model shape. 照合判断を行わずに基準形状に対して空間情報を付与する場合の実施フロー図。The execution flowchart in the case of giving spatial information with respect to a reference | standard shape, without performing collation judgment. 「被写地物の位置特定システム」を構成する機器の配置を示す説明図。Explanatory drawing which shows arrangement | positioning of the apparatus which comprises the "positioning system of a to-be-photographed object". 照合判断を行ったうえで基準形状に対して空間情報を付与する場合の実施フロー図。The implementation flowchart in the case of giving spatial information with respect to a reference | standard shape after performing collation judgment. 画像を基に基準形状とモデル形状を作成する場合であって、照合判断を伴う場合の実施フロー図。The implementation flowchart in the case of making a reference | standard shape and a model shape based on an image, and accompanying a collation judgment. 撮影位置取得装置を用いて、撮影している位置を取得している状況を示す説明図。Explanatory drawing which shows the condition which is acquiring the position which image | photographed using the imaging position acquisition apparatus. 写真の撮影位置情報を取得する場合の実施フロー図。The implementation flowchart in the case of acquiring the imaging | photography position information of a photograph. (a)は「撮影位置取得装置」を構成する機能を示すもので、全ての機能を一体型とした場合の説明図、(b)は「撮影位置取得装置」を構成する機能を示すもので、機能を分散型とした場合の説明図。(A) shows the function which comprises a "photographing position acquisition apparatus", and is explanatory drawing at the time of integrating all the functions, (b) shows the function which comprises a "photographing position acquisition apparatus". Explanatory drawing when function is distributed.

本願発明の被写地物の位置特定方法とそのプログラム、及び表示地図、並びに撮影位置取得方法とそのプログラム、及び撮影位置取得装置の実施形態の例を図に基づいて説明する。   An example of an embodiment of the object location specifying method and program thereof, a display map, a shooting position acquisition method and program thereof, and a shooting position acquisition apparatus according to the present invention will be described with reference to the drawings.

昨今、航空レーザー計測などの出現によって地形情報を大量に取得する計測手法が著しく高度化し、また、コンピュータの進化に伴い地形情報を扱う技術も飛躍的に進歩してきた。航空レーザー計測は、図1に示すように、計測したい地形Grの上空を航空機Pで飛行し、飛行中に地形Grに対して照射したレーザーLの反射を受けて計測するものである。この航空レーザー計測によれば、地形をあらわす情報として無数の3次元点群データ(X,Y,Z)を密に取得することが可能となり、さらにこの点群データをコンピュータで処理すれば、地形を立体的にモデル化することもできる。   Recently, with the advent of aviation laser measurement and the like, measurement techniques for acquiring a large amount of terrain information have been remarkably advanced, and the technology for handling terrain information has progressed dramatically with the evolution of computers. As shown in FIG. 1, the aviation laser measurement is performed by flying the aircraft P over the terrain Gr to be measured and receiving the reflection of the laser L irradiated to the terrain Gr during the flight. According to this aerial laser measurement, countless three-dimensional point cloud data (X, Y, Z) can be obtained densely as information representing the topography, and if this point cloud data is processed by a computer, the topography Can be modeled three-dimensionally.

(数値標高モデルM)
3次元点群データにより構成されたモデルは「数値標高モデルM」(図4(a)、(b))と呼ばれ、代表的なものとしてはDEM(Digital Elevation Model)やDSM(Digital Surface Model)が挙げられる。もちろん、本願発明ではこれに限らず従来から用いられる種々の数値標高モデルMを利用することができる。また、本願発明の実施に当たっては、既存の数値標高モデルMを利用することが望ましいが、既存のものがなければ新たに数値標高モデルMを作成しこれを利用することができる。
(Digital elevation model M)
A model constituted by the three-dimensional point cloud data is called “numerical elevation model M” (FIGS. 4A and 4B), and representative examples include DEM (Digital Elevation Model) and DSM (Digital Surface Model). ). Of course, the present invention is not limited to this, and various digital elevation models M conventionally used can be used. In carrying out the present invention, it is desirable to use an existing digital elevation model M, but if there is no existing one, a new digital elevation model M can be created and used.

ここで、代表的な数値標高モデルMであるDEMについて簡単に説明する。DEMとは、地表面の形状である地形を数値モデル化したもので一般的には格子モデルである。DEMは、地表面の平面座標(X,Y)と標高値(Z)を有する点の集合であるいわゆる点群データに基づいて形成され、点群データが密であるほど正確に原地形を再現することができる。この点群データは、航空レーザー計測によって取得することが一般的である。もちろん、航空レーザー計測によるほか、ステレオの航空写真や衛星写真を基に三次元の空間情報をもつ点群データを生成してもよいし、直接現地を測量して三次元の空間情報をもつ点群データを取得してもよい。なお航空レーザー計測によって点群データを取得する場合、樹木頂部など地表面ではない計測データを取り除くいわゆるフィルタリング処理を施して、地表面の点群データとするのが一般的である。   Here, a DEM that is a typical digital elevation model M will be briefly described. The DEM is a numerical model of the topography, which is the shape of the ground surface, and is generally a lattice model. A DEM is formed based on so-called point cloud data, which is a set of points having a plane coordinate (X, Y) and an elevation value (Z) on the ground surface. The denser the point cloud data, the more accurately the original terrain is reproduced. can do. This point cloud data is generally acquired by aviation laser measurement. Of course, in addition to the aerial laser measurement, point cloud data with three-dimensional spatial information may be generated based on stereo aerial photographs and satellite photographs, or the point of having direct three-dimensional spatial information by surveying the site. Group data may be acquired. When acquiring point cloud data by aerial laser measurement, it is common to perform so-called filtering processing that removes measurement data that is not on the ground surface, such as the top of a tree, to obtain point cloud data on the ground surface.

航空レーザー計測によって取得される点群データは、ランダムに計測されたレーザー計測点の集合にすぎず、DEMは以下の手順で作成される。すなわち、レーザー計測点が配点された上に、所定間隔(例えば2m)に配置された複数のグリッド(例えば正方格子)を被せる。この正方格子で区切られることにより格子点が生成され、多数の四角形(メッシュ)が形成される。メッシュには一つの代表点が設けられるが、その代表点の位置はメッシュの中心としたり、メッシュのうち右上隅の格子点としたり、状況に応じて適宜設定される。   The point cloud data acquired by the aviation laser measurement is merely a set of laser measurement points measured at random, and the DEM is created by the following procedure. That is, a plurality of grids (for example, square lattices) arranged at predetermined intervals (for example, 2 m) are placed on the laser measurement points. By being divided by this square lattice, lattice points are generated, and a large number of quadrangles (mesh) are formed. One representative point is provided in the mesh, and the position of the representative point is set at the center of the mesh, or a lattice point at the upper right corner of the mesh, and is appropriately set according to the situation.

レーザー計測点の三次元座標(X,Y,Z)を基に、メッシュ代表点の平面座標(X,Y)と標高値(Z)を算出し、DEMを完成させる。この算出方法は、レーザー計測点から不整三角網より高さを求めるTIN(Triangulated Irregular Network)による補間法のほか、最も近いレーザー計測点を採用する最近隣法(Nearest Neibor)や、逆距離加重法(IWD)、Kriging法、平均法など種々の方法が採用される。   Based on the three-dimensional coordinates (X, Y, Z) of the laser measurement points, the plane coordinates (X, Y) and elevation values (Z) of the mesh representative points are calculated, and the DEM is completed. This calculation method includes an interpolation method based on TIN (Triangulated Irregular Network) that obtains the height from an irregular triangle network from a laser measurement point, a nearest neighbor method that employs the nearest laser measurement point (Nearest Neibor), and an inverse distance weighting method. Various methods such as (IWD), Kriging method, and average method are adopted.

数値標高モデルMは、国をはじめ各地方自治体では所管地域における数値標高モデルMの整備が推し進められている。また民間事業者のなかではライブラリ形式で数値標高モデルMを保有しているところもあって、近年では数値標高モデルMが身近で利用しやすいものとなっている。本願発明は、上記のように我が国全体で数値標高モデルMが蓄積されてきたことを背景になされたものであり、『写真に写された物の形状と、数値標高モデルMから計算されたモデル形状(2次元)とを照らし合わせることによって、必要な空間情報を取得する』、という技術的特徴を備えたものである。以下に説明する種々の実施形態は、共通してこの技術的特徴を備えるものであるが、便宜上、「被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図」の実施形態と、「撮影位置取得方法とそのプログラム、及び撮影位置取得装置」の実施形態を分けて説明する。   As for the digital elevation model M, development of the digital elevation model M in the jurisdiction area is being promoted in each local government including the country. Some private businesses have a digital elevation model M in the form of a library. In recent years, the digital elevation model M has become familiar and easy to use. The present invention is based on the fact that the digital elevation model M has been accumulated throughout the country as described above, and is described as “the shape of an object photographed in a photograph and a model calculated from the digital elevation model M”. The necessary spatial information is acquired by collating with the shape (two-dimensional) ”. Various embodiments described below have this technical feature in common, but for the sake of convenience, the implementation of the “positioning method of the object and its program, and the display map of the object” will be described. The embodiment and the “shooting position acquisition method, program thereof, and shooting position acquisition apparatus” will be described separately.

[被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図の実施形態]
本実施形態は、本願発明の「被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図」について説明するものである。なおここでは、「写真に写された物」を山の稜線A(以下、「スカイラインA」という。)や崩壊部B(図2)といった地物として説明しているが、これはあくまで説明のための一例であり、「写真に写された物」が他のあらゆる物(地物)であっても本願発明を実施できることはいうまでもない。
[Embodiment of Method for Specifying Location of Object and its Program, and Display Map of Object)
The present embodiment will be described with respect to “the method for specifying the position of the object to be photographed, its program, and the display map of the object to be photographed” of the present invention. In addition, although "the thing reflected in the photograph" is demonstrated here as features, such as the ridgeline A of a mountain (henceforth "skyline A") and the collapse part B (FIG. 2), this is only description. It is needless to say that the present invention can be implemented even if the “object photographed” is any other object (feature).

図2は、斜面の崩壊を撮影している状況を説明するための説明図である。この図に示すように、この山の斜面には崩壊による被害が生じており、その崩壊部Bは目視により確認することができる。この被災地(斜面が崩壊した現場)から少し離れた位置に立った撮影者がカメラ1によって撮影したものが写真2であり、写真2にはスカイラインAと崩壊部Bを含む地物が収められている。ここでは、写真2に写されたスカイラインAを「被写スカイライン3a」、写真2に写された崩壊部Bを「被写崩壊部3b」と呼ぶこととし、これら「被写スカイライン3a」や「被写崩壊部3b」など写真2に写された地物の総称を「被写地物3」という。なお写真2は、地上から人が撮影して取得したものに限らず、航空機などの移動体で移動しながら撮影したものでもよい。 FIG. 2 is an explanatory diagram for explaining a situation where a slope collapse is imaged. As shown in this figure, the slope of this mountain has been damaged due to collapse, and the collapsed portion B can be visually confirmed. A photograph 2 taken by a photographer standing at a position slightly away from the disaster area (site where the slope collapsed) was photograph 2, and photograph 2 contains features including skyline A and collapsed part B. ing. Here, the skyline A captured in the photograph 2 is referred to as the “photographed skyline 3a”, and the collapsed portion B captured in the photograph 2 is referred to as the “photographed collapsed portion 3b”. The generic term of the features copied in the photograph 2 such as “the subject collapsed portion 3b” is referred to as “the subject feature 3”. The photograph 2 is not limited to a photograph taken by a person from the ground, but may be a photograph taken while moving with a moving body such as an aircraft.

(実施形態1)
ここでは、「被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図」の第1の実施形態について説明する。本実施形態は、写真画像内の被写地物3から基準形状を作成し、これとは別に数値標高モデルMを基にモデル形状を作成し、基準形状を構成する点から4点以上の特徴点を抽出するとともに、これら特徴点とモデル形状の構成点とを対応させることによって、基準形状とモデル形状を照らし合わせる、という手法について説明するものである。つまり、一枚の写真2(単写真)と一つのモデル形状5を対応させることで地物に座標を付与できるのが本願発明の特徴であり、2枚1組の写真を用いて座標を付与する従来方式(ステレオマッチング方式)とは、この点において著しく異なる。
(Embodiment 1)
Here, the first embodiment of “the method for specifying the position of the object to be imaged, its program, and the display map of the object to be imaged” will be described. In this embodiment, a reference shape is created from the object 3 in the photographic image, and a model shape is created based on the digital elevation model M separately. A method of extracting the points and matching the reference shape with the model shape by associating the feature points with the constituent points of the model shape will be described. In other words, the feature of the present invention is that coordinates can be given to the feature by associating one photo 2 (single photo) with one model shape 5, and the coordinates are given using a set of two photos. This point is significantly different from the conventional method (stereo matching method).

(基準形状)
図3(a)は、図2に示す「被写地物3を撮影している状況」を側方から見たモデル図であり、カメラ1で山の正面からの像を写し取った状況を示す説明図である。また、図2に示すように実空間の座標軸をX軸、Y軸、Z軸とすると、図2をY−Z面で切り取ったものが図3(a)である。図3(a)に示すように、いま対象物である山をカメラ1で撮影しており、その撮影した画像がカメラ画像面Phに写し出されている。このカメラ1の中心位置(以下、「視点」という。)の座標は、実空間座標系で(X,Y0,)で表され、カメラ1の傾き(以下、「撮影姿勢」という。)は、それぞれX軸回りの傾きがω(ピッチ)、Y軸回りの傾きがφ(ロール)、Z軸回りの傾きがκ(ヨー)となっている。なお、カメラ1の空間的な配置を決定する(X,Y0,)及び(ω,φ,κ)は、外部標定要素と呼ばれる。
(Standard shape)
FIG. 3A is a model view of the “situation where the object 3 is being photographed” shown in FIG. 2 as viewed from the side, and shows a situation where the camera 1 has copied an image from the front of the mountain. It is explanatory drawing. Further, as shown in FIG. 2, assuming that the coordinate axes of the real space are the X axis, the Y axis, and the Z axis, FIG. 3A is a cross section taken along the YZ plane. As shown in FIG. 3A, a mountain that is an object is photographed by the camera 1, and the photographed image is projected on the camera image plane Ph. The coordinates of the center position of the camera 1 (hereinafter referred to as “viewpoint”) are represented by (X 0 , Y 0, Z 0 ) in the real space coordinate system, and the tilt of the camera 1 (hereinafter referred to as “photographing posture”). )), The inclination around the X axis is ω (pitch), the inclination around the Y axis is φ (roll), and the inclination around the Z axis is κ (yaw). Note that (X 0 , Y 0, Z 0 ) and (ω, φ, κ) that determine the spatial arrangement of the camera 1 are called external orientation elements.

図3(b)は、図3(a)に示すカメラ画像面Phに映し出された画像であって、写真2に写された画像である。この画像内にある地物(物)の中から抽出されるのが基準形状4である。この場合、写真2の中に収められた全ての被写地物3に基づいて基準形状4を作成してもよいが、後に説明するモデル形状5(図6(b))と対応させるため、モデル形状5と対応させやすい(つまり数値標高モデルMで表現可能な)地物を抽出して基準形状4を作成することもできる。本実施形態では、写真2に写された被写地物3の中から被写スカイライン3aを基準形状4として抽出している。   FIG. 3B is an image shown on the camera image plane Ph shown in FIG. The reference shape 4 is extracted from the features (things) in the image. In this case, the reference shape 4 may be created based on all the object features 3 stored in the photograph 2, but in order to correspond to the model shape 5 (FIG. 6B) described later, It is also possible to create the reference shape 4 by extracting features that are easily associated with the model shape 5 (that is, can be expressed by the digital elevation model M). In the present embodiment, the photographed skyline 3 a is extracted as the reference shape 4 from the photographed object 3 photographed in the photograph 2.

基準形状4は、CADなどの作図アプリケーションを利用して被写スカイライン3aをトレースするように作図することができる。あるいは、写真2の画像データを利用し、画像データ内の空と山の輝度(あるいは色相や彩度や明度)の違いから、スカイラインAをエッジとしてコンピュータで自動生成させ、このエッジを利用して基準形状4を作成することもできる。このように作成された基準形状4は2次元の形状であり、この形状を構成する幾何学的要素(点、線分、面など)には、カメラ画像面Ph(写真2)内における任意の座標系(x,y)の座標で表すことができる。以下、このカメラ画像面Ph内における任意座標系を写真座標系という。また、基準形状4を構成する点の中から、その形状を特徴づける構成点を4点以上選出してこれらを特徴点とする。図3(b)では、特徴点A〜特徴点Aの5点が抽出されている。 The reference shape 4 can be drawn to trace the imaged skyline 3a using a drawing application such as CAD. Alternatively, the image data of Photo 2 is used, the skyline A is automatically generated by a computer as an edge from the difference in brightness (or hue, saturation, and brightness) of the sky and mountains in the image data, and this edge is used. A reference shape 4 can also be created. The reference shape 4 created in this way is a two-dimensional shape, and geometric elements (points, line segments, surfaces, etc.) constituting this shape are arbitrary in the camera image plane Ph (Photo 2). It can be represented by the coordinates of the coordinate system (x a , y a ). Hereinafter, the arbitrary coordinate system in the camera image plane Ph is referred to as a photographic coordinate system. Further, four or more constituent points characterizing the shape are selected from the points constituting the reference shape 4 and set as feature points. In FIG. 3B, five points of feature point A 1 to feature point A 5 are extracted.

(モデル形状)
図4(a)は、数値標高モデルMをモデル画像面Gに投影させた状況を示す説明図である。なおこの図は、数値標高モデルMを基に立体的な地形モデルを作成し、さらにその断面図を示したものであり、図3(a)と同様、図2を実空間座標系のY−Z面で切り取ったものである。この数値標高モデルMによる立体的な地形モデルを、2次元に投影するための平面が図4(a)に示すモデル画像面Gである。なおこの図では便宜上、モデル画像面Gを、Z軸に平行(つまり鉛直面)で、かつX軸に平行に配置しているが、これに限らず任意の方向にモデル画像面Gを傾けても構わない。
(Model shape)
FIG. 4A is an explanatory diagram illustrating a situation in which the digital elevation model M is projected onto the model image plane G. This figure shows a cross-sectional view of a three-dimensional terrain model created based on the digital elevation model M. Like FIG. 3 (a), FIG. It was cut out on the Z plane. A plane for projecting the three-dimensional terrain model based on the digital elevation model M in two dimensions is a model image plane G shown in FIG. In this figure, for convenience, the model image plane G is arranged parallel to the Z axis (that is, a vertical plane) and parallel to the X axis. However, the present invention is not limited to this, and the model image plane G is inclined in an arbitrary direction. It doesn't matter.

図4(b)は、図4(a)に示すモデル画像面Gに投影された画像である。この画像内にある地物(物)の中から抽出されるのがモデル形状5である。モデル形状5は2次元の形状であり、この形状を構成する幾何学的要素(点、線分、面など)には、モデル画像面G内における任意の座標系(x,y)の座標で表すことができる。以下、このモデル画像面G内における任意座標系をモデル座標系という。 FIG. 4B is an image projected on the model image plane G shown in FIG. The model shape 5 is extracted from the features (things) in the image. The model shape 5 is a two-dimensional shape, and geometric elements (points, line segments, surfaces, etc.) constituting this shape include arbitrary coordinate systems (x b , y b ) in the model image plane G. It can be expressed in coordinates. Hereinafter, the arbitrary coordinate system in the model image plane G is referred to as a model coordinate system.

モデル形状5を抽出する際は、基準形状4の構成点から選出した特徴点に相当する点が少なくとも4点以上含まれるように抽出する(図4(b)ではA’〜A’)。これは、後に説明するように基準形状4の特徴点と、モデル形状5の特徴点(に相当する点)とを対応させる必要があるからである。そのため、カメラ1の視点(X,Y0,)と、カメラ1のZ軸回りの傾きκ(つまり方位)は、既知であることが望ましい。通常、数値標高モデルMは広範囲に作成されていることが多く、その中から何ら手がかりもない状態で基準形状4の特徴点を含むモデル形状5を抽出することは、著しく時間と手間を要するからである。なお、基準形状4の特徴点に相当する点を選出するには、例えば目視等によって判断することができる。 When the model shape 5 is extracted, the model shape 5 is extracted so that at least four points corresponding to the feature points selected from the constituent points of the reference shape 4 are included (A ′ 1 to A ′ 5 in FIG. 4B). . This is because the feature points of the reference shape 4 and the feature points of the model shape 5 need to correspond to each other as will be described later. Therefore, it is desirable that the viewpoint (X 0 , Y 0, Z 0 ) of the camera 1 and the inclination κ (that is, the azimuth) around the Z axis of the camera 1 are known. Usually, the digital elevation model M is often created in a wide range, and it takes a lot of time and labor to extract the model shape 5 including the feature points of the reference shape 4 without any clues. It is. In order to select a point corresponding to the feature point of the reference shape 4, it can be determined by visual observation or the like.

(基準形状とモデル形状との対応)
図4(b)に示すように、モデル画像面G内におけるモデル形状5の構成要素(構成点など)はモデル座標系(x,y)によって2次元の座標が付与され、図4(a)から分かるように、モデル形状5の各構成要素は数値標高モデルMの空間座標と対応している。すなわち、モデル形状5の構成要素は数値標高モデルMの空間座標と紐づいており、言い換えればモデル形状5の構成要素は実空間における3次元座標を有している。
(Correspondence between standard shape and model shape)
As shown in FIG. 4B , the two-dimensional coordinates are given to the components (component points, etc.) of the model shape 5 in the model image plane G by the model coordinate system (x b , y b ). As can be seen from a), each component of the model shape 5 corresponds to the spatial coordinates of the digital elevation model M. That is, the constituent elements of the model shape 5 are associated with the spatial coordinates of the digital elevation model M. In other words, the constituent elements of the model shape 5 have three-dimensional coordinates in the real space.

一方、カメラ画像面Ph内の基準形状4は、数値標高モデルMなど既知の空間座標を有するものと対応していないので、カメラ1で撮影しただけでは基準形状4の構成要素を実空間の3次元座標で表すことができない。そこで、基準形状4の特徴点A〜Aとモデル形状5の特徴点に相当する点A’〜A’とを対応させることによって、基準形状4の構成要素に実空間の3次元座標を付与する。 On the other hand, the reference shape 4 in the camera image plane Ph does not correspond to a known altitude model M or the like having a known spatial coordinate. It cannot be expressed in dimensional coordinates. Therefore, by making the feature points A 1 to A 5 of the reference shape 4 correspond to the points A ′ 1 to A ′ 5 corresponding to the feature points of the model shape 5, the components of the reference shape 4 are three-dimensional in real space. Give coordinates.

基準形状4は同一平面上に表された2次元の形状であり、モデル形状5も同様に同一平面上に表された2次元の形状であるから、2次元の射影変換式を用いることができる。すなわち、基準形状4の特徴点を射影変換したものが、モデル形状5の特徴点に相当する点とすれば、両者の座標系、つまり「写真座標系(x,y)」と「モデル座標系(x,y)」は空間的に関連付けることができる。なお、2次元の射影変換式は次式で与えられる。 Since the reference shape 4 is a two-dimensional shape represented on the same plane, and the model shape 5 is also a two-dimensional shape represented on the same plane, a two-dimensional projective transformation formula can be used. . That is, if projective transformation of the feature point of the reference shape 4 is a point corresponding to the feature point of the model shape 5, both coordinate systems, that is, “photo coordinate system (x a , y a )” and “model” The coordinate system (x b , y b ) ”can be spatially related. The two-dimensional projective transformation formula is given by the following formula.

Figure 2012137933
ここで、
xa : 写真座標系における特徴点のx座標
ya : 写真座標系における特徴点のy座標
xb : モデル座標系における特徴点のx座標
yb : モデル座標系における特徴点のy座標
Figure 2012137933
here,
x a : x coordinate of the feature point in the photographic coordinate system
y a : y coordinate of the feature point in the photographic coordinate system
x b : x coordinate of the feature point in the model coordinate system
y b : y coordinate of the feature point in the model coordinate system

この2式には8つの未知数b〜bがあり、これら未知数の解を得るためには計8つの式が必要となる。つまり基準形状4の特徴点が4点、モデル形状5の特徴点に相当する点が4点、既知でなければならない。基準形状4とモデル形状5それぞれに、特徴点(特徴点に相当する点)を4点以上必要としたのは、2次元の射影変換式の未知数の解を得るためである。なお、既知点がちょうど4点のときは8元1次方程式を解くことで一の解が得られるが、5点以上既知である場合は最小次乗法によって解を得ることができる。 There are eight unknowns b 1 to b 8 in these two formulas, and a total of eight formulas are required to obtain solutions of these unknowns. That is, four feature points of the reference shape 4 and four points corresponding to the feature points of the model shape 5 must be known. The reason why four or more feature points (points corresponding to feature points) are required for each of the reference shape 4 and the model shape 5 is to obtain an unknown solution of the two-dimensional projective transformation equation. When there are exactly 4 known points, one solution can be obtained by solving the 8-ary linear equation, but when 5 or more points are known, a solution can be obtained by the least-order method.

このようにして8つの未知数b〜bが求められると、「写真座標系(x,y)」と「モデル座標系(x,y)」は空間的に関連付けられる。つまり、前記した2次元の射影変換式を用いれば、カメラ画像面Ph内に配置された任意の点(つまり写真座標系で座標があてられる任意点)を、モデル画像面G内に配置することができる。このことは、カメラ画像面Ph内の任意点が、モデル座標系の2次元座標を得ることであり、つまり、数値標高モデルMの空間座標(3次元座標)と紐づけられることを意味する。換言すれば、写真座標系で表される基準形状4をモデル座標系で表現することによって、基準形状4に実空間の3次元座標を付与することができる。なお、カメラ画像面Phに基づく基準形状4をモデル画像で表現した形状は、理論上は、モデル画像面G内に表現されたモデル形状5(図4(b)内の破線形状)と一致するはずであるが、数値標高モデルMの作成精度等の理由から必ずしも一致するとは限らない。 When the eight unknowns b 1 to b 8 are obtained in this way, the “photo coordinate system (x a , y a )” and the “model coordinate system (x b , y b )” are spatially related. That is, if the above-described two-dimensional projective transformation formula is used, an arbitrary point arranged in the camera image plane Ph (that is, an arbitrary point to which coordinates are assigned in the photographic coordinate system) is arranged in the model image plane G. Can do. This means that an arbitrary point in the camera image plane Ph is to obtain a two-dimensional coordinate of the model coordinate system, that is, is associated with a spatial coordinate (three-dimensional coordinate) of the digital elevation model M. In other words, by expressing the reference shape 4 represented in the photographic coordinate system in the model coordinate system, the three-dimensional coordinates of the real space can be given to the reference shape 4. It should be noted that the shape in which the reference shape 4 based on the camera image plane Ph is represented by the model image theoretically matches the model shape 5 (broken line shape in FIG. 4B) represented in the model image plane G. Although it should be, it does not necessarily correspond for reasons, such as the creation accuracy of the digital elevation model M.

また基準形状4と同様、図3(b)に示す被写崩壊部3bに関しても、3次元の空間座標を付与することができる。その手順を以下に示す。カメラ画像面Ph内に表示された被写崩壊部3bを、基準形状4と同様の手法によって出力形状6として作成する。この出力形状6の構成要素(構成点など)は、写真座標系(x,y)によって2次元の座標が付与され、2次元の射影変換式を用いればモデル座標系(x,y)に変換することができる。このようにして出力形状6の構成要素は、モデル座標系の座標と関連づき、その結果、実空間の3次元座標を付与することができる。すなわち、現実に存在する崩壊部Bの位置や形状、大きさを特定することができる。 Similarly to the reference shape 4, three-dimensional spatial coordinates can be given also to the subject collapsing portion 3 b shown in FIG. The procedure is shown below. The object collapsing part 3b displayed in the camera image plane Ph is created as the output shape 6 by the same method as the reference shape 4. The components (component points, etc.) of the output shape 6 are given two-dimensional coordinates by a photographic coordinate system (x a , y a ), and a model coordinate system (x b , y is obtained by using a two-dimensional projective transformation formula. b ). In this way, the components of the output shape 6 are associated with the coordinates of the model coordinate system, and as a result, the three-dimensional coordinates of the real space can be given. That is, the position, shape, and size of the collapsed portion B that actually exists can be specified.

(地図の作成)
崩壊部Bの位置や形状を特定することができると、既存の地図に記載して表示することが可能となり、崩壊部Bの情報を記した新たな地図を作成することができる。もちろん既存の地図に表示する場合に限らず、他の空間情報も加えて、崩壊部Bの位置や形状を記した新たな地図を作成することもできる。このように、崩壊部Bから十分離れて撮影するだけで地図上にプロットすることができるので、容易かつ安全に崩壊部Bを表示した地図を得ることができる。
(Create map)
If the position and shape of the collapsing part B can be specified, it can be displayed and displayed on an existing map, and a new map in which information on the collapsing part B is recorded can be created. Of course, it is not limited to displaying on an existing map, but other spatial information can be added to create a new map describing the position and shape of the collapsed portion B. Thus, since it can plot on a map only by image | photographing sufficiently away from the collapse part B, the map which displayed the collapse part B can be obtained easily and safely.

(実施フロー)
本実施形態を実施する手順の例を、図5に示す実施フローについて説明する。
(Implementation flow)
An example of a procedure for carrying out this embodiment will be described with reference to the implementation flow shown in FIG.

その位置や形状を特定したい地物(ここでは崩壊部Bとする)を含む画像(写真2)を、デジタルカメラなどのカメラ1によって取得する(501)。このとき、写真撮影したときの撮影情報(視点座標、撮影方位)を、GPSや電子コンパスなどの計測器を用いて計測しておく。   An image (photo 2) including a feature (here, the collapsed portion B) whose position and shape are to be specified is acquired by a camera 1 such as a digital camera (501). At this time, shooting information (viewpoint coordinates, shooting direction) when a photograph is taken is measured using a measuring instrument such as a GPS or an electronic compass.

写真2(つまりカメラ画像面Ph)の中に収められた被写地物3の中から、特徴ある部分を有する被写地物3(ここでは被写スカイライン3aとする)を抽出する。写真2の画像データ内における山と空の輝度の違いから被写スカイライン3aの境界(エッジ)をコンピュータで自動生成させ、このエッジを利用して基準形状4を作成する(502)。次に、基準形状4を構成する点の中からその形状を特徴づける特徴点を4点以上選出し、これらに写真座標系(x,y)の座標を付与する(503)。 The object feature 3 (here, the object skyline 3a) having a characteristic part is extracted from the object feature 3 stored in the photograph 2 (that is, the camera image plane Ph). The boundary (edge) of the captured skyline 3a is automatically generated by the computer from the difference in brightness between the mountains and the sky in the image data of the photograph 2, and the reference shape 4 is created using this edge (502). Next, four or more feature points characterizing the shape are selected from the points constituting the reference shape 4, and the coordinates of the photographic coordinate system (x a , y a ) are given to these (503).

モデル形状5を作成するための撮影情報(視点座標、撮影方位)を入力する(504)。この入力値と既存の数値標高モデルMに基づいて、モデル画像面Gに平面投影させてモデル形状5を作成する(505)。次に、モデル形状5の中から、基準形状4の特徴点に相当する点を4点以上抽出する(506)。なお、ここで特徴点に相当する点を4点以上抽出できない場合は、作成範囲を変えて再度モデル形状5を作成する。   Shooting information (viewpoint coordinates, shooting direction) for creating the model shape 5 is input (504). Based on this input value and the existing digital elevation model M, a model shape 5 is created by projecting it onto the model image plane G (505). Next, four or more points corresponding to the feature points of the reference shape 4 are extracted from the model shape 5 (506). If four or more points corresponding to feature points cannot be extracted, the model shape 5 is created again by changing the creation range.

基準形状4の特徴点(4点以上)と、モデル形状5の特徴点相当点(4点以上)に基づいて、2次元の射影変換を行い「写真座標系(x,y)」と「モデル座標系(x,y)」を関連付ける(507)。これにより、基準形状4(被写スカイライン3a)と被写崩壊部3bをモデル座標系(x,y)に変換することが可能となり、数値標高モデルMの空間座標と関連付けることが可能となる(508)。崩壊部Bが実空間上で特定できると、既存の地図にこれを記載し、崩壊部Bの情報を記した地図を作成する(509)。 Based on the feature points (4 points or more) of the reference shape 4 and the feature point equivalent points (4 points or more) of the model shape 5, a two-dimensional projective transformation is performed to obtain a “photo coordinate system (x a , y a )” “Model coordinate system (x b , y b )” is associated (507). As a result, the reference shape 4 (the subject skyline 3a) and the subject collapsed portion 3b can be converted into the model coordinate system (x b , y b ), and can be associated with the spatial coordinates of the digital elevation model M. (508). If the collapsing part B can be identified in the real space, this is described on the existing map, and the map which described the information of the collapsing part B is created (509).

(実施形態2)
ここでは、「被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図」の第2の実施形態について説明する。本実施形態は、実施形態1の特徴点の抽出による射影変換に代えて、直接的に基準形状4とモデル形状5との対応を図る場合について説明するものであり、実施形態1と共通する技術内容に関する説明は省略する。
(Embodiment 2)
Here, a second embodiment of “the method for specifying the position of the object to be imaged, its program, and the display map of the object to be imaged” will be described. In the present embodiment, a case where the correspondence between the reference shape 4 and the model shape 5 is directly achieved in place of the projective transformation based on the feature point extraction of the first embodiment will be described. The explanation about the contents is omitted.

(基準形状)
図6(a)は被写地物3から抽出される基準形状4を説明するモデル図、図6(b)は数値標高モデルMを基に作成されるモデル形状5を説明するモデル図、図6(c)は基準形状4とモデル形状5を照らし合わせた状態を説明するモデル図である。図2で撮影した写真2の中に収められた被写地物3は、数値標高モデルMを基に作成されるモデル形状5と直接対応させることによって空間情報を付与することができる。つまり、一枚の写真2(単写真)と一つのモデル形状5を対応させることで地物に座標を付与できるのが本願発明の特徴であり、2枚1組の写真を用いて座標を付与する従来方式(ステレオマッチング方式)とは、この点において著しく異なる。
(Standard shape)
6A is a model diagram for explaining the reference shape 4 extracted from the object 3 to be photographed. FIG. 6B is a model diagram for explaining the model shape 5 created based on the digital elevation model M. FIG. FIG. 6C is a model diagram for explaining a state in which the reference shape 4 and the model shape 5 are collated. The object 3 stored in the photograph 2 photographed in FIG. 2 can be given spatial information by directly corresponding to the model shape 5 created based on the digital elevation model M. In other words, the feature of the present invention is that coordinates can be given to the feature by associating one photo 2 (single photo) with one model shape 5, and the coordinates are given using a set of two photos. This point is significantly different from the conventional method (stereo matching method).

被写地物3とモデル形状5を対応させる場合、直接的に(例えば目視により)行うのではなく、被写地物3をコンピュータで処理できる基準形状4としたうえでモデル形状5と対応させることが望ましい。また、モデル形状5と対応させる基準形状4は、写真2の中に収められた全ての被写地物3に基づいて作成してもよいが、モデル形状5と対応させやすい(つまり数値標高モデルMで表現可能な)地物を被写地物3の中から抽出して作成する方が好適である。本実施形態では、写真2に写された被写地物3の中から被写スカイライン3aを抽出している。   When the object feature 3 and the model shape 5 are made to correspond to each other, instead of directly (for example, by visual observation), the object feature 3 is made to correspond to the model shape 5 after making the object feature 3 a reference shape 4 that can be processed by a computer. It is desirable. In addition, the reference shape 4 corresponding to the model shape 5 may be created based on all the object features 3 contained in the photograph 2, but it is easy to correspond to the model shape 5 (that is, the digital elevation model). It is preferable that the feature (which can be expressed by M) is extracted from the object feature 3 and created. In the present embodiment, the subject skyline 3a is extracted from the subject features 3 photographed in the photograph 2.

基準形状4は、CADなどの作図アプリケーションを利用して被写スカイライン3aをトレースするように作図することができる。あるいは、写真2の画像データを利用し、画像データ内の空と山の輝度(あるいは色相や彩度や明度)の違いから、スカイラインAをエッジとしてコンピュータで自動生成させ、このエッジを利用して基準形状4を作成することもできる。このように作成された基準形状4は2次元の形状であり、この形状を構成する幾何学的要素(点、線分、面など)は、写真2内における任意の座標系(x,y)の座標で表すことができる。以下、この写真2内における任意座標系を写真座標系という。また、基準形状4を構成する点の中から、その形状を特徴づける部分(以下、「特徴部」という。)を選出しておくこともできる。この特徴部としては、特徴ある点(例えば、山の頂点や谷部の変化点)に限らず、線分の曲率といった局所的に特徴を持つ部分を選出することができる。なお、図6(a)では特徴部として尾根部F1、谷部F2、尾根部F3の3箇所が選出されている。 The reference shape 4 can be drawn to trace the imaged skyline 3a using a drawing application such as CAD. Alternatively, the image data of Photo 2 is used, the skyline A is automatically generated by a computer as an edge from the difference in brightness (or hue, saturation, and brightness) of the sky and mountains in the image data, and this edge is used. A reference shape 4 can also be created. The reference shape 4 created in this way is a two-dimensional shape, and the geometric elements (points, line segments, surfaces, etc.) constituting this shape are represented by an arbitrary coordinate system (x a , y in the photograph 2). a ) can be expressed in coordinates. Hereinafter, the arbitrary coordinate system in the photograph 2 is referred to as a photograph coordinate system. In addition, a part characterizing the shape (hereinafter referred to as “characteristic part”) can be selected from the points constituting the reference shape 4. As this characteristic part, not only a characteristic point (for example, a peak of a mountain or a change point of a valley) but also a part having a local characteristic such as a curvature of a line segment can be selected. Note that in FIG. 6A, three locations of the ridge portion F1, the valley portion F2, and the ridge portion F3 are selected as characteristic portions.

(モデル形状)
図7は、モデル形状5を作成する概念を示す説明図である。モデル形状5は、数値標高モデルMを基に空間演算することで作成される2次元の形状であり、基準形状4と対応させるものである。前記のとおり数値標高モデルMは3次元の空間座標を備えているため、図7に示すように、立体的な地形モデルを作成することが可能であり、換言すれば仮想の地形表面(以下、「地表モデルS」という。)を再現することができる。この地表モデルSを任意地点から投影して作成される投影地形(2次元形状)が、モデル形状5である。つまり、仮に地表モデルSを任意地点からカメラ撮影したとすれば得られるはずの地形が、モデル形状5となる。
(Model shape)
FIG. 7 is an explanatory diagram showing the concept of creating the model shape 5. The model shape 5 is a two-dimensional shape created by performing spatial calculation based on the digital elevation model M, and corresponds to the reference shape 4. As described above, since the digital elevation model M has three-dimensional spatial coordinates, it is possible to create a three-dimensional terrain model, as shown in FIG. "Ground model S") can be reproduced. A projected landform (two-dimensional shape) created by projecting the surface model S from an arbitrary point is a model shape 5. That is, if the surface model S is photographed from an arbitrary point by a camera, the topography that should be obtained is the model shape 5.

具体的には、数値標高モデルMに「視点」情報と「視角」情報を与えて空間演算処理すると、投影地形すなわちモデル形状5が作成される。図7では、異なる3地点から投影して、3つの異なるモデル形状5を作成している。なおここでいう「視点」とは、投影する実空間上の3次元座標(X,Y,Z)であって、カメラ中心位置に該当する概念である。また、「視角」とは、投影方向及び視野角のことで、この投影方向はカメラ撮影する場合の撮影姿勢(X軸回りの傾きω(ピッチ)、Y軸回りの傾きφ(ロール)、Z軸回りの傾きκ(ヨー))に該当する概念であり、視野角は画面距離などで規定されるカメラ撮影範囲に該当するものである。   Specifically, when the “elevation” information and the “viewing angle” information are given to the digital elevation model M and the spatial calculation processing is performed, a projected landform, that is, a model shape 5 is created. In FIG. 7, three different model shapes 5 are created by projecting from three different points. The “viewpoint” here is a three-dimensional coordinate (X, Y, Z) in the real space to be projected, and is a concept corresponding to the camera center position. The “viewing angle” refers to a projection direction and a viewing angle, and this projection direction is a shooting posture when shooting with a camera (tilt ω (pitch) around the X axis, tilt φ (roll) around the Y axis, Z This is a concept corresponding to a tilt around the axis (yaw), and the viewing angle corresponds to a camera photographing range defined by a screen distance or the like.

視角(投影方向と視野角)及び視点を決め、数値標高モデルMを基に空間演算すれば、投影される地表モデルS上の範囲が特定されるとともに、その特定された範囲内の地形を同一平面(以下この平面を、「モデル画像面G」という。)上で、2次元の形状として表現することができる。ここで表現される2次元の形状が「モデル形状5」であり、この形状を構成する幾何学的要素(点、線分、面など)は、モデル画像面G内における任意の座標系(x,y)の座標で表すことができる。以下、このモデル画像面G内における任意座標系をモデル座標系という。なお、このような技術は、前記した特許文献1や特許文献2でも紹介されているとおり従来から用いられているものであり、これを実行するアプリケーションプログラムも市販されている。 If the viewing angle (projection direction and viewing angle) and viewpoint are determined and spatial calculation is performed based on the digital elevation model M, the range on the ground model S to be projected is specified, and the terrain within the specified range is the same. It can be expressed as a two-dimensional shape on a plane (hereinafter, this plane is referred to as “model image plane G”). The two-dimensional shape expressed here is “model shape 5”, and the geometric elements (points, line segments, surfaces, etc.) constituting this shape are arbitrary coordinate systems (x b , y b ). Hereinafter, the arbitrary coordinate system in the model image plane G is referred to as a model coordinate system. In addition, such a technique is conventionally used as introduced in Patent Document 1 and Patent Document 2 described above, and an application program for executing this technique is also commercially available.

(基準形状とモデル形状との対応)
図6(a)に示す基準形状4を作成し、図6(b)に示すモデル形状5を作成すると、次に図6(c)に示すように基準形状4とモデル形状5を照らし合わせてそれぞれの構成要素同士の対応を図る。
(Correspondence between standard shape and model shape)
When the reference shape 4 shown in FIG. 6 (a) is created and the model shape 5 shown in FIG. 6 (b) is created, the reference shape 4 and the model shape 5 are compared with each other as shown in FIG. 6 (c). Try to correspond between each component.

モデル形状5を作成する際に入力する視点及び視角(投影方向と視野角)を、基準形状4作成のために撮影したときの実際の撮影条件値(カメラ中心位置の座標、撮影姿勢、撮影範囲)とすれば、理論的には基準形状4とモデル形状5は完全に一致する。つまり、カメラ中心位置の座標(X,Y,Z)を「視点」とし、撮影姿勢(ω,φ,κ)を「視角」のうちの投影方向とし、撮影した撮影範囲を「視角」のうちの視野角として作成されたモデル形状5は、基準形状4と完全に一致する。なお、カメラ中心位置の座標やカメラ撮影姿勢を計測するには、トータルステーションや方位計(磁石、電子コンパス等)を利用することができるし、とくに飛行中に撮影する場合はGPSとIMUを利用することができる。また、撮影した撮影範囲を得るためには、カメラ1の諸元(画角、画面距離など)から求めることができる。   Actual shooting condition values (camera center position coordinates, shooting posture, shooting range) when the viewpoint and viewing angle (projection direction and viewing angle) input when creating the model shape 5 are shot to create the reference shape 4 ) Theoretically, the reference shape 4 and the model shape 5 completely coincide. That is, the coordinates (X, Y, Z) of the camera center position are set as the “viewpoint”, the shooting posture (ω, φ, κ) is set as the projection direction of the “viewing angle”, and the shot shooting range is set as the “viewing angle”. The model shape 5 created as the viewing angle is completely coincident with the reference shape 4. In order to measure the coordinates of the camera center position and the camera shooting posture, a total station or direction meter (magnet, electronic compass, etc.) can be used. Especially when shooting in flight, GPS and IMU are used. be able to. Further, in order to obtain a photographed photographing range, it can be obtained from the specifications (view angle, screen distance, etc.) of the camera 1.

基準形状4とモデル形状5が完全に一致すれば、これらを照らし合わせてそれぞれの構成要素同士の対応を図ることは容易である。しかしながら、実際には撮影条件値の計測精度や数値標高モデルMの位置精度の影響により、基準形状4とモデル形状5が完全に一致しないこともある(図6(c))。このような場合、基準形状4とモデル形状5をできる限り重なり合うように配置(以下、この状態を「最接近配置」という。)し、双方の近接している構成要素同士を対応させる。   If the reference shape 4 and the model shape 5 completely coincide with each other, it is easy to compare them with each other by comparing them. However, actually, the reference shape 4 and the model shape 5 may not completely match due to the influence of the measurement accuracy of the photographing condition value and the position accuracy of the digital elevation model M (FIG. 6C). In such a case, the reference shape 4 and the model shape 5 are arranged so as to overlap as much as possible (hereinafter, this state is referred to as “closest arrangement”), and both adjacent components are made to correspond to each other.

例えば、基準形状4とモデル形状5を同一の座標系(写真座標系もしくはモデル座標系)に配置し、さらに最小二乗法などによって基準形状4の構成点とモデル形状5の構成点との誤差(絶対値)が最小となるように両形状を最接近配置することができる。あるいは、基準形状4に反映させた特徴部(図6(a)の尾根部F1、谷部F2、尾根部F3)に着目し、この特徴部に相当するモデル形状5の特徴的な形状を抽出して、これと基準形状4の特徴部が合致するように最接近配置することもできる。   For example, the reference shape 4 and the model shape 5 are arranged in the same coordinate system (photographic coordinate system or model coordinate system), and further, an error between the constituent points of the reference shape 4 and the constituent points of the model shape 5 by the least square method or the like ( Both shapes can be arranged closest to each other so that (absolute value) is minimized. Alternatively, paying attention to the feature portions (ridge portion F1, valley portion F2, ridge portion F3 in FIG. 6A) reflected in the reference shape 4, a characteristic shape of the model shape 5 corresponding to this feature portion is extracted. Then, it can be arranged closest to the feature part of the reference shape 4 so as to match.

最接近配置の状態で基準形状4とモデル形状5それぞれの構成要素を対応させる方法としては、次のような手法が例示できる。すなわち、最接近配置とした状態で、基準形状4の構成点とモデル形状5の構成点で最も接近している構成点同士を対応させる方法、所定ピッチのX座標で基準形状4とモデル形状5それぞれの構成点を算出して同じX座標の構成点同士を対応させる方法(図8)、あるいは、基準形状4をモデル形状5の形状(構成要素)に置き換える方法などが挙げられる。   The following method can be exemplified as a method of associating the constituent elements of the reference shape 4 and the model shape 5 in the state of closest approach. That is, in the state of the closest arrangement, a method of associating the constituent points of the reference shape 4 and the constituent points of the model shape 5 that are closest to each other, the reference shape 4 and the model shape 5 with the X coordinate of a predetermined pitch. For example, a method of calculating the respective component points to correspond the component points having the same X coordinate (FIG. 8), or a method of replacing the reference shape 4 with the shape (component) of the model shape 5 is exemplified.

基準形状4とモデル形状5の構成要素の対応させる概念は、例えば、図8のように示すことができる。この図では、モデル形状5の構成点5_01、構成点5_02、構成点5_03、・・・構成点5_nを、それぞれ基準形状4の構成点4_01、構成点4_02、構成点4_03、・・・構成点4_nに対応させ、関連付けている。このように、基準形状4の構成点とモデル形状5の構成点との対応付けができれば、基準形状4の構成点4_01、構成点4_02、構成点4_03、・・・構成点4_nに、空間情報を与えることができる。すなわち、モデル形状5の構成点5_01、構成点5_02、構成点5_03、・・・構成点5_nは、本来、数値標高モデルMに基づいて作成されたものであるから、それぞれモデル形状5の構成点は実空間における3次元座標を含む空間情報(属性情報を含む場合もある)に紐づいており(つまり有しており)、このモデル形状5の構成点が有する空間情報を、それぞれ対応する基準形状4の構成点に付与すれば、基準形状4の構成点は空間情報を得ることができるわけである。なお、ここでは構成要素として構成点を対応させているが、これに限らず線分や線分の組み合わせ、あるいは面を用いて対応させてもよく、要は基準形状4とモデル形状5を構成する要素同士を対応させればよい。上記のように、基準形状4とモデル形状5の双方の構成要素同士を関連付けて、モデル形状5の構成要素の空間情報を、関連付けられた基準形状4の構成要素に与えてもよいし、これに代えて、基準形状4をモデル形状5に置き換えて基準形状4に空間情報を付与(モデル形状5の空間情報をそのまま利用)してもよい。   The concept of making the constituent elements of the reference shape 4 and the model shape 5 correspond can be shown, for example, as shown in FIG. In this figure, the configuration point 5_01, the configuration point 5_02, the configuration point 5_03,..., The configuration point 5_n of the model shape 5 are the configuration point 4_01, the configuration point 4_02, the configuration point 4_03,. Corresponds to 4_n. As described above, if the constituent points of the reference shape 4 and the constituent points of the model shape 5 can be associated with each other, the spatial information on the constituent points 4_01, 4_02, 4_03,. Can be given. That is, since the configuration point 5_01, the configuration point 5_02, the configuration point 5_03,..., The configuration point 5_n of the model shape 5 are originally created based on the digital elevation model M, each of the configuration points of the model shape 5 Is associated with (that is, has) spatial information including three-dimensional coordinates in real space (that is, attribute information may be included). If given to the constituent points of the shape 4, the constituent points of the reference shape 4 can obtain spatial information. Here, the constituent points are made to correspond as constituent elements. However, the constituent points are not limited to this, and may be made to correspond by using a line segment, a combination of line segments, or a surface. In short, the reference shape 4 and the model shape 5 are configured. What is necessary is just to make the elements to perform correspond. As described above, the components of both the reference shape 4 and the model shape 5 may be associated with each other, and the spatial information of the components of the model shape 5 may be given to the components of the associated reference shape 4, Instead of this, the reference shape 4 may be replaced with the model shape 5 to give spatial information to the reference shape 4 (the spatial information of the model shape 5 is used as it is).

基準形状4の構成点が空間情報を得たことによって、被写地物3のうち基準形状4の対象とならなかった被写地物3に対しても空間情報を付与することができる。つまり、本実施形態でいえば、被写地物3のうち「被写スカイライン3a」を基準形状4の対象としており、被写崩壊部3bは基準形状4の対象としていないが、この被写崩壊部3bに対しても空間情報を付与することができる。   When the constituent points of the reference shape 4 obtain the spatial information, the spatial information can be given to the object 3 that is not the target of the reference shape 4 in the object 3. That is, in the present embodiment, the “photographed skyline 3a” of the subject features 3 is the target of the reference shape 4, and the subject collapse part 3b is not the target of the reference shape 4, but this subject collapse Spatial information can also be given to the part 3b.

空間情報を付与したい被写地物(ここでは、被写崩壊部3bとする)について、基準形状4を作成したのと同様に、2次元の形状(以下、「出力形状6」という。)を作成する。出力形状6は、写真座標系(x,y)に配置することができるので、写真座標系の座標で表すことができる。また、基準形状4とモデル形状5を最接近配置とした状態は、両者が同一平面上に配置されているので、写真座標系のx軸とモデル座標系のx軸との較差(ずれ)、写真座標系のy軸とモデル座標系のy軸との較差(ずれ)が分かる。従って、写真座標系(x,y)に配置された任意の点は、モデル座標系(x,y)へ変換することが可能で、出力形状6もモデル座標系の座標で表すことができて、その結果、実空間の3次元座標を付与することができる。つまり、現実に存在する崩壊部Bの位置や形状、大きさを特定することができる。 A two-dimensional shape (hereinafter referred to as “output shape 6”) is created in the same manner as the reference shape 4 is created for the object to be given spatial information (here, the object collapsed portion 3b). create. Since the output shape 6 can be arranged in the photographic coordinate system (x a , y a ), it can be represented by the coordinates of the photographic coordinate system. The state in which the reference shape 4 and the model shape 5 was closest arrangement, since both are arranged on the same plane, hidden (deviation between x b-axis of x a-axis of the photo coordinate system and the model coordinate system ), hidden and y b axis y a-axis of the photo coordinate system and the model coordinate system (shift) can be seen. Therefore, an arbitrary point arranged in the photographic coordinate system (x a , y a ) can be converted into the model coordinate system (x b , y b ), and the output shape 6 is also expressed by the coordinates of the model coordinate system. As a result, the three-dimensional coordinates of the real space can be given. That is, the position, shape, and size of the collapsed part B that actually exists can be specified.

(地図の作成)
崩壊部Bの位置や形状を特定することができると、既存の地図に記載して表示することが可能となり、崩壊部Bの情報を記した新たな地図を作成することができる。もちろん既存の地図に表示する場合に限らず、他の空間情報も加えて、崩壊部Bの位置や形状を記した新たな地図を作成することもできる。このように、崩壊部Bから十分離れて撮影するだけで地図上にプロットすることができるので、容易かつ安全に崩壊部Bを表示した地図を得ることができる。
(Create map)
If the position and shape of the collapsing part B can be specified, it can be displayed and displayed on an existing map, and a new map in which information on the collapsing part B is recorded can be created. Of course, it is not limited to displaying on an existing map, but other spatial information can be added to create a new map describing the position and shape of the collapsed portion B. Thus, since it can plot on a map only by image | photographing sufficiently away from the collapse part B, the map which displayed the collapse part B can be obtained easily and safely.

(実施フロー)
本実施形態を実施する手順の例を、図9に示す実施フローについて説明する。
(Implementation flow)
An example of a procedure for carrying out the present embodiment will be described with reference to the implementation flow shown in FIG.

その位置や形状を特定したい被写地物(ここでは被写崩壊部3bとする)を含む画像(写真2)を、デジタルカメラなどのカメラ1によって取得する(901)。このとき、写真撮影したときの撮影条件値(カメラ中心位置の座標、撮影姿勢、撮影範囲)を、GPSやIMUなどの計測器を用いて計測しておく。   An image (photo 2) including an object to be identified for its position and shape (here, the object collapsing part 3b) is acquired by a camera 1 such as a digital camera (901). At this time, the photographing condition values (the coordinates of the camera center position, the photographing posture, and the photographing range) when the photograph is taken are measured using a measuring instrument such as GPS or IMU.

写真2の中に収められた被写地物3の中から、モデル形状5と対応させやすい被写地物3(ここでは被写スカイライン3aとする)を抽出する(902)。写真2の画像データ内における山と空の輝度の違いから被写スカイライン3aの境界(エッジ)をコンピュータで自動生成させ、このエッジを構成する構成点に写真座標系の座標を付与し、これを基準形状4とする(903)。このとき、尾根部F1、谷部F2、尾根部F3を特徴部として基準形状4に反映させる(904)こともできる。   The object feature 3 (here, the object skyline 3a) that is easily associated with the model shape 5 is extracted from the object features 3 stored in the photograph 2 (902). The boundary (edge) of the captured skyline 3a is automatically generated by the computer from the difference in brightness between the mountains and the sky in the image data of Photo 2, and the coordinates of the photographic coordinate system are assigned to the constituent points constituting this edge. A reference shape 4 is set (903). At this time, the ridge part F1, the valley part F2, and the ridge part F3 can be reflected in the reference shape 4 as characteristic parts (904).

既存の数値標高モデルMのうち、被写地物3を含む地域を選定する(905)。数値標高モデルMが広範にわたる場合は、ある程度その範囲を限定することで演算処理にかかる負荷を軽減させることができるからであり、数値標高モデルMの範囲が比較的限定的であれば必ずしも地域を選定する必要はない。   From the existing digital elevation model M, an area including the object feature 3 is selected (905). This is because, when the digital elevation model M covers a wide range, it is possible to reduce the load on the arithmetic processing by limiting the range to some extent. If the range of the digital elevation model M is relatively limited, the region is not necessarily limited. There is no need to select.

撮影条件値(カメラ中心位置の座標、撮影姿勢、撮影範囲)を、モデル形状5を作成するための視点及び視角(投影方向と視野角)として入力する(906)。このうち、カメラ中心位置の座標と撮影姿勢については撮影時に計測した値を、撮影範囲についてはカメラ1の諸元(焦点距離や画面距離など)から求めた値を用いる。ここで入力された視点及び視角と、地域選定された数値標高モデルMと、に基づいて空間演算処理が行われ、2次元の形状であるモデル形状5が作成される(907)。   The photographing condition values (the coordinates of the camera center position, the photographing posture, and the photographing range) are input as a viewpoint and a viewing angle (projection direction and viewing angle) for creating the model shape 5 (906). Among these, the values measured at the time of shooting are used for the coordinates of the camera center position and the shooting posture, and the values obtained from the specifications of the camera 1 (focal length, screen distance, etc.) are used for the shooting range. Spatial calculation processing is performed based on the viewpoint and viewing angle input here and the digital elevation model M selected in the region, and a model shape 5 which is a two-dimensional shape is created (907).

基準形状4とモデル形状5を同一の座標系(2次元)に配置し、さらに基準形状4とモデル形状5とができるだけ一致するように両形状を最接近配置の状態に置く。このとき、基準形状4に反映させた特徴部に着目しながら、基準形状4とモデル形状5とを照らし合わせるとよい。また、最小二乗法などによって基準形状4の構成点とモデル形状5の構成点との誤差(絶対値)が最小となるような最接近配置としてもよい。この最接近配置の状態で、基準形状4の構成点とモデル形状5の構成点で最も接近している構成点同士(あるいは同一のX座標を持つもの同士(図8)など)、両構成点の関連付けを行う。又は、基準形状4をモデル形状5の形状とする(908)。   The reference shape 4 and the model shape 5 are arranged in the same coordinate system (two-dimensional), and both shapes are placed in the closest arrangement so that the reference shape 4 and the model shape 5 match as much as possible. At this time, the reference shape 4 and the model shape 5 may be illuminated while paying attention to the feature part reflected in the reference shape 4. Further, the closest arrangement may be made such that the error (absolute value) between the constituent point of the reference shape 4 and the constituent point of the model shape 5 is minimized by the least square method or the like. In this closest arrangement state, the constituent points closest to each other in the constituent points of the reference shape 4 and the model shape 5 (or those having the same X coordinate (FIG. 8), etc.), both constituent points Make an association. Alternatively, the reference shape 4 is set as the shape of the model shape 5 (908).

基準形状4の構成点とモデル形状5の構成点との関連付け(若しくはモデル形状5の形状への置き換え)ができると、モデル形状5の構成点が有する3次元座標を、これに関連する基準形状4の構成点に付与する(909)。被写崩壊部3bについて、CADなどの作図アプリケーションを利用して出力形状6を作成する。この出力形状6を写真座標系の座標で表し、写真座標系とモデル座標系との空間的な関連からモデル座標系における出力形状6の座標を求める。さらに、数値標高モデルMを基に、出力形状6に空間情報を付与し、被写崩壊部3bの位置や形状を特定する(910)。必要に応じて、既存の地図に崩壊部Bの位置や形状を記載して表示し、崩壊部Bの情報を記した地図を作成する。   When the constituent points of the reference shape 4 and the constituent points of the model shape 5 can be associated (or replaced with the shape of the model shape 5), the three-dimensional coordinates of the constituent points of the model shape 5 are converted into the reference shapes related thereto. 4 is assigned to the component number 4 (909). An output shape 6 is created for the subject collapsing portion 3b using a drawing application such as CAD. The output shape 6 is represented by coordinates in the photographic coordinate system, and the coordinates of the output shape 6 in the model coordinate system are obtained from the spatial relationship between the photographic coordinate system and the model coordinate system. Further, based on the digital elevation model M, spatial information is given to the output shape 6, and the position and shape of the subject collapsing part 3b are specified (910). If necessary, the position and shape of the collapsed portion B are described and displayed on an existing map, and a map in which information of the collapsed portion B is written is created.

(システムの機器構成)
図10は、「被写地物の位置特定システム」を構成する機器の配置を示す説明図であり、この図に基づいて、本実施形態における「被写地物の位置特定システム」の機器構成の一例を説明する。
(System configuration)
FIG. 10 is an explanatory diagram showing the arrangement of the devices constituting the “target object position specifying system”. Based on this figure, the device configuration of the “target object position specifying system” in the present embodiment. An example will be described.

図10に示すように、ホストコンピュータ7と、端末コンピュータ8と、数値標高モデルデータベース9が、有線又は無線のネットワークで接続されている。端末コンピュータ8は、カメラ1(デジタルカメラ)から写真2の画像データを読取り、実際に撮影したときの撮影条件値を記憶する。さらに、画像データ内における輝度の違いから被写地物3の境界(エッジ)を自動生成させ、このエッジの構成点に対して同一平面上で2次元座標を付与することで基準形状4を作成する。また、特徴部を入力し、これを基準形状4に反映させることもできる。   As shown in FIG. 10, a host computer 7, a terminal computer 8, and a digital elevation model database 9 are connected by a wired or wireless network. The terminal computer 8 reads the image data of the photograph 2 from the camera 1 (digital camera), and stores the photographing condition value when actually photographing. Furthermore, the reference shape 4 is created by automatically generating the boundary (edge) of the object 3 based on the difference in luminance in the image data and assigning two-dimensional coordinates on the same plane to the constituent points of the edge. To do. It is also possible to input a characteristic part and reflect it in the reference shape 4.

ホストコンピュータ7は、通信によって端末コンピュータ8から基準形状4や撮影条件値を受け取るとともに、数値標高モデルデータベース9から数値標高モデルMを受け取る。このとき、必要な地域を指定して、当該範囲に限定した数値標高モデルMを数値標高モデルデータベース9から受け取ることもできる。さらにホストコンピュータ7は、図9の実施フローに示す907〜910のステップ(又は、実施形態3で説明する図11の実施フローの1107〜1113ステップ)を実行する。   The host computer 7 receives the reference shape 4 and the photographing condition value from the terminal computer 8 through communication, and receives the digital elevation model M from the digital elevation model database 9. At this time, it is possible to specify a necessary area and receive the digital elevation model M limited to the range from the digital elevation model database 9. Further, the host computer 7 executes steps 907 to 910 shown in the execution flow of FIG. 9 (or steps 1107 to 1113 of the execution flow of FIG. 11 described in the third embodiment).

なお図10では、ホストコンピュータ7、端末コンピュータ8、数値標高モデルデータベース9がネットワークで接続されているが、これに限らずホストコンピュータ7と端末コンピュータ8を一体のものとしたり、ホストコンピュータ7と数値標高モデルデータベース9を一体のものとしたり、ホストコンピュータ7と端末コンピュータ8と数値標高モデルデータベース9すべてを一体のものとすることもできる。   In FIG. 10, the host computer 7, the terminal computer 8, and the digital elevation model database 9 are connected via a network. However, the present invention is not limited to this, and the host computer 7 and the terminal computer 8 are integrated, or the host computer 7 and the numerical value model 9 are connected. The elevation model database 9 can be integrated, or the host computer 7, the terminal computer 8, and the numerical elevation model database 9 can all be integrated.

(実施形態3)
ここでは、「被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図」の第3の実施形態について説明する。本実施形態は、実施形態2においてモデル形状5を作成するための視点及び視角のうちいずれかあるいは全てが未知である場合について説明するものであり、実施形態1や実施形態2と共通する技術内容に関する説明は省略する。
(Embodiment 3)
Here, a third embodiment of “the method for specifying the position of the object to be imaged, its program, and the display map of the object to be imaged” will be described. The present embodiment describes a case where any or all of the viewpoint and the viewing angle for creating the model shape 5 in the second embodiment are unknown, and technical contents common to the first and second embodiments. The description regarding is omitted.

被写地物3を撮影した際、カメラ中心位置の座標のみを計測し、撮影姿勢については計測しないこともある。あるいは、撮影姿勢についてのみ計測する場合や、カメラ中心位置の座標と撮影姿勢の両方を計測しない場合も考えられる。このような場合、次のような手順に沿って照合判断を行ってモデル形状5を作成するとよい。すなわち、未知である視点や視角(投影方向と視野角)の値を変数として取り扱い、これらの値を初期値(任意値)から徐々に変化させ、それぞれの視点や視角で計算される形状を「モデル形状候補5’」として作成する。例えば、カメラ中心位置の座標が既知で撮影姿勢が未知の場合には、視点(座標値)を固定して視角を変数として初期値から変化させてそれぞれモデル形状候補5’を作成する。また、カメラ中心位置の座標も撮影姿勢も未知の場合には、視点(座標値)、視角をともに変数として初期値から変化させてそれぞれモデル形状候補5’を作成する。作成されたモデル形状候補5’を基準形状4に照らし合わせ、所定の近似条件に基づいて照合判断を行う。このモデル形状候補5’の算出及び基準形状4との照合判断は、照合したと判断されるまで繰り返し行われ、照合したと判断されたモデル形状候補5’がモデル形状5として抽出される。   When the object 3 is photographed, only the coordinates of the camera center position are measured, and the photographing posture may not be measured. Alternatively, it may be possible to measure only the shooting posture or not to measure both the coordinates of the camera center position and the shooting posture. In such a case, the model shape 5 may be created by performing a collation determination according to the following procedure. In other words, unknown viewpoints and viewing angles (projection direction and viewing angle) are treated as variables, and these values are gradually changed from the initial values (arbitrary values). It is created as a model shape candidate 5 ′ ”. For example, when the coordinates of the camera center position are known and the shooting posture is unknown, the viewpoint (coordinate value) is fixed and the viewing angle is changed from the initial value to create a model shape candidate 5 '. When the coordinates of the camera center position and the shooting posture are unknown, the model shape candidate 5 'is created by changing the viewpoint (coordinate value) and the viewing angle from the initial values as variables. The created model shape candidate 5 'is collated with the reference shape 4, and collation judgment is performed based on a predetermined approximate condition. The calculation of the model shape candidate 5 ′ and the matching determination with the reference shape 4 are repeatedly performed until it is determined that matching is performed, and the model shape candidate 5 ′ determined to be verified is extracted as the model shape 5.

モデル形状候補5’と基準形状4との照合判断は、両者を重ね合わせる等によって両形状の一致性を判断するものであり、もちろん両形状が完全に一致(合同となる)する場合に限らず、一致と判断し得る程度に両形状が近似している場合も同様に一致した、つまり照合したと判断することができる。一致性の判断(照合判断)を行う場合、次のような手法を例示することができる。すなわち、モデル形状候補5’と基準形状4を最接近配置(実施形態2での説明と同様)において、所定の条件(近似条件)を満足した場合は照合したと、満足しない場合は照合しないと判断する。この近似条件としては、例えば、最接近配置における誤差(絶対値)の総計を閾値以下とする条件や、最接近配置において許容誤差(事前に設定)外にある構成点の点数を閾値以下とする条件、などが挙げられる。あるいは、特徴部(実施形態2の説明と同様で、例えば、図6(a)の尾根部F1、谷部F2、尾根部F3)のみに着目して、その特徴部が前記のような近似条件を満足する場合に照合したとすることもできるし、近似条件を設けずに(無条件として)、最接近配置とした時点で基準形状4とモデル形状候補5’が照合したものとすることもできる。   The collation judgment between the model shape candidate 5 ′ and the reference shape 4 is for judging the coincidence of both shapes by superimposing them, and of course, not limited to the case where both shapes are completely coincident (congruent). Similarly, when both shapes are approximated to such an extent that they can be determined to be coincident, it can be determined that they are identical, that is, collated. The following method can be exemplified when determining the consistency (matching determination). That is, the model shape candidate 5 'and the reference shape 4 are collated when the predetermined condition (approximate condition) is satisfied in the closest arrangement (similar to the description in the second embodiment). to decide. As this approximation condition, for example, the condition that the total error (absolute value) in the closest approach is less than the threshold, or the number of component points that are outside the allowable error (preset) in the closest approach is less than the threshold. Conditions, etc. Alternatively, focusing on only the characteristic part (similar to the description of the second embodiment, for example, the ridge part F1, the valley part F2, and the ridge part F3 in FIG. 6A), the characteristic part is an approximate condition as described above. The reference shape 4 and the model shape candidate 5 ′ may be verified at the time of the closest approach without providing an approximation condition (unconditionally). it can.

モデル形状候補5’が基準形状4と照合したと判断され、そのモデル形状候補5’がモデル形状5として抽出されると、実施形態2と同様、基準形状4とモデル形状5の構成要素の対応付けが行われ、基準形状4の構成要素に対して数値標高モデルMによる実空間の空間情報が与えられる。さらに、基準形状4の構成点が空間情報を得たことによって、被写地物3のうち基準形状4の対象とならなかった被写地物3(例えば、被写崩壊部3b)に対しても空間情報を付与することができるので、その位置や形状を既存の地図に記載して表示することが可能となるのも実施形態2と同様である。   When it is determined that the model shape candidate 5 ′ is matched with the reference shape 4, and the model shape candidate 5 ′ is extracted as the model shape 5, the correspondence between the reference shape 4 and the components of the model shape 5 is the same as in the second embodiment. Thus, the spatial information of the real space by the digital elevation model M is given to the constituent elements of the reference shape 4. In addition, since the constituent points of the reference shape 4 have obtained spatial information, the object feature 3 (for example, the object collapsing part 3b) that is not the object of the reference shape 4 among the object features 3 is detected. Since spatial information can also be given, the position and shape can be described and displayed on an existing map as in the second embodiment.

(実施フロー)
本実施形態を実施する手順の例を、図11に示す実施フローについて説明する。
(Implementation flow)
An example of a procedure for carrying out the present embodiment will be described with reference to the execution flow shown in FIG.

その位置や形状を特定したい被写地物(ここでは被写崩壊部3bとする)を含む画像(写真2)を、デジタルカメラなどのカメラ1によって取得する(1101)。このとき、写真撮影したときの撮影条件値(カメラ中心位置の座標)を、トータルステーションなどの計測器を用いて計測しておく。   An image (photo 2) including the object to be identified for its position and shape (here, the object collapsing part 3b) is acquired by the camera 1 such as a digital camera (1101). At this time, the photographing condition value (the coordinates of the camera center position) when the photograph is taken is measured using a measuring instrument such as a total station.

写真2の中に収められた被写地物3の中から、モデル形状5と対応させやすい被写地物3(ここでは被写スカイライン3aとする)を抽出する(1102)。写真2の画像データ内における山と空の輝度の違いから被写スカイライン3aの境界(エッジ)をコンピュータで自動生成させ、このエッジを構成する構成点に対して同一平面上の2次元座標を付与して基準形状4を作成する(1103)。このとき、尾根部F1、谷部F2、尾根部F3、(図6(a))を特徴部として基準形状4に反映させる(1104)こともできる。   The object feature 3 (here, the object skyline 3a) that is easily associated with the model shape 5 is extracted from the object features 3 stored in the photograph 2 (1102). The boundary (edge) of the skyline 3a is automatically generated by the computer from the difference in brightness between the mountains and the sky in the image data of Photo 2, and two-dimensional coordinates on the same plane are given to the constituent points that constitute this edge. Thus, the reference shape 4 is created (1103). At this time, the ridge part F1, the valley part F2, the ridge part F3 (FIG. 6A) can be reflected in the reference shape 4 as a characteristic part (1104).

既存の数値標高モデルMのうち、被写地物3を含む地域を選定する(1105)。数値標高モデルMが広範にわたる場合は、ある程度その範囲を限定することで演算処理にかかる負荷を軽減させることができるからであり、数値標高モデルMの範囲が比較的限定的であれば必ずしも地域を選定する必要はない。   Of the existing digital elevation model M, an area including the object feature 3 is selected (1105). This is because, when the digital elevation model M covers a wide range, it is possible to reduce the load on the arithmetic processing by limiting the range to some extent. If the range of the digital elevation model M is relatively limited, the region is not necessarily limited. There is no need to select.

モデル形状5を作成するための視点及び視角(投影方向と視野角)を入力する(1106)。なおここでは、撮影条件値のうちカメラ中心位置の座標が既知であるとして、これを視点として入力し、視角については任意の初期値を入力する。   A viewpoint and a viewing angle (projection direction and viewing angle) for creating the model shape 5 are input (1106). Here, assuming that the coordinates of the camera center position are known among the photographing condition values, this is input as a viewpoint, and an arbitrary initial value is input for the viewing angle.

地域選定された数値標高モデルMと、入力された視点及び視角と、に基づいて空間演算処理が行われ、2次元の形状であるモデル形状5の候補(つまりモデル形状候補5’)が作成される(1107)。基準形状4とモデル形状候補5’を同一の座標系(2次元)に配置し、さらに最小二乗法などによって基準形状4の構成点とモデル形状5の構成点との誤差(絶対値)が最小となるように両形状を最接近配置の状態とする(1108)。この状態で、近似条件に基づいて照合判断を行い(1109)、近似条件を満たす場合、つまり照合したと判断できる場合は次のステップ(1110)に進む。近似条件を満たさない場合、つまり照合しないと判断される場合は、再度、視点・視角の入力(1106)を行う。ただしこのときは、視点の値はそのままとし、前回の視角の入力値は変更して入力する。このように、基準形状4とモデル形状候補5’が照合するまで、視角の入力(1106)〜照合判断(1109)が繰り返し実施される。   Spatial calculation processing is performed based on the digital elevation model M selected in the region and the input viewpoint and viewing angle, and a model shape 5 candidate that is a two-dimensional shape (that is, model shape candidate 5 ′) is created. (1107). The reference shape 4 and the model shape candidate 5 ′ are arranged in the same coordinate system (two-dimensional), and the error (absolute value) between the constituent point of the reference shape 4 and the constituent point of the model shape 5 is minimized by the least square method or the like. Both shapes are brought into a state of closest approach so as to become (1108). In this state, collation determination is performed based on the approximate condition (1109), and if the approximate condition is satisfied, that is, if it can be determined that collation has been performed, the process proceeds to the next step (1110). When the approximation condition is not satisfied, that is, when it is determined not to collate, the viewpoint / viewing angle is input again (1106). However, at this time, the viewpoint value is left as it is, and the previous viewing angle input value is changed and input. In this way, the visual angle input (1106) to the collation determination (1109) are repeatedly performed until the reference shape 4 and the model shape candidate 5 'are collated.

基準形状4とモデル形状候補5’が照合すると判断されると、当該モデル形状候補5’をモデル形状5として抽出し(1110)、基準形状4の構成点とモデル形状5の構成点との関連付け(若しくはモデル形状5の形状への置き換え)を行う(1111)。基準形状4の構成点とモデル形状5の構成点との関連付け(若しくはモデル形状5の形状への置き換え)ができると、モデル形状5の構成点が有する3次元座標を、これに関連する基準形状4の構成点に付与する(1112)。次に、被写崩壊部3bについて、CADなどの作図アプリケーションを利用して出力形状6を作成する。この出力形状6を写真座標系の座標で表し、写真座標系とモデル座標系との空間的な関連からモデル座標系における出力形状6の座標を求める。さらに、数値標高モデルMを基に、出力形状6に空間情報を付与し、被写崩壊部3bの位置や形状を特定する(1113)。必要に応じて、既存の地図に崩壊部Bの位置や形状を記載して表示し、崩壊部Bの情報を記した地図を作成する。   When it is determined that the reference shape 4 and the model shape candidate 5 ′ are collated, the model shape candidate 5 ′ is extracted as the model shape 5 (1110), and the constituent points of the reference shape 4 and the constituent points of the model shape 5 are associated with each other. (Or replacement of the model shape 5 with the shape) is performed (1111). When the constituent points of the reference shape 4 and the constituent points of the model shape 5 can be associated (or replaced with the shape of the model shape 5), the three-dimensional coordinates of the constituent points of the model shape 5 are converted into the reference shapes related thereto. 4 is assigned to the constituent points (1112). Next, an output shape 6 is created for the subject collapsing portion 3b using a drawing application such as CAD. The output shape 6 is represented by coordinates in the photographic coordinate system, and the coordinates of the output shape 6 in the model coordinate system are obtained from the spatial relationship between the photographic coordinate system and the model coordinate system. Further, based on the digital elevation model M, spatial information is given to the output shape 6 to identify the position and shape of the subject collapsing portion 3b (1113). If necessary, the position and shape of the collapsed portion B are described and displayed on an existing map, and a map in which information of the collapsed portion B is written is created.

(システムの機器構成)
本実施形態における「被写地物の位置特定システム」を構成する機器の配置も、実施形態1と同様に図10に示す機器構成とすることができる。
(System configuration)
Similarly to the first embodiment, the arrangement of the devices constituting the “target object position specifying system” in the present embodiment can also be the device configuration shown in FIG.

(実施形態4)
ここでは、「被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図」の第4の実施形態について説明する。本実施形態は、実施形態2〜3において画像に基づいて基準形状4とモデル形状5を作成する場合について説明するものであり、実施形態1〜3と共通する技術内容に関する説明は省略する。
(Embodiment 4)
Here, a description will be given of a fourth embodiment of “the method for specifying the position of the subject feature, its program, and the display map of the subject feature”. In the present embodiment, the case where the reference shape 4 and the model shape 5 are created based on the images in the second to third embodiments will be described, and the description regarding the technical contents common to the first to third embodiments will be omitted.

(基準形状)
被写地物3とモデル形状5を対応させるためには、被写地物3をコンピュータで処理できる基準形状4としたうえでモデル形状5と対応させることが望ましく、本実施形態では画像に基づいて基準形状4を作成する。実施形態1〜3と同様、基準形状4は写真2の中に収められた全ての被写地物3に基づいて作成してもよいが、モデル形状5と対応させやすい(つまり数値標高モデルMで表現可能な)地物を被写地物3の中から抽出して作成する方が好適である。本実施形態では、写真2に写された被写地物3の中から被写山部3c(写真2内に写る山の形状、図2)を抽出している。
(Standard shape)
In order to make the object feature 3 correspond to the model shape 5, it is desirable to make the object feature 3 correspond to the model shape 5 after making it the reference shape 4 that can be processed by a computer. The reference shape 4 is created. As in the first to third embodiments, the reference shape 4 may be created based on all the object features 3 contained in the photograph 2, but can be easily associated with the model shape 5 (that is, the digital elevation model M). It is preferable to extract and create the features that can be expressed by In the present embodiment, the object mountain 3c (the shape of the mountain shown in the photograph 2, FIG. 2) is extracted from the object 3 photographed in the photograph 2.

基準形状4は、写真2内のうち被写山部3cを構成する画像(画素の集合)を抽出し、この画像を基準形状4とする。この場合、写真2をモニタで表示して目視で確認しながら被写山部3cの画像を切り出して基準形状4を作成することができる。または、写真2の画像データ内の輝度(あるいは彩度や明度)の違いに基づいて、地物の境界(エッジ)をコンピュータで自動的に認識し、このエッジ内を構成する画素の集合を基準形状4として作成することもできる。   As the reference shape 4, an image (a set of pixels) that constitutes the subject mountain portion 3 c in the photograph 2 is extracted, and this image is set as the reference shape 4. In this case, the reference shape 4 can be created by cutting out the image of the mountain portion 3c while the photograph 2 is displayed on the monitor and visually confirmed. Or, based on the difference in brightness (or saturation or lightness) in the image data of Photo 2, the boundary of the feature (edge) is automatically recognized by the computer, and the set of pixels constituting this edge is used as a reference. It can also be created as shape 4.

(モデル形状)
モデル形状5は、数値標高モデルMとこれに付与されたテクスチャに基づいて作成される。2枚1組のステレオ航空写真や衛星写真を用いてステレオマッチングを行えば、数値標高モデルMに対してその地形に応じた画像(画素の集合)、すなわちテクスチャを与えることができる。あるいは、数値標高モデルMにおける各メッシュの地形量(標高値や傾斜角など)を計算し、その傾斜量に応じた色(色相、彩度、明度)を各メッシュに与えた地形量図を、テクスチャとして数値標高モデルMに付与することもできる。この地形量図としては、光源を与えて作成される陰影図(陰と影を付けた図)や水系図など、種々のものが挙げられる。このようにしてテクスチャ(航空写真や地形量図など)が付与された数値標高モデルMと、実施形態2、3で説明した視点及び視角(投影方向と視野角)に基づいて空間演算を行えば、視点と視角によって投影される地表モデルS上の範囲が特定され、その特定された範囲内の画像を表現することが可能であり、この画像をモデル形状5とする。
(Model shape)
The model shape 5 is created based on the digital elevation model M and the texture assigned thereto. If stereo matching is performed using a pair of stereo aerial photographs and satellite photographs, an image (a set of pixels) corresponding to the topography, that is, a texture can be given to the digital elevation model M. Or, calculate the topographic amount (elevation value, inclination angle, etc.) of each mesh in the digital elevation model M, and give the topographical amount map (hue, saturation, brightness) according to the inclination amount to each mesh, It can also be given to the digital elevation model M as a texture. As the topographic map, there are various types such as a shadow map (shaded and shaded) created by giving a light source and a water system map. In this way, if a space calculation is performed based on the digital elevation model M to which the texture (aerial photograph, topographic map, etc.) is given, and the viewpoint and viewing angle (projection direction and viewing angle) described in the second and third embodiments. The range on the ground surface model S projected by the viewpoint and the viewing angle is specified, and an image within the specified range can be expressed.

(基準形状とモデル形状との対応)
画像による基準形状4と、画像によるモデル形状5を作成したら、これらを照らし合わせてそれぞれの画素同士の対応を図る。具体的には、基準形状4とモデル形状5のそれぞれの画素配列に基づいて、基準形状4の画素とモデル形状5の画素を対応させる。このとき、実施形態2、3で説明した手法(被写地物3の外形や特徴部を用いる手法)を組み合わせて行うこともできる。対応する画素同士を照らし合わせて、一致性の判断(照合判断)を行ったうえで、基準形状4の画素に空間情報を付与することもできるが、視点と視角に実際の撮影条件値(カメラ中心位置の座標、撮影姿勢、撮影範囲)を採用した場合など、ある程度基準形状4に近似した状態でモデル形状5を作成することができる場合は、照合判断を省略してそのまま基準形状4の画素に空間情報を付与することもできる。
(Correspondence between standard shape and model shape)
When the reference shape 4 based on the image and the model shape 5 based on the image are created, these are collated, and each pixel is associated with each other. Specifically, based on the respective pixel arrays of the reference shape 4 and the model shape 5, the pixels of the reference shape 4 and the pixels of the model shape 5 are associated with each other. At this time, the method described in the second and third embodiments (a method using the outer shape and the characteristic part of the object 3) can be combined. Spatial information can be given to the pixels of the reference shape 4 after comparing the corresponding pixels and judging the matching (matching judgment). When the model shape 5 can be created in a state that approximates the reference shape 4 to some extent, such as when the coordinates of the center position, the shooting posture, and the shooting range are adopted, the pixel of the reference shape 4 is omitted as it is without matching judgment. Spatial information can also be given to.

本実施形態における照合判断は、対応する画素同士の属性に基づいて行う。この場合の属性とは色属性のことであるが、本来、色は人の視覚で認識するものであり、個人差が伴うものである。しかしながら、近年この色をコンピュータで扱うべく色属性を数値化させる技術が定着してきた。色属性を数値化する手法にも種々あり、赤(Red)・緑(Green)・青(Blue)の3色を基本色とするRGB、シアン(Cyan)・マゼンタ(Magenta)・イエロー(Yellow)・ブラック(Keycolor)の4色を基本色とするCMYK、黄・赤・青・緑・黒・白の6色を基本色とするNCSやオストワルト表色系などが知られている。本実施形態では、以下、RGBで色属性を数値化した場合について説明するが、本願発明を実施するには他の手法を採用してもよい。   The collation determination in this embodiment is performed based on the attributes of corresponding pixels. The attribute in this case is a color attribute, but the color is originally recognized by human vision and is accompanied by individual differences. However, in recent years, a technique for quantifying color attributes has been established so that this color can be handled by a computer. There are various methods for quantifying the color attributes, and RGB, Cyan, Magenta, and Yellow, whose basic colors are three colors of red, green, and blue. CMYK having four basic colors of black (Keycolor), NCS and Ostwald color system having six basic colors of yellow, red, blue, green, black, and white are known. In the present embodiment, a case will be described below in which color attributes are digitized in RGB, but other techniques may be employed to implement the present invention.

ここで、RGBについて簡単に説明する。色は、色相、彩度、明度からなる3つの属性を備えており、RGBは赤・緑・青を基本色としてこの3原色を混ぜ合わせる加法混色により、様々な色の3属性を表現するものである。具体的には、RGBは赤・緑・青をそれぞれの明度で表現するものであって、赤の明度をr、緑の明度をg、青の明度をbとすると、RGBは(r、g、b)で表され、rとgとbの値の組み合わせによって色の3属性を表現することができる。 Here, RGB will be briefly described. Colors have three attributes consisting of hue, saturation, and lightness. RGB expresses three attributes of various colors by additive color mixing that mixes these three primary colors with red, green, and blue as basic colors. It is. Specifically, RGB expresses red, green, and blue with the respective lightness values. If red lightness is r, green lightness is g, and blue lightness is b, RGB is (r, g B), and the three attributes of color can be expressed by a combination of the values of r, g, and b.

本実施形態における照合判断を具体的に説明すると、以下のとおりである。すなわち、基準形状4とモデル形状5に関して、それぞれ対応する画素ごとにRGBを比較し、事前に設定した近似条件に従って照合の有無を判断する。この近似条件としては、例えば、双方のRGBの較差が許容値内である画素数の比率(前画素数に対する比率)を閾値以上とする条件や、RGBの較差の最大値を閾値以下とする条件、などが挙げられる。このような近似条件の下、基準形状4とモデル形状5を照らし合わせて、この条件を満足した場合は照合したと、満足しない場合は照合しないと判断する。 The collation determination in the present embodiment will be specifically described as follows. That is, with respect to the reference shape 4 and the model shape 5, RGB is compared for each corresponding pixel, and the presence or absence of collation is determined according to an approximate condition set in advance. As this approximate condition, for example, a condition in which the ratio of the number of pixels in which both RGB differences are within an allowable value (a ratio to the number of previous pixels) is equal to or greater than a threshold value, or a condition in which the maximum value of RGB differences is equal to or less than the threshold value. , Etc. Under such an approximate condition, the reference shape 4 and the model shape 5 are collated, and if this condition is satisfied, it is determined to be verified, and if not satisfied, it is determined not to be verified.

基準形状4とモデル形状5の照合判断を行う場合、視点及び視角の値を初期値(例えば、撮影条件値)から徐々に変化させて繰り返し計算を行う。つまり、それぞれの視点及び視角で計算される形状を「モデル形状候補5’」とし、これを基準形状4と照らし合わせて所定の近似条件に基づき照合判断を行う。この照合判断は、基準形状4とモデル形状候補5’が照合したと判断されるまで繰り返し行われ、照合したと判断されたモデル形状候補5’をモデル形状5として抽出する。   When the reference shape 4 and the model shape 5 are collated and determined, the viewpoint and viewing angle values are gradually changed from initial values (for example, photographing condition values), and the calculation is repeated. That is, the shape calculated at each viewpoint and viewing angle is set as a “model shape candidate 5 ′”, and this is compared with the reference shape 4 to perform collation determination based on a predetermined approximate condition. This collation determination is repeated until it is determined that the reference shape 4 and the model shape candidate 5 ′ have been collated, and the model shape candidate 5 ′ that has been determined to be collated is extracted as the model shape 5.

このようにして抽出されたモデル形状5(照合判断しない場合も含む)の画素を用いて、これに対応する基準形状4の画素に対して空間情報を付与する。あるいは、実施形態2、3で説明したように、基準形状4の画像(画素の集合)をモデル形状5の画像(画素の集合)に置き換える。モデル形状5を構成する画素は、数値標高モデルMに関連づいたものであるから、それぞれの画素は3次元の座標を含む空間情報(属性情報を含む場合もある)を有しており、このモデル形状5の画素が有する空間情報を、それぞれ対応する基準形状4の画素に付与すれば、基準形状4の画素は空間情報を得ることができる。   Spatial information is given to the pixel of the reference shape 4 corresponding to the pixel of the model shape 5 (including the case where the collation is not determined) extracted in this way. Alternatively, as described in the second and third embodiments, the image of the reference shape 4 (a set of pixels) is replaced with the image of the model shape 5 (a set of pixels). Since the pixels constituting the model shape 5 are related to the digital elevation model M, each pixel has spatial information (including attribute information in some cases) including three-dimensional coordinates. If the spatial information which the pixel of the model shape 5 has is provided to the corresponding pixel of the reference shape 4, the pixel of the reference shape 4 can obtain the spatial information.

さらに、基準形状4の画素が空間情報を得たことによって、被写地物3のうち基準形状4の対象とならなかった被写地物3に対しても空間情報を付与することができる。本実施形態でいえば、被写地物3のうち「被写山部3c」を基準形状4の対象としており、被写崩壊部3bは基準形状4の対象としていないが、この被写崩壊部3bに対しても空間情報を付与することができる。   Furthermore, when the pixels of the reference shape 4 obtain the spatial information, the spatial information can be given to the object 3 that is not the target of the reference shape 4 among the objects 3 to be imaged. In the present embodiment, the “photographed mountain portion 3 c” of the subject feature 3 is the target of the reference shape 4, and the subject collapse portion 3 b is not the target of the reference shape 4. Spatial information can be given also to 3b.

空間情報を付与したい被写崩壊部3bについて、基準形状4を作成したのと同様に、画像に基づいて2次元の形状(以下、「出力形状6」という。)を作成する。実施形態2、3と同様に、被写崩壊部3bと被写山部3cの配置関係、さらには被写山部3cとモデル形状5の配置関係から、被写崩壊部3bとモデル形状5の関連付けが行われ、この結果、被写崩壊部3bに対して数値標高モデルMによる実空間の空間情報を付与することができる。つまり、被写崩壊部3bに空間情報が付与され、崩壊部Bの位置や形状を特定することができる。   A two-dimensional shape (hereinafter referred to as “output shape 6”) is created based on the image in the same manner as the reference shape 4 is created for the subject collapsing portion 3b to which spatial information is to be added. As in the second and third embodiments, the relationship between the subject collapsing portion 3b and the model shape 5 is determined based on the arrangement relationship between the subject collapsing portion 3b and the subject mountain portion 3c. As a result, the spatial information of the real space by the digital elevation model M can be given to the subject collapsing part 3b. That is, spatial information is given to the subject collapsing part 3b, and the position and shape of the collapsing part B can be specified.

(実施フロー)
本実施形態を実施する手順は、基準形状4とモデル形状5を作成する手法を除けば実施形態2、3と同様である。ここでは、図12に基づいて、照合判断する場合の実施フローについて説明する。なお、照合判断しない場合の実施フローは図9と同様であるので省略する。
(Implementation flow)
The procedure for implementing this embodiment is the same as that of Embodiments 2 and 3 except for the method of creating the reference shape 4 and the model shape 5. Here, based on FIG. 12, the implementation flow in the case of collation judgment is demonstrated. Note that the execution flow when the collation determination is not made is the same as in FIG.

その位置や形状を特定したい被写崩壊部3bを含む画像(写真2)を、デジタルカメラなどのカメラ1によって取得する(1201)。このとき、写真撮影したときの撮影条件値(カメラ中心位置の座標、撮影姿勢、撮影範囲)を、GPSやIMUなどの計測器を用いて計測しておく。   An image (photo 2) including the subject collapse part 3b whose position and shape are desired to be specified is acquired by a camera 1 such as a digital camera (1201). At this time, the photographing condition values (the coordinates of the camera center position, the photographing posture, and the photographing range) when the photograph is taken are measured using a measuring instrument such as GPS or IMU.

写真2の中に収められた被写地物3の中から、モデル形状5と対応させやすい被写山部3cを抽出する(1202)。写真2の画像データ内における山と空の輝度の違いから被写スカイライン3aの境界(エッジ)をコンピュータで自動的に認識し、このエッジ内を構成する画素の集合を基準形状4として作成する。(1203)。このとき、尾根部F1、谷部F2、尾根部F3、(図6(a))を特徴部として基準形状4に反映させる(1204)こともできる。   From the object 3 stored in the photograph 2, the object mountain portion 3c that is easily associated with the model shape 5 is extracted (1202). The boundary (edge) of the captured skyline 3a is automatically recognized by the computer from the difference in brightness between the mountains and the sky in the image data of the photograph 2, and a set of pixels constituting the edge is created as the reference shape 4. (1203). At this time, the ridge part F1, the valley part F2, the ridge part F3 (FIG. 6A) can be reflected as a characteristic part in the reference shape 4 (1204).

既存の数値標高モデルMのうち、被写地物3を含む地域を選定する(1205)。数値標高モデルMが広範にわたる場合は、ある程度その範囲を限定することで演算処理にかかる負荷を軽減させることができるからであり、数値標高モデルMの範囲が比較的限定的であれば必ずしも地域を選定する必要はない。   From the existing digital elevation model M, an area including the object 3 is selected (1205). This is because, when the digital elevation model M covers a wide range, it is possible to reduce the load on the arithmetic processing by limiting the range to some extent. If the range of the digital elevation model M is relatively limited, the region is not necessarily limited. There is no need to select.

モデル形状5を作成するための視点及び視角(投影方向と視野角)を、撮影条件値(カメラ中心位置の座標、撮影姿勢、撮影範囲)として入力する(1206)。このうち、カメラ中心位置の座標と撮影姿勢については撮影時に計測した値を、撮影範囲についてはカメラ1の諸元(焦点距離や画面距離など)から求めた値を用いる。ここで入力された視点及び視角と、テクスチャが付与された数値標高モデルMと、に基づいて空間演算処理が行われ、視点と視角によって投影される地表モデルS上の範囲が特定され、その特定された範囲内の画像によりモデル形状5の候補(つまりモデル形状候補5’)が作成される(1207)。   The viewpoint and viewing angle (projection direction and viewing angle) for creating the model shape 5 are input as shooting condition values (camera center position coordinates, shooting posture, shooting range) (1206). Among these, the values measured at the time of shooting are used for the coordinates of the camera center position and the shooting posture, and the values obtained from the specifications of the camera 1 (focal length, screen distance, etc.) are used for the shooting range. Spatial calculation processing is performed based on the viewpoint and viewing angle input here, and the digital elevation model M to which texture is added, and the range on the ground model S that is projected by the viewpoint and viewing angle is specified, and the identification is performed. A candidate for model shape 5 (that is, model shape candidate 5 ′) is created from the image within the range (1207).

基準形状4とモデル形状候補5’のそれぞれの画素配列に基づいて、基準形状4の画素とモデル形状候補5’の画素を対応させ(1208)、所定の近似条件に基づいて照合判断を行い(1209)、近似条件を満たす場合、つまり照合したと判断できる場合は次のステップ(1210)に進む。近似条件を満たさない場合、つまり照合しないと判断される場合は、再度、視点・視角の入力(1206)を行う。ただしこのときは、前回値とは変えて視点・視角を入力する。このように、基準形状4とモデル形状候補5’が照合するまで、視点・視角の入力(1206)〜照合判断(1209)が繰り返し実施される。   Based on the pixel arrangement of each of the reference shape 4 and the model shape candidate 5 ′, the pixel of the reference shape 4 and the pixel of the model shape candidate 5 ′ are made to correspond (1208), and collation determination is performed based on a predetermined approximate condition ( 1209) When the approximation condition is satisfied, that is, when it can be determined that the collation has been performed, the process proceeds to the next step (1210). When the approximation condition is not satisfied, that is, when it is determined not to collate, the viewpoint / viewing angle is input again (1206). However, in this case, the viewpoint / viewing angle is input in place of the previous value. In this manner, the viewpoint / viewing angle input (1206) to the collation determination (1209) are repeatedly performed until the reference shape 4 and the model shape candidate 5 'are collated.

モデル形状5の画素を用いて、これに対応する基準形状4の画素に対して空間情報を付与する(1210)。被写崩壊部3bについても、基準形状の作成(1206)と同様に、出力形状6を作成する。被写崩壊部3bと被写山部3cの配置関係、さらには被写山部3cとモデル形状5の配置関係から、被写崩壊部3bとモデル形状5の関連付けが行われ、この結果、被写崩壊部3bに対して数値標高モデルMによる実空間の空間情報を付与することができる。つまり、被写崩壊部3bに空間情報が付与され、崩壊部Bの位置や形状を特定することができる(1211)。必要に応じて、既存の地図に崩壊部Bの位置や形状を記載して表示し、崩壊部Bの情報を記した地図を作成する。   Spatial information is given to the pixel of the reference shape 4 corresponding to the pixel of the model shape 5 (1210). Similarly to the creation of the reference shape (1206), the output shape 6 is also created for the subject collapsing portion 3b. The disintegration part 3b and the model shape 5 are associated with each other based on the arrangement relationship between the object collapse part 3b and the object mountain part 3c, and the arrangement relation between the object mountain part 3c and the model shape 5. Spatial information of the real space by the digital elevation model M can be given to the photo collapsing part 3b. That is, spatial information is given to the subject collapsing part 3b, and the position and shape of the collapsing part B can be specified (1211). If necessary, the position and shape of the collapsed portion B are described and displayed on an existing map, and a map in which information of the collapsed portion B is written is created.

[撮影位置取得方法とそのプログラム、及び撮影位置取得装置の実施形態]
本実施形態は、本願発明の「撮影位置取得方法とそのプログラム、及び撮影位置取得装置」について説明するものである。なお本実施形態は、[被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図の実施形態](実施形態1〜4)において実施する被写地物3への空間情報付与(位置と形状の特定)に代えて、モデル形状5を作成する際の視点及び視角を求める場合について説明するものである。従って、被写地物3への空間情報付与に関すること以外、すなわち[被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図の実施形態]の実施形態1〜4で説明した、単写真2の撮影、被写地物3の抽出、基準形状4の作成、モデル形状5の作成、基準形状4とモデル形状5の照合(照合判断含む)などに関することは、本実施形態でも同様であり、ここでの説明は省略する。なお、本実施形態における基準形状4の作成とモデル形状5の作成は、[被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図の実施形態]の実施形態1〜3で説明した手法(外形に基づく手法)でも、実施形態4で説明した手法(画像に基づく手法)でも構わない。
[Embodiment of Shooting Position Acquisition Method and Program, and Shooting Position Acquisition Device]
The present embodiment describes the “shooting position acquisition method, program thereof, and shooting position acquisition apparatus” of the present invention. In addition, this embodiment is the spatial information to the to-be-photographed object 3 implemented in [Embodiment of the position specifying method of the to-be-grounded object and its program, and the display map of the to-be-photographed object] (Embodiment 1-4). A case where the viewpoint and the viewing angle when creating the model shape 5 are obtained instead of giving (specifying the position and shape) will be described. Therefore, in addition to those relating to the provision of spatial information to the object 3, that is, Embodiments 1 to 4 of [Embodiment of the method for specifying the position of the object to be imaged and its program, and display map of the object to be imaged] The present embodiment relates to the photographing of the single photograph 2, the extraction of the object 3 to be photographed, the creation of the reference shape 4, the creation of the model shape 5, the collation between the reference shape 4 and the model shape 5 (including collation judgment). However, the same applies, and a description thereof is omitted here. The creation of the reference shape 4 and the creation of the model shape 5 in the present embodiment are the first to third embodiments of [Method for specifying position of object to be imaged and its program, and embodiment of display map of object to be imaged]. The method described in the above (the method based on the outer shape) or the method described in the fourth embodiment (the method based on the image) may be used.

図13は、本願発明の撮影位置取得装置10を用いて、現在撮影している位置を取得している状況を示す説明図である。撮影位置取得装置10はデジタルカメラのような画像取得手段を備えており、図に示す撮影者は市街地の風景を撮影している。ここで撮影した写真2にはホテルDとマンションEが収められており、それぞれ被写ホテル3dと被写マンション3eとして被写地物3を取得している。   FIG. 13 is an explanatory diagram showing a situation in which the current shooting position is acquired using the shooting position acquisition device 10 of the present invention. The photographing position acquisition device 10 includes image acquisition means such as a digital camera, and a photographer shown in the figure takes a picture of a cityscape. The photograph 2 taken here contains a hotel D and an apartment E, and the object to be photographed 3 is acquired as the photographed hotel 3d and the photographed apartment 3e, respectively.

図13に示す写真2の被写地物3のうち被写ホテル3dと被写マンション3eを抽出し、被写ホテル3dと被写マンション3eについて基準形状4を作成する。この場合における基準形状4の作成は、前記したとおり、[被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図の実施形態]の実施形態1〜3で説明した手法でも、実施形態4で説明した手法でも構わない。   The photographed hotel 3d and the photographed apartment 3e are extracted from the photographed features 3 of the photograph 2 shown in FIG. 13, and a reference shape 4 is created for the photographed hotel 3d and the photographed apartment 3e. In this case, as described above, the reference shape 4 can be created by the method described in the first to third embodiments of [the position specifying method of the object to be detected and its program, and the embodiment of the display map of the object to be detected]. The method described in the fourth embodiment may be used.

ホテルDとマンションEを含む当該市街地は、既に数値標高モデルM(あるいはテクスチャが付与された数値標高モデルM)が作成されており、この数値標高モデルM(あるいはテクスチャが付与された数値標高モデルM)に基づいてモデル形状5を作成する。このときの視点及び視角は不明であるので、所定の初期値(デフォルト値)を採用する。視点及び視角を初期値から徐々に変えながらモデル形状候補5’を計算し、それぞれ基準形状4と照合する。モデル形状候補5’の計算と基準形状4との照合を、近似条件が満足されるまで繰り返し行い、照合判断されたモデル形状候補5’をモデル形状5として抽出する。なおこの場合もモデル形状5の作成は、[被写地物の位置特定方法とそのプログラム、及び被写地物の表示地図の実施形態]の実施形態2、3で説明した手法でも、実施形態4で説明した手法でも構わない。   In the city area including the hotel D and the apartment E, a digital elevation model M (or a digital elevation model M provided with a texture) has already been created, and the digital elevation model M (or a digital elevation model M provided with a texture). ) To create a model shape 5. Since the viewpoint and viewing angle at this time are unknown, a predetermined initial value (default value) is adopted. Model shape candidates 5 ′ are calculated while gradually changing the viewpoint and the viewing angle from the initial values, and are compared with the reference shape 4. The calculation of the model shape candidate 5 ′ and the matching with the reference shape 4 are repeated until the approximate condition is satisfied, and the model shape candidate 5 ′ determined to be matched is extracted as the model shape 5. In this case as well, the model shape 5 can be created by the method described in the second and third embodiments of [the method for specifying the position of the target object and its program, and the display map of the target object]. The method described in 4 may be used.

このようにして抽出されたモデル形状5を計算したときに採用された視点及び視角が、写真2を撮影したときの撮影条件値、つまり(カメラ中心位置の座標、撮影姿勢、撮影範囲)と判断することができる。   The viewpoint and viewing angle adopted when calculating the model shape 5 extracted in this way are determined to be the photographing condition values when the photograph 2 is photographed, that is, (camera center position coordinates, photographing posture, photographing range). can do.

撮影したときに(つまりリアルタイムで)撮影した座標が分かれば、観光旅行者などその土地に不案内な者にとっては極めて便利であり、道に迷うことなく目的地にたどり着くことができる。あるいは、撮影位置取得装置10によって取得した撮影位置情報と連動して、観光案内(例えば、撮影したホテルDの解説)の音声を発生させることもできる。   Knowing the coordinates taken when shooting (that is, in real time) is extremely convenient for tourists and other people who are unfamiliar with the land, and can reach the destination without getting lost. Alternatively, in conjunction with the shooting position information acquired by the shooting position acquisition device 10, it is possible to generate a sound of sightseeing guidance (for example, explanation of the hotel D that was shot).

また本実施形態は、撮影したときにリアルタイムで撮影位置情報を取得する場合に限らず、過去に撮影した写真2の撮影位置情報を取得するためにも利用することができる。図14は、写真2の撮影位置情報を取得する場合の実施フローである。   The present embodiment is not limited to acquiring shooting position information in real time when shooting, but can also be used to acquire shooting position information of a photograph 2 taken in the past. FIG. 14 is an execution flow in the case where the shooting position information of the photograph 2 is acquired.

過去に撮影された写真2(1401)があり、この写真2にはホテルDとマンションEが収められているものの、どこで撮影されたものかは現在では不明である。写真2の中に収められた被写地物3の中から、被写ホテル3dと被写マンション3eを抽出する(1402)。写真2の画像データ内における建物(ホテルD、マンションE)と空の輝度の違いから被写ホテル3dと被写マンション3eの境界(エッジ)をコンピュータで自動生成させ、このエッジの構成点に対して同一平面上の2次元座標を付与して基準形状4を作成する(1403)。このとき、ホテルDやマンションEの特徴部を基準形状4に反映させる(1404)こともできる。   There is a photograph 2 (1401) taken in the past. Although this hotel 2 contains a hotel D and an apartment E, it is currently unknown where the photograph was taken. The photographed hotel 3d and the photographed apartment 3e are extracted from the photographed objects 3 contained in the photograph 2 (1402). The boundary (edge) between the hotel 3d and the apartment 3e is automatically generated by the computer based on the difference in brightness between the building (hotel D and apartment E) and the sky in the image data of Photo 2. The reference shape 4 is created by giving two-dimensional coordinates on the same plane (1403). At this time, the characteristic part of the hotel D or the apartment E can be reflected in the reference shape 4 (1404).

写真2を撮影した概ねの地域が分かる場合は、既存の数値標高モデルMのうち、被写地物3を含む地域を選定する(1405)。数値標高モデルMが広範にわたる場合は、ある程度その範囲を限定することで演算処理にかかる負荷を軽減させることができるからであり、数値標高モデルMの範囲が比較的限定的であれば必ずしも地域を選定する必要はない。   When the general area where the photograph 2 is taken is known, an area including the object 3 is selected from the existing digital elevation model M (1405). This is because, when the digital elevation model M covers a wide range, it is possible to reduce the load on the arithmetic processing by limiting the range to some extent. There is no need to select.

モデル形状5を作成するための視点及び視角は不明なので、所定の初期値(デフォルト値)を入力する(1406)。地域選定された数値標高モデルMと、初期値が入力された視点及び視角と、に基づいて空間演算処理が行われ、2次元の形状であるモデル形状5の候補(つまりモデル形状候補5’)が作成される(1407)。基準形状4とモデル形状候補5’を同一の座標系(2次元)に配置し、さらに最小二乗法などによって基準形状4の構成点とモデル形状5の構成点との誤差(絶対値)が最小となるように両形状を最接近配置の状態とする(1408)。この状態で、近似条件に基づいて照合判断を行い(1409)、近似条件を満たす場合、つまり照合したと判断できる場合は次のステップ(1410)に進む。近似条件を満たさない場合、つまり照合しないと判断される場合は、再度、視点・視角の入力(1406)を行う。ただしこのときは、前回値とは変えて視点・視角を入力する。このように、基準形状4とモデル形状候補5’が照合するまで、視点・視角の入力(1406)〜照合判断(1409)が繰り返し実施される。   Since the viewpoint and viewing angle for creating the model shape 5 are unknown, a predetermined initial value (default value) is input (1406). Spatial calculation processing is performed based on the digital elevation model M selected in the region and the viewpoint and viewing angle to which initial values are input, and a candidate for the model shape 5 that is a two-dimensional shape (that is, model shape candidate 5 ′). Is created (1407). The reference shape 4 and the model shape candidate 5 ′ are arranged in the same coordinate system (two-dimensional), and the error (absolute value) between the constituent point of the reference shape 4 and the constituent point of the model shape 5 is minimized by the least square method or the like. Both shapes are brought into a state of closest approach so as to become (1408). In this state, collation determination is performed based on the approximate condition (1409), and if the approximate condition is satisfied, that is, if it can be determined that collation has been performed, the process proceeds to the next step (1410). When the approximation condition is not satisfied, that is, when it is determined not to collate, the viewpoint / viewing angle is input again (1406). However, in this case, the viewpoint / viewing angle is input in place of the previous value. In this manner, viewpoint / viewing angle input (1406) to collation determination (1409) are repeatedly performed until the reference shape 4 and the model shape candidate 5 'are collated.

基準形状4とモデル形状候補5’が照合すると判断されると、当該モデル形状候補5’をモデル形状5として抽出する(1410)。ここで抽出されたモデル形状5に対応する視点及び視角、すなわちモデル形状5を計算したときに採用した視点及び視角が、写真2を撮影したときの撮影条件値(カメラ中心位置の座標、撮影姿勢、撮影範囲)であり、これから撮影した位置を特定することができる(1411)。   If it is determined that the reference shape 4 and the model shape candidate 5 'are collated, the model shape candidate 5' is extracted as the model shape 5 (1410). The viewpoint and viewing angle corresponding to the model shape 5 extracted here, that is, the viewpoint and viewing angle adopted when the model shape 5 is calculated are the shooting condition values (the coordinates of the camera center position, the shooting posture) , The shooting range), and the position where the shot was taken can be specified (1411).

(システムの機器構成)
図15は、「撮影位置取得装置」を構成する機能を示す説明図であり、(a)は全ての機能を一体型とした場合の撮影位置取得装置の説明図であり、(b)は機能を分散型とした場合の撮影位置取得装置の説明図である。
(System configuration)
FIG. 15 is an explanatory diagram showing the functions constituting the “imaging position acquisition device”. FIG. 15A is an explanatory diagram of the imaging position acquisition device when all the functions are integrated, and FIG. It is explanatory drawing of the imaging | photography position acquisition apparatus at the time of making it into a distributed type.

図15(a)に示すように、撮影位置取得装置10には、主演算機能11と、基準形状演算機能12と、数値標高モデルデータベース13が、格納されており、さらに写真2を取得し記憶するカメラ機能も備えている。基準形状演算機能12は、カメラ機能で取得した写真2の画像データを読取り、画像データ内における輝度の違いから被写地物3の境界(エッジ)を自動生成させ、このエッジの構成点に対して同一平面上の2次元座標を付与することで基準形状4を作成する。また、特徴部を入力し、これを基準形状4に反映させることもできる。   As shown in FIG. 15A, the photographing position acquisition device 10 stores a main calculation function 11, a reference shape calculation function 12, and a digital elevation model database 13, and further acquires and stores a photograph 2. It also has a camera function. The reference shape calculation function 12 reads the image data of the photograph 2 acquired by the camera function, automatically generates a boundary (edge) of the object 3 based on a difference in luminance in the image data, The reference shape 4 is created by giving two-dimensional coordinates on the same plane. It is also possible to input a characteristic part and reflect it in the reference shape 4.

主演算機能11は、基準形状演算機能12で計算した基準形状4を受け取るとともに、数値標高モデルデータベース13から数値標高モデルMを受け取る。このとき、必要な地域を指定して、当該範囲に限定した数値標高モデルMを数値標高モデルデータベース13から受け取ることもできる。さらに主演算機能11は、図14の実施フローに示す1406〜1411のステップを実行する機能を有し、これらを実行することにより写真2の撮影地点を特定する。   The main calculation function 11 receives the reference shape 4 calculated by the reference shape calculation function 12 and also receives the digital elevation model M from the digital elevation model database 13. At this time, it is also possible to specify a necessary area and receive the digital elevation model M limited to the range from the digital elevation model database 13. Further, the main calculation function 11 has a function of executing steps 1406 to 1411 shown in the implementation flow of FIG. 14, and identifies the shooting point of the photograph 2 by executing these steps.

撮影位置取得装置10は、図15(b)に示すように、カメラ機能と通信機能を有するものとし、無線(あるいは有線)による通信手段によって、ホストコンピュータ7、端末コンピュータ8、数値標高モデルデータベース9と接続する構成とすることもできる。ホストコンピュータ7と、端末コンピュータ8と、数値標高モデルデータベース9もまた、有線又は無線のネットワークで接続されており、これらは撮影現場から離れた場所に設置することもできる。   As shown in FIG. 15B, the photographing position acquisition apparatus 10 has a camera function and a communication function, and uses a wireless (or wired) communication means to provide a host computer 7, a terminal computer 8, and a digital elevation model database 9 It can also be set as the structure connected with. The host computer 7, the terminal computer 8, and the digital elevation model database 9 are also connected by a wired or wireless network, and these can be installed at a location away from the shooting site.

端末コンピュータ8は、通信手段を介して撮影位置取得装置10から写真2の画像データを受け取り、基準形状演算機能12を実行して基準形状4を作成する。ホストコンピュータ7は、ネットワークを介して端末コンピュータ8から基準形状4を受け取り、さらに数値標高モデルデータベース9から数値標高モデルMを受け取る。このとき、必要な地域を指定して、当該範囲に限定した数値標高モデルMを数値標高モデルデータベース9から受け取ることもできる。さらにホストコンピュータ7は、主演算機能11、すなわち図14の実施フローに示す1406〜1411のステップを実行する機能を有し、これらを実行することにより写真2の撮影地点を特定する。   The terminal computer 8 receives the image data of the photograph 2 from the photographing position acquisition device 10 via the communication means, and executes the reference shape calculation function 12 to create the reference shape 4. The host computer 7 receives the reference shape 4 from the terminal computer 8 via the network, and further receives the digital elevation model M from the digital elevation model database 9. At this time, it is possible to specify a necessary area and receive the digital elevation model M limited to the range from the digital elevation model database 9. Further, the host computer 7 has a main calculation function 11, that is, a function of executing steps 1406 to 1411 shown in the execution flow of FIG. 14, and by specifying these, the shooting point of the photograph 2 is specified.

被写地物の位置特定方法、撮影位置取得方法、撮影位置取得装置、被写地物の位置特定プログラム、及び被写地物の撮影位置取得プログラムは、人が直接その場所に立ち入ることなく被写地物の位置や形状を把握できるので、特に、被災地のなど人が立ち入ることのできない地物に対して利用するとより効果的である。また、災害に対して迅速に対策を講じることができるので、集落や道路などの機能が速やかに回復させ、産業上利用できるばかりでなく社会的にも大きな貢献を期待し得る発明である。   The method for specifying the position of the object to be photographed, the method for obtaining the photographing position, the device for obtaining the photographing position, the program for identifying the position of the object to be photographed, and the program for obtaining the photographing position of the object to be photographed Since the position and shape of the photographed feature can be grasped, it is more effective particularly when used for a feature such as a stricken area where a person cannot enter. In addition, since it is possible to take quick measures against disasters, it is an invention that can quickly recover the functions of villages, roads, etc., and can be used not only industrially but also make a great social contribution.

1 カメラ
2 写真
3 被写地物
3a 被写スカイライン
3b 被写崩壊部
3c 被写山部
3d 被写ホテル
3e 被写マンション3e
4 基準形状
4_n基準形状の構成点
5 モデル形状
5’ モデル形状候補
5_nモデル形状の構成点
6 出力形状
7 ホストコンピュータ
8 端末コンピュータ
9 数値標高モデルデータベース
10 撮影位置取得装置
11 主演算機能
12 基準形状演算機能
13 数値標高モデルデータベース
A 山の稜線(スカイライン)
B 崩壊部
D ホテル
E マンション
F1 特徴部(尾根部)
F2 特徴部(谷部)
F3 特徴部(尾根部)
G モデル画像面
Gr 地形
L レーザー
M 数値標高モデル
P 航空機
Ph カメラ画像面
S 地表モデル
X 実空間におけるx軸
Y 実空間におけるy軸
Z 実空間におけるz軸
写真座標系におけるx軸
写真座標系におけるy軸
モデル座標系におけるx軸
モデル座標系におけるy軸
DESCRIPTION OF SYMBOLS 1 Camera 2 Photograph 3 Object to be photographed 3a Photographed skyline 3b Photograph collapsing part 3c Photographed mountain part 3d Photographed hotel 3e Photographed apartment 3e
4 Reference Shape 4_n Reference Shape Component 5 Model Shape 5 ′ Model Shape Candidate 5_n Model Shape Component 6 Output Shape 7 Host Computer 8 Terminal Computer 9 Digital Elevation Model Database 10 Imaging Position Acquisition Device 11 Main Calculation Function 12 Reference Shape Calculation Function 13 Digital elevation model database A Mountain ridgeline (skyline)
B Collapse part D Hotel E Mansion F1 Characteristic part (ridge part)
F2 feature (Tanibe)
F3 feature (ridge)
G Model image plane Gr Topography L Laser M Digital elevation model P Aircraft Ph Camera image plane S Ground model X X-axis in real space Y Y-axis in real space Z Z-axis in real space x a x-axis in photo coordinate system y a photo y-axis in the x-axis y a model coordinate system in the y-axis x a model coordinate system in the coordinate system

Claims (10)

数値標高モデルに基づいて、写真に写された被写地物の位置又は/及び形状を特定する方法であって、
前記被写地物の形状から4点以上の特徴点を選出するとともに、これら特徴点に対して、写真平面内の任意座標系による座標を付与し、
前記数値標高モデルに基づく地表モデルを投影したモデル形状から前記特徴点に相当する点を4点以上選出するとともに、これら特徴点に相当する点に対して、モデル形状を表す平面内の任意座標系の座標を付与し、
前記被写地物の特徴点と、前記モデル形状の特徴点に相当する点とを対応させることで、写真平面内の任意座標系と、モデル形状を表す平面内の任意座標系とを関連づけ、
前記数値標高モデルに基づいて、前記被写地物に空間情報を付与し、当該被写地物の位置又は/及び形状を特定することを特徴とする被写地物の位置特定方法。
A method for identifying the position or / and shape of an object to be photographed in a photograph based on a digital elevation model,
Four or more feature points are selected from the shape of the object to be featured, and coordinates based on an arbitrary coordinate system in the photograph plane are given to these feature points,
Four or more points corresponding to the feature points are selected from a model shape obtained by projecting a ground surface model based on the digital elevation model, and an arbitrary coordinate system in a plane representing the model shape is selected for the points corresponding to the feature points. Give the coordinates of
By associating the feature point of the object to be photographed with the point corresponding to the feature point of the model shape, the arbitrary coordinate system in the photographic plane is associated with the arbitrary coordinate system in the plane representing the model shape,
A method for specifying a position of an object to be photographed, wherein spatial information is given to the object to be imaged based on the digital elevation model, and the position or / and shape of the object to be imaged is specified.
数値標高モデルに基づいて、写真に写された被写地物の位置又は/及び形状を特定する方法であって、
前記被写地物の一部又は全部の形状に基づいて2次元の基準形状を作成するとともに、写真平面内の任意座標系により基準形状に座標を付与し、
前記数値標高モデルに基づく地表モデルを投影した2次元のモデル形状を作成するとともに、このモデル形状を表す平面内の任意座標系によりモデル形状に座標を付与し、
前記基準形状の構成要素と、前記モデル形状の構成要素とを対応させることで、写真平面内の任意座標系と、モデル形状を表す平面内の任意座標系とを関連づけ、
前記数値標高モデルに基づいて、前記被写地物に空間情報を付与し、当該被写地物の位置又は/及び形状を特定することを特徴とする被写地物の位置特定方法。
A method for identifying the position or / and shape of an object to be photographed in a photograph based on a digital elevation model,
A two-dimensional reference shape is created based on a part or all of the shape of the object, and coordinates are given to the reference shape by an arbitrary coordinate system in the photographic plane,
Creating a two-dimensional model shape by projecting a surface model based on the digital elevation model, and giving coordinates to the model shape by an arbitrary coordinate system in a plane representing the model shape;
By associating the component of the reference shape with the component of the model shape, the arbitrary coordinate system in the photographic plane is associated with the arbitrary coordinate system in the plane representing the model shape,
A method for specifying a position of an object to be photographed, wherein spatial information is given to the object to be imaged based on the digital elevation model, and the position or / and shape of the object to be imaged is specified.
数値標高モデルに基づいて、写真に写された被写地物の位置又は/及び形状を特定する方法であって、
前記被写地物の一部又は全部の画像に基づいて2次元の基準形状を作成するとともに、写真平面内の任意座標系により基準形状を構成する画素に座標を付与し、
画像が付与された数値標高モデルに基づく地表モデルを投影した投影画像から、2次元のモデル形状を作成するとともに、このモデル形状を表す平面内の任意座標系によりモデル形状を構成する画素に座標を付与し、
前記基準形状の画素と、前記モデル形状の画素とを対応させることで、写真平面内の任意座標系と、モデル形状を表す平面内の任意座標系とを関連づけ、
前記数値標高モデルに基づいて、前記被写地物に空間情報を付与し、当該被写地物の位置又は/及び形状を特定することを特徴とする被写地物の位置特定方法。
A method for identifying the position or / and shape of an object to be photographed in a photograph based on a digital elevation model,
Creating a two-dimensional reference shape based on a part or all of the image of the object, and giving coordinates to pixels constituting the reference shape by an arbitrary coordinate system in a photographic plane;
A two-dimensional model shape is created from a projection image obtained by projecting a ground surface model based on a digital elevation model to which an image is assigned, and coordinates are set to pixels constituting the model shape by an arbitrary coordinate system in a plane representing the model shape. Grant,
By associating the pixel of the reference shape with the pixel of the model shape, the arbitrary coordinate system in the photographic plane is associated with the arbitrary coordinate system in the plane representing the model shape,
A method for specifying a position of an object to be photographed, wherein spatial information is given to the object to be imaged based on the digital elevation model, and the position or / and shape of the object to be imaged is specified.
請求項2又は請求項3記載の被写地物の位置特定方法において、
地表モデルを投影するための視点及び視角を変えることによって、複数の地表モデルを投影した形状をモデル形状候補として作成し、
前記モデル形状候補と基準形状を照合することによって、複数のモデル形状候補の中から基準形状に相当するものをモデル形状とすることを特徴とする被写地物の位置特定方法。
In the method for specifying the position of the object to be photographed according to claim 2 or 3,
By changing the viewpoint and viewing angle for projecting the ground model, create a shape that projects multiple ground models as model shape candidates,
A method for specifying a position of an object to be imaged, wherein a model shape corresponding to a reference shape is selected from a plurality of model shape candidates by collating the model shape candidate with a reference shape.
数値標高モデルに基づいて、写真に写された被写地物の位置又は/及び形状が表示された地図であって、
請求項1乃至請求項4記載の被写地物の位置特定方法によって、位置又は/及び形状が特定された被写地物が、表示されたことを特徴とする被写地物の表示地図。
A map displaying the position or / and shape of the object in the photograph based on the digital elevation model,
5. A display map of a feature to be displayed, wherein the subject feature whose position or / and shape is specified by the method for specifying the position of the feature to be recorded according to claim 1 is displayed.
写真に写された被写地物の位置又は/及び形状を、数値標高モデルに基づいて特定するプログラムであって、
請求項1乃至請求項4記載の被写地物の位置特定方法を、コンピュータに実行させることを特徴とする被写地物の位置特定プログラム。
A program for specifying the position or / and shape of an object featured in a photograph based on a digital elevation model,
A computer-executable object position specifying program that causes a computer to execute the object specifying object position specifying method according to any one of claims 1 to 4.
写真に写された被写地物、及び数値標高モデルに基づいて、被写地物を撮影した地点を取得する方法であって、
前記被写地物の一部又は全部の形状に基づいて2次元の基準形状を作成するとともに、写真平面内の任意座標系により基準形状に座標を付与し、
前記数値標高モデルに基づく地表モデルを投影するための視点及び視角を変えることによって、複数の地表モデルを投影した2次元の形状をモデル形状候補として作成するとともに、これらモデル形状候補を表す平面内の任意座標系によりモデル形状候補に座標を付与し、
前記モデル形状候補と基準形状を照合することによって、複数のモデル形状候補の中から基準形状に相当するものをモデル形状として抽出し、
前記抽出されたモデル形状に対応する視点を被写地物の撮影地点とすることを特徴とする撮影位置取得方法。
A method for acquiring a point where a photographed feature is photographed based on a photographed feature and a digital elevation model,
A two-dimensional reference shape is created based on a part or all of the shape of the object, and coordinates are given to the reference shape by an arbitrary coordinate system in the photographic plane,
By changing a viewpoint and a viewing angle for projecting a ground surface model based on the digital elevation model, a two-dimensional shape projecting a plurality of ground models is created as a model shape candidate, and in a plane representing these model shape candidates Coordinates are given to model shape candidates by an arbitrary coordinate system,
By collating the model shape candidate with a reference shape, a model shape corresponding to the reference shape is extracted from among a plurality of model shape candidates,
A shooting position acquisition method, wherein a viewpoint corresponding to the extracted model shape is set as a shooting point of a subject.
写真に写された被写地物、及び数値標高モデルに基づいて、被写地物を撮影した地点を取得する方法であって、
前記被写地物の一部又は全部の画像に基づいて2次元の基準形状を作成するとともに、写真平面内の任意座標系により基準形状を構成する画素に座標を付与し、
前記数値標高モデルに基づく地表モデルを投影するための視点及び視角を変えることによって、複数の地表モデルを投影した投影画像から、複数の2次元の形状をモデル形状候補として作成するとともに、これらモデル形状候補を表す平面内の任意座標系によりモデル形状を構成する画素に座標を付与し、
前記モデル形状候補と基準形状を照合することによって、複数のモデル形状候補の中から基準形状に相当するものをモデル形状として抽出し、
前記抽出されたモデル形状に対応する視点を被写地物の撮影地点とすることを特徴とする撮影位置取得方法。
A method for acquiring a point where a photographed feature is photographed based on a photographed feature and a digital elevation model,
Creating a two-dimensional reference shape based on a part or all of the image of the object, and giving coordinates to pixels constituting the reference shape by an arbitrary coordinate system in a photographic plane;
A plurality of two-dimensional shapes are created as model shape candidates from projection images obtained by projecting a plurality of ground models by changing the viewpoint and viewing angle for projecting the ground surface model based on the digital elevation model, and these model shapes Give coordinates to the pixels that make up the model shape by an arbitrary coordinate system in the plane representing the candidate,
By collating the model shape candidate with a reference shape, a model shape corresponding to the reference shape is extracted from among a plurality of model shape candidates,
A shooting position acquisition method, wherein a viewpoint corresponding to the extracted model shape is set as a shooting point of a subject.
写真に写された被写地物、及び数値標高モデルに基づいて、被写地物を撮影した地点の位置情報を取得するプログラムであって、
請求項7又は請求項8記載の撮影位置取得方法を、コンピュータに実行させることを特徴とする撮影位置取得プログラム。
A program for obtaining position information of a point where a photographed feature is photographed based on a photographed feature and a digital elevation model,
A shooting position acquisition program that causes a computer to execute the shooting position acquisition method according to claim 7 or 8.
写真に写された被写地物、及び数値標高モデルに基づいて、被写地物を撮影した地点の位置情報を取得する装置であって、
被写地物を撮影し、この画像データを取得する手段と、
前記画像データから、請求項7又は請求項8記載の基準形状を作成する手段と、
請求項7又は請求項8記載の複数のモデル形状候補を作成する手段と、
前記モデル形状と基準形状を照合することによって、複数のモデル形状の中から基準形状に相当するものをモデル形状として抽出する手段と、
前記抽出されたモデル形状に対応する視点を被写地物の撮影地点とする手段と、を備えたことを特徴とする被写地物の撮影位置取得装置。
A device that acquires position information of a point where a photographed feature is photographed based on a photographed feature and a digital elevation model,
Means for photographing the object and acquiring this image data;
Means for creating a reference shape according to claim 7 or 8, from the image data;
Means for creating a plurality of model shape candidates according to claim 7 or claim 8;
Means for extracting a model shape corresponding to a reference shape from a plurality of model shapes by collating the model shape with a reference shape;
Means for taking a viewpoint corresponding to the extracted model shape as a shooting point of the object to be photographed, and a photographing position acquisition device for the object to be photographed.
JP2010289847A 2010-12-27 2010-12-27 Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device Pending JP2012137933A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010289847A JP2012137933A (en) 2010-12-27 2010-12-27 Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010289847A JP2012137933A (en) 2010-12-27 2010-12-27 Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device

Publications (1)

Publication Number Publication Date
JP2012137933A true JP2012137933A (en) 2012-07-19

Family

ID=46675296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010289847A Pending JP2012137933A (en) 2010-12-27 2010-12-27 Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device

Country Status (1)

Country Link
JP (1) JP2012137933A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085933A (en) * 2012-10-25 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional posture estimation apparatus, three-dimensional posture estimation method, and program
JP2015153059A (en) * 2014-02-13 2015-08-24 株式会社ジオ技術研究所 Three-dimensional map display system
JP5909302B1 (en) * 2015-08-12 2016-04-26 株式会社コロプラ Image processing apparatus, image processing method, and image processing program
JP2019046209A (en) * 2017-09-04 2019-03-22 国際航業株式会社 Vehicle position acquisition system and vehicle position acquisition method
KR20190057885A (en) * 2017-11-21 2019-05-29 한국전자통신연구원 3d reconstruction terrain matching method of and apparatus thereof
JP7052104B1 (en) 2021-02-03 2022-04-11 株式会社パスコ Road area identification device, road area identification method and program
JP2022075583A (en) * 2020-11-03 2022-05-18 ネイバーラボス コーポレーション Method of generating map and image-based positioning system using the same
WO2022202429A1 (en) * 2021-03-23 2022-09-29 富士フイルム株式会社 Information processing device, information processing method, program, and information processing system
WO2023281587A1 (en) * 2021-07-05 2023-01-12 日本電気株式会社 Information processing device, control method, and storage medium
WO2023281593A1 (en) * 2021-07-05 2023-01-12 日本電気株式会社 Information processing device, control method, and storage medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6000A (en) * 1849-01-02 Abunah s
US8005A (en) * 1851-04-01 He ne y bo o t
US10021A (en) * 1853-09-13 Screw-eastemtito- for boots and shoes
JPH1165431A (en) * 1997-08-25 1999-03-05 Nippon Telegr & Teleph Corp <Ntt> Device and system for car navigation with scenery label
JP2003115057A (en) * 2001-10-05 2003-04-18 Mitsubishi Electric Corp Texture editing device, texture editing system and method
JP2005077385A (en) * 2003-09-03 2005-03-24 Hitachi Plant Eng & Constr Co Ltd Image correlation method, survey method and measuring system using them
JP2005174151A (en) * 2003-12-12 2005-06-30 Topcon Corp Three-dimensional image display device and method
JP2005286685A (en) * 2004-03-30 2005-10-13 Hitachi Ltd Image generating apparatus, system or image composite method
JP2007164258A (en) * 2005-12-09 2007-06-28 Kurabo Ind Ltd Image synthesizing device and method
JP2009163357A (en) * 2007-12-28 2009-07-23 Casio Comput Co Ltd Image composition device and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6000A (en) * 1849-01-02 Abunah s
US8005A (en) * 1851-04-01 He ne y bo o t
US10021A (en) * 1853-09-13 Screw-eastemtito- for boots and shoes
JPH1165431A (en) * 1997-08-25 1999-03-05 Nippon Telegr & Teleph Corp <Ntt> Device and system for car navigation with scenery label
JP2003115057A (en) * 2001-10-05 2003-04-18 Mitsubishi Electric Corp Texture editing device, texture editing system and method
JP2005077385A (en) * 2003-09-03 2005-03-24 Hitachi Plant Eng & Constr Co Ltd Image correlation method, survey method and measuring system using them
JP2005174151A (en) * 2003-12-12 2005-06-30 Topcon Corp Three-dimensional image display device and method
JP2005286685A (en) * 2004-03-30 2005-10-13 Hitachi Ltd Image generating apparatus, system or image composite method
JP2007164258A (en) * 2005-12-09 2007-06-28 Kurabo Ind Ltd Image synthesizing device and method
JP2009163357A (en) * 2007-12-28 2009-07-23 Casio Comput Co Ltd Image composition device and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800584005; 薄 充孝、外3名: '"ランドマークデータベースに基づく静止画像からのカメラ位置・姿勢推定"' 日本バーチャルリアリティ学会論文誌 Vol.13, No.2, 20080630, p.161-170, 特定非営利活動法人日本バーチャルリアリティ学会 *
JPN6014034465; 薄 充孝、外3名: '"ランドマークデータベースに基づく静止画像からのカメラ位置・姿勢推定"' 日本バーチャルリアリティ学会論文誌 Vol.13, No.2, 20080630, p.161-170, 特定非営利活動法人日本バーチャルリアリティ学会 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085933A (en) * 2012-10-25 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional posture estimation apparatus, three-dimensional posture estimation method, and program
JP2015153059A (en) * 2014-02-13 2015-08-24 株式会社ジオ技術研究所 Three-dimensional map display system
KR20160124072A (en) * 2014-02-13 2016-10-26 가부시키가이샤 지오 기쥬츠켄큐쇼 Three-dimensional map display system
KR102255552B1 (en) 2014-02-13 2021-05-24 가부시키가이샤 지오 기쥬츠켄큐쇼 Three-dimensional map display system
JP5909302B1 (en) * 2015-08-12 2016-04-26 株式会社コロプラ Image processing apparatus, image processing method, and image processing program
JP2019046209A (en) * 2017-09-04 2019-03-22 国際航業株式会社 Vehicle position acquisition system and vehicle position acquisition method
KR20190057885A (en) * 2017-11-21 2019-05-29 한국전자통신연구원 3d reconstruction terrain matching method of and apparatus thereof
KR102195168B1 (en) * 2017-11-21 2020-12-24 한국전자통신연구원 3d reconstruction terrain matching method of and apparatus thereof
JP7365385B2 (en) 2020-11-03 2023-10-19 ネイバーラボス コーポレーション Map generation method and image-based positioning system using the same
JP2022075583A (en) * 2020-11-03 2022-05-18 ネイバーラボス コーポレーション Method of generating map and image-based positioning system using the same
US11941755B2 (en) 2020-11-03 2024-03-26 Naver Labs Corporation Method of generating map and visual localization system using the map
JP7052104B1 (en) 2021-02-03 2022-04-11 株式会社パスコ Road area identification device, road area identification method and program
JP2022119040A (en) * 2021-02-03 2022-08-16 株式会社パスコ Road area identification device, road area identification method, and program
WO2022202429A1 (en) * 2021-03-23 2022-09-29 富士フイルム株式会社 Information processing device, information processing method, program, and information processing system
WO2023281587A1 (en) * 2021-07-05 2023-01-12 日本電気株式会社 Information processing device, control method, and storage medium
WO2023281593A1 (en) * 2021-07-05 2023-01-12 日本電気株式会社 Information processing device, control method, and storage medium

Similar Documents

Publication Publication Date Title
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
JP6503500B2 (en) Point cloud data utilization system
JP5389964B2 (en) Map information generator
US7986825B2 (en) Model forming apparatus, model forming method, photographing apparatus and photographing method
JP6238101B2 (en) Numerical surface layer model creation method and numerical surface layer model creation device
KR20190051703A (en) Stereo drone and method and system for calculating earth volume in non-control points using the same
EP3413266B1 (en) Image processing device, image processing method, and image processing program
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
KR20130102873A (en) Method for generating three-dimensional modeling data of the structure using color groud lidar measurement data
JP4588369B2 (en) Imaging apparatus and imaging method
Javadnejad et al. An assessment of UAS-based photogrammetry for civil integrated management (CIM) modeling of pipes
JP6296444B2 (en) Plotting method by point cloud image and plotting apparatus by point cloud image
JP4099776B2 (en) 3D model creation device, 3D model creation method, and 3D model creation program
JP2014126537A (en) Coordinate correction device, coordinate correction program, and coordinate correction method
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
JP6730502B1 (en) Point cloud distribution visualization device, point cloud distribution visualization method, and point cloud distribution visualization program
KR20190004086A (en) Method for generating three-dimensional object model
CN108195359A (en) The acquisition method and system of spatial data
Pepe et al. Cultural Heritage Documentation in Sis Environment: an application for" Porta Sirena" in the archaeological site of Paestum
JP6973726B1 (en) Measurement system and measurement method
EP4036859A1 (en) A system and method for providing improved geocoded reference data to a 3d map representation
KR101585203B1 (en) System for measuring height of building automatically using DEM for 3D model using aerial photograph
Pratama et al. An Overview of Generating VR Models for Disaster Zone Reconstruction Using Drone Footage
CN114399549A (en) Panoramic overlay pattern spot rendering method and geographic national condition monitoring method and device
Croce et al. UAV-Based 3D Photogrammetry for Post-Earthquake Studies on Seismic Damaged Cities—A Case Study: Castelluccio Di Norcia

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140814

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141014

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141031