JP2019032218A - Location information recording method and device - Google Patents
Location information recording method and device Download PDFInfo
- Publication number
- JP2019032218A JP2019032218A JP2017152817A JP2017152817A JP2019032218A JP 2019032218 A JP2019032218 A JP 2019032218A JP 2017152817 A JP2017152817 A JP 2017152817A JP 2017152817 A JP2017152817 A JP 2017152817A JP 2019032218 A JP2019032218 A JP 2019032218A
- Authority
- JP
- Japan
- Prior art keywords
- image
- fine
- wide area
- area image
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、空間上の位置情報を保存する技術に関する。 The present invention relates to a technique for storing position information in space.
近年、UAV(Unmanned Aerial Vehicle)を用いた点検が一般的になっている。一般化している理由は、点検に使用するUAVの機体とセンサの価格低下に伴い、UAVを用いた点検が、人手による点検より、短時間かつ低価格に実施できるようになったからである。点検の後は、点検結果に基づいた点検後の作業が必要である。点検後の作業とは、例えば、損傷していた箇所の修理と、同一箇所の比較と、同一箇所の再検査が考えられる。 In recent years, inspection using a UAV (Unmanned Aerial Vehicle) has become common. The reason for the generalization is that the inspection using the UAV can be carried out in a shorter time and at a lower price than the inspection by hand as the price of the UAV body and sensor used for the inspection decreases. After the inspection, post-inspection work based on the inspection result is necessary. As the work after inspection, for example, repair of a damaged part, comparison of the same part, and re-inspection of the same part can be considered.
当該作業を実施するには検査箇所の相対位置情報を把握する必要がある。カメラを用いた撮影対象及びカメラ自体の相対位置把握技術として、SfM(Structure from Motion)という技術が存在する。SfMは、共通領域を撮影した画像群からカメラの相対位置と撮影対象物の三次元形状の相対位置関係を推定する技術である。ゆえに、画像群の間で共通領域を撮影した画像のペアが存在しない場合、それぞれの画像群で推定されたカメラの相対位置関係が分からず、当該画像群間で推定された三次元形状の相対位置と相対スケールが分からない。 In order to carry out this work, it is necessary to grasp the relative position information of the inspection location. There is a technique called SfM (Structure from Motion) as a technique for grasping the relative position of an imaging target using a camera and the camera itself. SfM is a technique for estimating the relative position relationship between the relative position of the camera and the three-dimensional shape of the object to be photographed from an image group obtained by photographing the common area. Therefore, when there is no image pair that captures a common area between image groups, the relative positional relationship of the cameras estimated in each image group is not known, and the relative 3D shape estimated between the image groups is not known. I don't know the position and relative scale.
一方で、点検に不要な箇所を点検対象と同様に詳細に撮影していては、処理する画像の増加とともに計算時間が膨大になる。これに対し、特開2014−06148号公報(特許文献1)には、撮像装置を具備する飛行体が高高度を飛行し、測定範囲を含む広域画像を取得し、広域画像取得時の3次元位置を取得する工程と、該広域画像に基づき測定範囲を設定する工程と、飛行体が低高度を飛行し、所定距離間隔で精細画像を取得する工程と、精細画像取得時の位置を取得する工程と、広域画像と精細画像との倍率を合わせる工程と、広域画像取得時の位置、精細画像取得時の位置に基づき倍率を合わせた広域画像と精細画像とを広域画像/精細画像マッチングを行う工程と、広域画像/精細画像マッチングで得られる相対関係情報に基づき隣接する精細画像を精細画像/精細画像マッチングし、前記測定範囲全域の測定範囲精細3Dモデルを作成する工程が記載されている。 On the other hand, if a portion unnecessary for the inspection is photographed in detail like the inspection object, the calculation time becomes enormous as the number of images to be processed increases. On the other hand, in Japanese Unexamined Patent Application Publication No. 2014-06148 (Patent Document 1), a flying object equipped with an imaging device flies at a high altitude, acquires a wide area image including a measurement range, and obtains a three-dimensional image at the time of acquiring the wide area image. A step of acquiring a position, a step of setting a measurement range based on the wide area image, a step of acquiring a fine image at a predetermined distance interval when the flying object flies at a low altitude, and acquiring a position at the time of acquiring the fine image. Perform wide-area image / fine-image matching between the wide-area image and the fine image that have been scaled based on the process, the step of matching the magnification of the wide-area image and the fine image, the position at the time of wide-area image acquisition, and the position at the time of fine-image acquisition And a step of performing fine image / fine image matching of adjacent fine images based on relative information obtained by wide area image / fine image matching and creating a measurement range fine 3D model of the entire measurement range. It has been.
図1は、前記特許文献1の概念を示した図である。広域画像を用いて相対スケールを把握することで、2つ以上の3次元形状の相対位置と相対スケールを決定することができる。
FIG. 1 is a diagram showing the concept of
前記特許文献1では、精細画像と広域画像を照合するのに、GPS(Global Positioning System)で計測した絶対位置情報を用いていた。しかし、撮影対象が動いてしまう場合、広域画像で撮影したときの撮影対象の絶対位置と、精細画像で撮影したときの撮影対象の絶対位置の関係が変化するので、GPSを用いた照合ができない。
In
移動する点検対象として、例えば、洋上風力発電機等が存在する。そこで、本発明は、精細画像と広域画像を用いて、移動する点検対象における点検箇所の位置情報を自動保存する技術の提供を目的とする。 For example, an offshore wind power generator or the like exists as a moving inspection target. Therefore, an object of the present invention is to provide a technique for automatically storing position information of an inspection point in a moving inspection object using a fine image and a wide area image.
本発明の一側面は、広域画像を取得する第1のステップ、広域画像より高分解能である精細画像を取得する第2のステップ、精細画像から、精細画像特徴点を抽出する第3のステップ、精細画像から、精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する第4のステップ、広域画像から広域画像特徴点を抽出し、精細画像特徴点とマッチングを行う第5のステップ、広域画像特徴点に対して、マッチングが成立した精細画像特徴点の三次元座標を対応付けて記録する第6のステップ、を備える位置情報記録方法である。 One aspect of the present invention is a first step of acquiring a wide area image, a second step of acquiring a fine image having a higher resolution than the wide area image, a third step of extracting fine image feature points from the fine image, A fourth step of generating a three-dimensional point group in which a three-dimensional coordinate is given to a fine image feature point from a fine image, extracting a wide area image feature point from the wide area image, and performing matching with the fine image feature point A position information recording method comprising: a fifth step, a sixth step of associating and recording the three-dimensional coordinates of the fine image feature points for which matching has been established with the wide-area image feature points.
本発明の他の一側面は、広域画像を取得する広域画像取得部と、広域画像より高分解能である精細画像を取得する精細画像取得部と、精細画像から精細画像特徴点を抽出し、精細画像から精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する精細画像処理部と、広域画像から広域画像特徴点を抽出し、精細画像特徴点とマッチングを行い、広域画像特徴点に対して、マッチングが成立した精細画像特徴点の三次元座標を対応付けて記録する位置情報記録部、を備える位置情報記録装置である。 Another aspect of the present invention includes a wide-area image acquisition unit that acquires a wide-area image, a fine-image acquisition section that acquires a fine image with higher resolution than the wide-area image, and extracts fine-image feature points from the fine-image, A fine image processing unit that generates a three-dimensional point cloud that gives coordinates in three dimensions to a fine image feature point from an image, and extracts a wide area image feature point from a wide area image, performs matching with the fine image feature point, The position information recording apparatus includes a position information recording unit that records a three-dimensional coordinate of a fine image feature point for which matching is established in association with a wide area image feature point.
広域画像と精細画像の撮影対象の絶対位置が必ずしも等しくなく、GPSベースでは広域画像と精細画像の3次元形状の位置合わせができない環境下でも、広域画像上で点検箇所の把握が可能となる。 The absolute positions of the shooting targets of the wide area image and the fine image are not necessarily equal, and even in an environment where the three-dimensional shape of the wide area image and the fine image cannot be aligned on a GPS basis, the inspection location can be grasped on the wide area image.
以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。各図において共通の構成については同一の参照符号が付されている。 Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that this embodiment is merely an example for realizing the present invention, and does not limit the technical scope of the present invention. In each figure, the same reference numerals are given to common configurations.
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。 Notations such as “first”, “second”, and “third” in this specification and the like are attached to identify the constituent elements, and do not necessarily limit the number, order, or contents thereof. is not. In addition, a number for identifying a component is used for each context, and a number used in one context does not necessarily indicate the same configuration in another context. Further, it does not preclude that a component identified by a certain number also functions as a component identified by another number.
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, and the like of each component illustrated in the drawings and the like may not represent the actual position, size, shape, range, or the like in order to facilitate understanding of the invention. For this reason, the present invention is not necessarily limited to the position, size, shape, range, and the like disclosed in the drawings and the like.
本実施形態では、位置情報記録装置を活用する一例であるUAVを用いた点検を用いて説明する。本実施形態の位置情報記録装置は、点検の対象全域を映した広域画像と、点検を実施する時にカメラから取得した精細画像と、を用いて点検個所の広域画像上での位置情報を記録する。ただし、UAVは一例であり、有人飛行機や地上を移動するロボットや人にも装着することは可能である。点検に使用するセンサは、本装置を構成するカメラによる撮影結果をそのまま使用してもよい。また、当該カメラとは別のセンサを準備し、当該センサで取得した点検結果に位置情報を与えることも考えられる。 In the present embodiment, a description will be given using inspection using UAV, which is an example of utilizing a position information recording apparatus. The position information recording apparatus according to the present embodiment records position information on a wide area image of an inspection location using a wide area image showing the entire inspection target and a fine image acquired from the camera when the inspection is performed. . However, the UAV is an example, and can be attached to a manned airplane, a robot moving on the ground, or a person. The sensor used for the inspection may use the photographing result of the camera constituting the apparatus as it is. It is also conceivable to prepare a sensor different from the camera and give position information to the inspection result acquired by the sensor.
本実施例では、撮影対象が静止しておらず、過去の点検のタイミングと最新の点検のタイミングの間に移動している場合も取り扱うものとする。また、各点検のタイミングでは、例えばUAVにより、広域画像の一部領域に対応する精細画像を取得しておくものとする。広域画像は例えばUAVにより高高度から撮影対象を撮影した遠隔画像であり、精細画像は撮影対象により接近して撮影した近接画像である。精細画像はある一つの点検のタイミングにおいて、複数のカメラ位置から撮影された複数の静止画像を含むものとし、この複数の静止画像間では撮影対象は実質的に動いていないものとする。このような静止画像は、例えばUAMが撮影対象の周りを接近して飛行しながら撮影した動画像から、抽出することができる。一方、広域画像は最初の点検のタイミング以前に一度だけ撮影して保存しておいてもよいし、各点検のタイミングで精細画像とともに撮影してもよい。 In the present embodiment, it is also assumed that the object to be imaged is not stationary and moves between the past inspection timing and the latest inspection timing. Further, at the timing of each inspection, it is assumed that a fine image corresponding to a partial area of the wide area image is acquired by, for example, UAV. The wide area image is a remote image obtained by photographing a photographing object from a high altitude by, for example, UAV, and the fine image is a close image photographed closer to the photographing object. It is assumed that the fine image includes a plurality of still images taken from a plurality of camera positions at a certain inspection timing, and the subject to be photographed does not substantially move between the plurality of still images. Such a still image can be extracted from, for example, a moving image captured while the UAM is flying close to the object to be imaged. On the other hand, the wide area image may be taken and stored only once before the first inspection timing, or may be taken together with the fine image at each inspection timing.
以下に詳細に説明される実施例では、精細画像に対して例えばVisual SLAM(Simultaneous Localization and Mapping:位置推定と地図作成の同時実行)のような技術を用いて、撮影対象の3次元マップを作成する。公知のように、Visual SLAMでは、動画像を解析することで、逐次的にカメラの位置・姿勢と撮影対象の三次元マップを推定することができる。本実施例では、推定した3次元マップと広域画像を比較して、特徴点同士を対応付けることにより、広域画像の座標系における3次元マップの位置を推定し、記憶する。 In the embodiment described in detail below, a three-dimensional map of an object to be imaged is created using a technique such as Visual SLAM (Simultaneous Localization and Mapping) for fine images. To do. As is well known, in Visual SLAM, by analyzing a moving image, it is possible to sequentially estimate the position / posture of the camera and the three-dimensional map of the photographing target. In this embodiment, the estimated 3D map is compared with the wide area image, and the feature points are associated with each other, thereby estimating and storing the position of the 3D map in the coordinate system of the wide area image.
この方法により、精細画像から得られた3次元座標を、広域画像の座標系と対応付けることができる。そこで、過去の点検のタイミングにおける精細画像と、現在の点検のタイミングにおける精細画像との間で、精細画像に含まれる撮影対象の絶対位置が変化している場合でも、同じ座標系で撮影対象物の位置を特定することが可能となる。 By this method, the three-dimensional coordinates obtained from the fine image can be associated with the coordinate system of the wide area image. Therefore, even if the absolute position of the subject to be captured included in the fine image changes between the fine image at the past inspection timing and the fine image at the current inspection timing, the subject to be photographed in the same coordinate system. It becomes possible to specify the position of.
図2により、本発明の第1の実施形態について説明する。図2は、本発明の実施形態1に係る位置情報保存システムの処理フロー図である。本実施形態では、広域画像上における精細画像を取得したカメラの相対位置関係を把握するため、時間的に連続する複数の精細画像間での特徴点マッチングを行う(S201)。これら複数の精細画像は、短時間間隔で撮影されたものとし、その時間内では撮影対象は実質的に移動していないものとする。 A first embodiment of the present invention will be described with reference to FIG. FIG. 2 is a processing flowchart of the position information storage system according to the first embodiment of the present invention. In the present embodiment, feature point matching is performed between a plurality of temporally continuous fine images in order to grasp the relative positional relationship of the cameras that have acquired the fine images on the wide area image (S201). The plurality of fine images are taken at short time intervals, and the subject to be photographed is not substantially moved within that time.
図3により、特徴点マッチングの概念を説明する。マッチングとは、2枚の画像に映る同一点を結び付ける作業のことである。まず、カメラで取得した精細画像300の特徴点301を取得する(図3(a))。
The concept of feature point matching will be described with reference to FIG. Matching is an operation for connecting the same points appearing in two images. First, the
特徴点301は、他の点と区別が容易な画像上の点のことであり、画素情報の勾配情報を特徴点の特徴量として表現することができる。特徴量の例として、公知のSIFT,SURF,ORB,AKAZE等がある。ただし、カメラの位置が変わらず、画像がほとんど変化しない場合は、当該画像から特徴点を取得しなくても良い。特徴点を取得するかの判断に関しては、多くの研究が行われているので詳細を省く。
The
次に、取得した特徴点のマッチングを行う。特徴点マッチングとは、2つの精細画像300aと300bから同一地点を表す点を紐付けることである(図3(b))。比較した特徴点の特徴量が似た値を示している場合に、2つの特徴点301aと301bが同一点を表現していると判断する。当該マッチングの精度を高めるため、幾何的制約等を使用することで、誤ったマッチングを消去しても良い。誤ったマッチングを消去する手段に関しては、後に説明する。
Next, the acquired feature points are matched. The feature point matching is to link points representing the same point from the two
次に特徴点マッチングの結果を用いて、初期の精細画像より生成された三次元点群の相対位置と、カメラの相対位置と、カメラの向きとを、推定する(S202)。三次元点群とは、当該画像上の点に対して三次元上の座標を与えたものである。カメラ相対位置と向きは、当該画像を撮影したときの、カメラの位置と向きのことである。 Next, using the result of feature point matching, the relative position of the three-dimensional point group generated from the initial fine image, the relative position of the camera, and the direction of the camera are estimated (S202). The three-dimensional point group is obtained by giving a three-dimensional coordinate to a point on the image. The camera relative position and orientation are the position and orientation of the camera when the image is taken.
図4に示すように、特徴点マッチングの結果に基づいて、三角測量を利用することで、初期三次元点群401の相対位置とカメラの相対位置402と向き403を推定することができる。このような処理は、前述のVisual SLAMにより行うことができる。
As shown in FIG. 4, the relative position of the initial three-
ただし、三角測量を用いた当該処理は、カメラパラメータが既知であることを前提に行われている。カメラパラメータとは、画像のピクセルの数、センサのサイズ、焦点距離、レンズの歪み等を表現したパラメータである。しかし、実際は事前にカメラパラメータが不明である、もしくは、推定されていたとしても誤差が含まれていることがある。カメラパラメータが正確に把握できない状況でも、特徴点マッチングのマッチング結果によりカメラパラメータを推定することができるので、必ずしも事前にカメラパラメータを推定する必要は無い。 However, the process using triangulation is performed on the assumption that the camera parameters are known. The camera parameter is a parameter expressing the number of pixels of the image, the sensor size, the focal length, the lens distortion, and the like. However, in practice, camera parameters may be unknown in advance, or may include errors even if estimated. Even in a situation where the camera parameters cannot be accurately grasped, the camera parameters can be estimated from the matching result of the feature point matching. Therefore, it is not always necessary to estimate the camera parameters in advance.
次に広域画像と精細画像の特徴点マッチングを行う(S203)。まず、撮影した高度の異なる広域画像と精細画像の特徴点マッチングについて説明する。特徴点マッチングでは、精細画像同士のマッチングで述べたように、画素の勾配情報に基づいた特徴量の類似度で2つの点が同一の箇所を示しているかを判断する。この類似度に基づいたマッチングでは、誤対応点が多く含まれている。そこで、背後にある拘束式を推定し、正しい特徴点マッチング精度を実施するため、公知のRANSAC(RANdom Sample Consensus)と呼ばれるアルゴリズムを用いる。これにより同一地点を適切に対応付けているマッチングを抽出する。 Next, feature point matching between the wide area image and the fine image is performed (S203). First, feature point matching between a captured wide area image and a fine image with different altitudes will be described. In the feature point matching, as described in the matching between the fine images, it is determined whether the two points indicate the same location based on the similarity of the feature amount based on the pixel gradient information. The matching based on the similarity includes many miscorresponding points. Therefore, a known algorithm called RANSAC (RANdom Sample Consensus) is used in order to estimate the constraint equation behind and implement correct feature point matching accuracy. Thereby, the matching which matches the same point appropriately is extracted.
RANSACでは、外れ値を含んだデータから、確率的に背後に存在する拘束を推定し、その拘束に基づいて、マッチングが正しいか判断する。しかし、高度の異なる画像では、誤対応の割合の多さから、背後に存在する拘束条件を推定できず、うまく特徴点マッチングできない。 In RANSAC, a constraint that is stochastically behind is estimated from data including an outlier, and whether matching is correct is determined based on the constraint. However, in images with different altitudes, the constraint conditions existing behind cannot be estimated due to the high proportion of false correspondences, and feature point matching cannot be performed well.
図5を用いて、精細画像と広域画像の特徴点マッチングの方法を説明する。一例であるが、図5は精細画像の大きさを変えて、回転した画像を広域画像に対応付けるという拘束を用いて、正しいマッチングを取得しようとしている。 A feature point matching method between a fine image and a wide area image will be described with reference to FIG. As an example, FIG. 5 attempts to acquire correct matching by using the constraint that the size of the fine image is changed and the rotated image is associated with the wide area image.
図5(a)を見ると、広域画像500は精細画像300を撮影した箇所より、高いところで撮影した結果、撮影対象物は精細画像300を小さくし、回転したように写っている。しかし、大量の誤ったマッチングがある結果、マッチング結果だけを見ても、サイズをどれだけ変化させて、回転させたか推定することは難しい。
As shown in FIG. 5A, the
図5(b)は、広域画像500において、マッチング対象とする特徴点5001がある領域を510に限定して、特徴点マッチングを行なった例である。このように、精細画像300の広域画像500における場所に基づいて、明らかなマッチング誤りを除去すると、大きさと回転の変化の推定が容易となる。すると、背後の拘束が推定できた結果、図5(c)のように誤マッチングを除去することができる。
FIG. 5B shows an example in which feature point matching is performed by limiting the region having the
本実施形態ではRANSACを実行する前に、広域画像500における撮影範囲外の特徴点5001xが含まれているマッチングを除去する。大量の誤マッチングを除去することで、正しく背後に存在する拘束条件を推定し、結果的に正しいマッチング結果を取得することができた。以下に具体的な手順について説明する。
In the present embodiment, before executing RANSAC, the matching including the
まず、広域画像データベース(DBと略す。以下同様)より事前に撮影した広域画像500を取得する。ただし、当該広域画像500は精細画像300を撮影する前に撮影し、そのまま精細画像300の撮影を開始しても良い。次に、当該広域画像500の特徴点5001を取得し、特徴点DBに格納する。ただし、当該広域画像500の特徴点5001の取得は、広域画像500が事前に撮影されている場合には、事前に行い特徴点DBに格納しても良い。
First, a wide-
マッチングする広域画像500の領域510は、事前に広域画像DBに初期三次元点群領域として格納し、当該領域に基づいてマッチング領域を限定する。初期三次元点領域の座標は、例えば精細画像の撮影スタート位置の座標とする。この座標は、精細画像の撮影時にGPS等で記録したカメラの座標を用いる、あるいは、カメラの方向の情報を併用してもよい。これらの情報によれば、カメラが撮影した場所をおおよそ特定することができる。この場合、精密な座標は必要でない。また、カメラの座標が記録されていない場合には、処理S202で推定したカメラ位置の座標を用いてもよい。
The
領域の範囲は、当該座標を中心に所定半径の円内や所定の辺の長さを持つ四角形のように定める。他の方法としては、広域画像500から初期三次元点群領域を確認できるように、事前に撮影対象の移動が想定される領域に初期三次元点群領域を示す目印を置き、目印を撮影することで、当該限定領域を事前に格納せずに実施することも考えられる。
The range of the region is defined as a circle having a predetermined radius and a square having a predetermined side length with the coordinates as the center. As another method, in order to confirm the initial three-dimensional point cloud region from the
また、他の方法として、マッチングの前にオペレータに広域画像を表示し、オペレータが範囲を指定してもよい。これらの領域限定により、誤ったマッチングを除去する。 As another method, a wide area image may be displayed on the operator before matching, and the operator may specify the range. By limiting these areas, erroneous matching is removed.
次にRANSACを用いたマッチングを行う。拘束として考えられるのは、例えば、同一平面に存在する点を撮影した2枚の画像における同一地点の画像上の拘束条件である平面拘束が考えられる。また、エピポーラ拘束を用いても良い。当該広域画像500と当該精細画像300のマッチング結果から推定された平面拘束を満たす、マッチングのみを正しいマッチングとして処理する。
Next, matching using RANSAC is performed. A possible constraint is, for example, a plane constraint that is a constraint condition on an image at the same point in two images obtained by photographing points existing on the same plane. Epipolar constraints may also be used. Only matching that satisfies the plane constraint estimated from the matching result of the
広域画像の特徴点5001とマッチングした精細画像の特徴点301が存在した場合、当該特徴点301の三次元点群401は広域画像上の点との対応が確認できる。ただし、当該精細画像のみでの三次元点群の推定では、当該三次元点群401がゆがんでしまう場合がある。そこで、三次元点群とカメラ位置の補正をして広域画像と精細画像の特徴点の記録を行う(処理S204)。以下三次元点群とカメラ位置を補正する方法について説明する。
When there is a
図6で、三次元点群のゆがみとこの修正について説明する。広域画像500と精細画像300のマッチングした特徴点のうち、三角測量で3次元座標が計算されているものを抽出する。この広域画像500における特徴点の対応をもとに、三次元点群及び精細画像のカメラ位置を修正する。
With reference to FIG. 6, the distortion of the three-dimensional point group and this correction will be described. Among the matching feature points of the
まず、広域画像上で特定されている三次元点群401の位置情報から広域画像を撮影した場所を推定する。推定した結果から広域画像と精細画像の投影誤差の和が最小になるようにカメラ位置402と三次元点群401の位置を図中太矢印のように調整することで相対自己位置を修正する。301で示す点が画像上で特徴点が存在していた箇所であり、402と401で示す点はカメラと三次元点群の相対位置である。
First, the place where the wide area image is photographed is estimated from the position information of the three-
推定した広域画像を撮影した場所は誤差を含んでおり、カメラ位置と三次元点群の相対位置から推定される画像上の座標は、実際の画像上の座標とは一致しない。このカメラ位置と三次元点群を結んだ直線が精細画像300上のどこに存在するかを推定する作業を再投影という。再投影される場所は、カメラ位置と、カメラの向き、カメラパラメータ、三次元点群の相対位置により、計算することができる。この再投影した点6002と実際の画像に映っている点6001の画像上での誤差を投影誤差6003という。そして、この投影誤差を最小化するようにカメラ位置と三次元点群位置を補正することで、推定誤差を削減する。最小化する手段として、例えば、非線形最適化手法であるバンドル調整を使用する。
The location where the estimated wide-area image is captured includes an error, and the coordinates on the image estimated from the camera position and the relative position of the three-dimensional point group do not match the coordinates on the actual image. The operation of estimating where the straight line connecting the camera position and the three-dimensional point group exists on the
以上で、初期精細画像に基づいて得られた初期三次元点群の特徴点と広域画像の特徴点とが対応付けられた。広域画像上に座標軸を定義しておけば、初期三次元点群の特徴点を広域画像上の座標で表わすことができる。本実施例では、精細画像は例えば、ある一つの点検のタイミングにおいて、UAVが撮影対象の周りを飛行しながら撮影した複数の静止画像であり、初期精細画像は例えば、その中から選ばれた2つの静止画像である。撮影時にリアルタイムで処理を行っている場合には、2つの静止画像は撮影スタート直後の2枚の精細画像である。以下ではリアルタイム処理を例に説明するが、画像をいったん保存しておき、後にバッチ処理を行うことも可能である。 The feature points of the initial three-dimensional point group obtained based on the initial fine image are associated with the feature points of the wide area image. If coordinate axes are defined on the wide area image, the feature points of the initial three-dimensional point group can be represented by the coordinates on the wide area image. In the present embodiment, the fine image is, for example, a plurality of still images taken by the UAV while flying around the photographing object at a certain inspection timing, and the initial fine image is, for example, 2 selected from among them. There are two still images. When processing is performed in real time at the time of shooting, the two still images are two fine images immediately after the start of shooting. In the following description, real-time processing will be described as an example. However, it is also possible to save an image once and perform batch processing later.
次に、UAVはスタート地点から移動して行く。UAVは移動しながら新たな精細画像を撮影する。追加された新規精細画像と直前の精細画像とで特徴点マッチングを行う(処理S205)。特徴点マッチングした特徴点のうち、三次元点群として位置情報が付加された点が存在した場合、当該三次元点群の位置情報をもとに、当該追加精細画像のカメラ位置を推定する(処理S206)。ただし、カメラ位置を推定した後に、投影誤差を用いて補正する処理を行っても良い。2つの精細画像間で同じ位置情報が付加された特徴点を共有するためには、撮影範囲が一部重複するように2つの精細画像を撮影すればよい。 Next, the UAV moves from the starting point. The UAV takes a new fine image while moving. Feature point matching is performed between the added new fine image and the previous fine image (step S205). When there is a point to which position information is added as a three-dimensional point group among the feature points that have been feature point matched, the camera position of the additional fine image is estimated based on the position information of the three-dimensional point group ( Process S206). However, after the camera position is estimated, a correction process using a projection error may be performed. In order to share a feature point with the same position information added between two fine images, the two fine images may be taken so that the photographing ranges partially overlap.
続いて、三次元点群の追加を行う(処理S207)。特徴点マッチング(処理S205)の結果抽出された特徴点のうち、相対位置情報が付加されていない特徴点を抽出する。当該位置情報が付加されていない特徴点については、処理S202と同様に三角測量を用いることで、相対位置情報を付加する。当該処理を終えた後も、処理S204と同様に投影誤差を用いて補正する処理を行っても良い。相対位置情報を付加した特徴点は、三次元点群に追加する。 Subsequently, a three-dimensional point group is added (processing S207). Of the feature points extracted as a result of the feature point matching (process S205), feature points to which relative position information is not added are extracted. For feature points to which the position information is not added, relative position information is added by using triangulation as in step S202. Even after the process is completed, a process of correcting using the projection error may be performed as in the process S204. The feature point to which the relative position information is added is added to the three-dimensional point group.
続いて、広域画像と新規精細画像の特徴点マッチングを行う(処理S208〜S209)。スタート地点では、特徴点マッチングを成功させるために、既知情報もしくは目印を用いることで、マッチングする領域を決定した(処理S203)。新規精細画像と広域画像とのマッチングの領域は処理S203と同様に決定してもよいが、新規精細画像のカメラ位置とカメラパラメータで決定してもよい(処理S208)。すなわち、処理S206で当該精細画像のカメラ位置が推定されているので、倍率などのカメラパラメータに基づいて、広域画像中の精細画像位置を推定することができる。 Subsequently, feature point matching between the wide area image and the new fine image is performed (steps S208 to S209). At the start point, in order to make feature point matching successful, a matching area is determined by using known information or a mark (processing S203). The matching area between the new fine image and the wide area image may be determined in the same manner as in the process S203, but may be determined by the camera position and camera parameters of the new fine image (process S208). That is, since the camera position of the fine image is estimated in step S206, the fine image position in the wide area image can be estimated based on the camera parameters such as the magnification.
特徴点マッチングを行った後、必要により処理S204と同様に投影誤差を用いて補正する処理を行い、三次元点群とカメラ位置の補正をして広域画像と精細画像の特徴点の記録を行う(処理S210)。 After performing the feature point matching, if necessary, a correction process using a projection error is performed in the same manner as in step S204, and the 3D point group and the camera position are corrected to record the feature points of the wide area image and the fine image. (Processing S210).
以後、処理S205〜処理S210のプロセスを繰り返すことによって、絶対位置情報が分からない状態であっても、逐次的に領域を限定した特徴点マッチングを行うことにより、GPS等による絶対位置情報を取得できない状況下でも、広域画像と精細画像の位置情報の対応を取り続けることができる。 Thereafter, even if the absolute position information is not known by repeating the processes of step S205 to step S210, the absolute position information by GPS or the like cannot be acquired by performing feature point matching in which the regions are sequentially limited. Even under circumstances, the correspondence between the position information of the wide area image and the fine image can be continued.
点検の結果のデータを点検対象物の位置情報とともに記録する方法について述べる。処理S205〜処理S210のプロセスでは、カメラ位置とカメラによって撮影された特徴点の三次元点群の相対位置情報を記録したに過ぎない。本実施例の目的とする点検の自動化のプロセスでは、点検対象物の相対位置情報と当該点検対象物の状態を反映したセンサデータを関連付けて記録する必要がある。 A method for recording the inspection result data together with the position information of the inspection object will be described. In the process from step S205 to step S210, only the relative position information of the camera position and the three-dimensional point group of the feature points photographed by the camera is recorded. In the inspection automation process which is the object of the present embodiment, it is necessary to record the relative position information of the inspection object and sensor data reflecting the state of the inspection object in association with each other.
一つの例では、記録する点検対象物の相対位置情報は、点検に使用するセンサに依存して決定することができる。温度や特定物質を検知するセンサのように、センサの位置と測定対象の位置が一致するセンサを使用する場合は、位置情報として当該センサ位置を記録すればよい。また、カメラやスペクトルカメラや熱赤外線カメラのような、センサがセンサとは離れた位置の情報を取得する場合であって、センサデータが二次元の画像として表現される場合は、センサ(カメラ)の向きによって、記録される位置情報が異なる。センサが位置情報を記録するためのカメラと同じ向きの場合は、当該カメラで取得した三次元点群の相対位置を記録すればよい。向きが異なる場合は、センサが取得しているデータが三次元座標上のどこに対応するかを把握する必要がある。このためには、センサ自体の位置とセンサの向きや感度等のセンサパラメータに基づいて、センサデータを取得している点検対象物の位置を把握することで、位置を決定することができる。また、センサに距離センサを併設することで、点検対象との距離を把握することができる。また、存在する平面を仮定することで限定することもできる。 In one example, the relative position information of the inspection object to be recorded can be determined depending on the sensor used for the inspection. When using a sensor in which the position of the sensor coincides with the position of the measurement object, such as a sensor that detects temperature or a specific substance, the sensor position may be recorded as position information. When the sensor acquires information on a position away from the sensor, such as a camera, a spectrum camera, or a thermal infrared camera, and the sensor data is expressed as a two-dimensional image, the sensor (camera) The position information to be recorded differs depending on the orientation of the. When the sensor is oriented in the same direction as the camera for recording position information, the relative position of the three-dimensional point group acquired by the camera may be recorded. When the directions are different, it is necessary to grasp where the data acquired by the sensor corresponds on the three-dimensional coordinates. For this purpose, the position can be determined by grasping the position of the inspection object from which the sensor data is acquired based on the position of the sensor itself and the sensor parameters such as the direction and sensitivity of the sensor. In addition, the distance from the inspection object can be grasped by providing the sensor with a distance sensor. It can also be limited by assuming an existing plane.
図7を用いて、図2の手順を実施するための機能ブロックについて説明する。本実施形態の位置情報記録装置700は、カメラ14001と、精細画像DB14002と、特徴点DB403と、マッチングDB404と、三次元点群DB405と、カメラDB406と、広域画像DB407と、広域画像座標位置DB408と、センサDB409と、精細画像処理部410と、位置情報記録部413と、結果出力部417を有する。
With reference to FIG. 7, functional blocks for implementing the procedure of FIG. 2 will be described. The position
このような機能ブロックは、基本的に入力装置、出力装置、記憶装置、処理装置を備える一般的なサーバで構成することができる。本実施例では計算や制御等の機能は、記憶装置に格納されたプログラムが処理装置によって実行されることで、定められた処理を他のハードウェアと協働して実現されるものとする。サーバが実行するプログラム、その機能、あるいはその機能を実現する手段を、「部」、「機能」、「手段」、「ユニット」、「モジュール」等と呼び、処理の主語として記述する場合がある。また、以後の説明では記憶装置に格納されたデータを、「〜テーブル」、「〜リスト」、「〜DB」、「〜キュー」、「情報」等の表現で説明することがあるが、これらは等価な情報である限り、データ形式を問わない。 Such a functional block can be basically composed of a general server including an input device, an output device, a storage device, and a processing device. In the present embodiment, functions such as calculation and control are realized in cooperation with other hardware by executing a program stored in the storage device by the processing device. A program executed by a server, its function, or means for realizing the function are called "part", "function", "means", "unit", "module", etc., and may be described as the subject of processing. . In the following description, data stored in the storage device may be described in terms of “˜table”, “˜list”, “˜DB”, “˜queue”, “information”, etc. As long as is equivalent information, the data format is not limited.
また、以上の構成は、単体のサーバで構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、ネットワークで接続された他のコンピュータで構成されてもよい。また、図7の構成では説明上カメラ14001を装置に含めているが、カメラ14001は別途UAVに搭載し、遠隔地から無線回線等により画像データを位置情報記録装置700に送信するように構成することができる。
In addition, the above configuration may be configured by a single server, or any part of the input device, output device, processing device, and storage device may be configured by another computer connected via a network. Good. In the configuration of FIG. 7, the
位置情報記録装置700は、1または複数のカメラ14001によって、位置情報を取得するための精細画像もしくは動画を取得し、撮影した画像を精細画像DB14002へ保存する。
The position
図8は精細画像DB14002のインデックスのデータ構造を示す一例である。精細画像は、例えば取得した順番がわかるように撮影した順番に精細画像ID801をつける。もしくは、撮影時刻を保存しても良い。カメラを使った場合は、撮影した当該カメラのカメラID804を保存する。また、撮影時のカメラ位置802、カメラ向き803などの撮影条件が分かっている場合にはこれらを保存してもよい。カメラ位置は例えばGPSによって取得できる。ただし、これらが分かっていない場合でも、カメラ位置802やカメラ向き803は、前述のように推定して保存することもできる。また、カメラID804に対応して、別途ピクセル数や焦点距離など、カメラの性能パラメータを格納してもよい。
FIG. 8 shows an example of the data structure of the index of the
図9は、精細画像同士の特徴点マッチング部411の機能ブロック図である。本実施例では、各機能ブロックはソフトウェアで実現することにしている。保存された精細画像は、精細画像同士の特徴点マッチング部411により、精細画像同士の特徴点マッチングを行う。精細画像同士の特徴点マッチング部は、画像特徴点検出部501と、画像特徴点特徴量比較部502と、画像特徴点特徴量計算部503と、特徴点マッチングRANSAC部504を有する。
FIG. 9 is a functional block diagram of the feature
図10は特徴点DB403のデータ構造を示す一例である。画像特徴点検出部501では、精細画像DB14002より精細画像を取得し、精細画像上の特徴点を検出し、精細画像ID1001と特徴点ID1004を割り当て、特徴点の二次元座標1002とともに特徴点DB403に保存する。画像特徴点特徴量計算部503で、精細画像と特徴点の二次元座標1002を用いて、特徴点の特徴量1003を計算し、特徴点DB403に保存する。
FIG. 10 shows an example of the data structure of the
画像特徴点特徴量比較部502で、特徴点DB403の特徴量1003が近い特徴点の組み合わせを特徴点マッチングとして、マッチングDB404に格納する。
The image feature point feature
図11はマッチングDB404のデータ構造を示す一例である。マッチングDB404では、マッチングID1101に対応して、複数枚の精細画像の精細画像ID1102(1101)と、当該精細画像IDの精細画像中でマッチングした特徴点の特徴点ID1103(1004)が保存されている。図11の1行目の例では、画像ID「2」の特徴点ID「6」の点が、画像ID「3」の特徴点ID「39」の点とマッチングしていることを示す。
FIG. 11 shows an example of the data structure of the matching
特徴点マッチングRANSAC部504では、2枚の画像の背後にある拘束条件を推定し、マッチングDB404から誤ったマッチングを除去する。
The feature point matching
図12にSfM部412を示す。SfM部412により、三次元点群と、カメラ相対位置、カメラ向き等を推定する。
FIG. 12 shows the
初期三次元点群生成部601にて、特徴点DB403とマッチングDB404に基づいて、マッチングする特徴点の二次元座標を得、図4で説明したように、二次元座標と精細画像から初期三次元点群座標を得ることができる。初期三次元点群座標は、三次元点群DB405に格納する。また、カメラDB406のカメラパラメータと、精細画像DB14002のカメラ位置等を推定することができ、それぞれ、カメラパラメータはカメラDB406に格納し、カメラ位置等は精細画像DB14002にカメラ位置802、カメラ向き803のように格納する。
The initial three-dimensional point
図13はカメラDB406のデータ構造を示す一例である。カメラID1301に対して、ピクセル数1302、焦点距離1301、センササイズ1304、歪み係数1305のようなカメラパラメータが格納される。これらは事前に格納できる場合は事前に格納しておいてもよいし、精細画像から推定した値でもよい。
FIG. 13 shows an example of the data structure of the
図14は三次元点群DB405のデータ構造を示す一例である。初期三次元点群生成部601で生成された三次元点群の各点は一意のIDである三次元点群ID1401を付与され、三次元点群ID1401は、当該三次元点群の元となる精細画像の精細画像ID1402と、当該精細画像中において三次元点群を構成する特徴点の特徴点ID1403とともに格納される。また、三次元点群の相対位置1404が格納される。三次元点群の相対位置1404は、例えば三次元点群に対して任意に設定された原点(0,0,0)に対する、相対位置座標を示す。図14の例では、一行目のデータは、精細画像ID「1」の特徴点ID「33」と、精細画像ID「3」の特徴点ID「22」と、精細画像ID「4」の特徴点ID「14」とがマッチングし、その点の三次元点群上の相対位置座標が(2,3,4)であることを示す。
FIG. 14 is an example showing the data structure of the three-dimensional
三次元点群ID1401に点群の色情報を保存したい場合は、精細画像DB402より色情報を取得する。ただし、3枚以上の精細画像を使っている場合は、カメラDB406に予め準備されたカメラパラメータがない場合であっても、カメラパラメータを推定することができる。その場合は、推定したカメラパラメータをカメラDB406に保存する。
When it is desired to store the color information of the point group in the three-dimensional
カメラ位置推定部603では、マッチングDB404のマッチング情報と、三次元点群DB405の相対位置情報と、カメラDB406のカメラパラメータにより、特徴点DB403の特徴点の二次元座標を用いて、新規精細画像のカメラ位置を推定し、精細画像DB402に保存する。
The camera
新規三次元点群追加部602では、カメラDB406のカメラパラメータにより、特徴点DB403の特徴点の二次元座標と、精細画像DB402の当該新規精細画像のカメラ位置を用いることで、三次元点群DB405に保存されていない特徴点の相対三次元位置を推定し、三次元点群DB405に保存(追加)する。
The new three-dimensional point
バンドル調整部604では、特徴点DB403の二次元座標と、三次元点群IDと、カメラDB406のカメラパラメータと、を用いて投影誤差を計算し、三次元点群とカメラ位置とカメラ向きを補正し、それぞれ、三次元点群DB405と精細画像DB402に格納する。
The
図15には、広域画像と精細画像の特徴点マッチング部414の構成ブロック図を示す。広域画像と接近画像の特徴点マッチング部414には、画像特徴点検出部501、画像特徴点特徴量比較部502と、画像特徴点特徴量計算部503と、特徴点マッチングRANSAC部504と特徴点マッチング領域限定部701を有する。特徴点マッチング領域限定部701以外は、図9に示した精細画像同士の特徴点マッチング部411と基本的に同様の構成であるが、対象とする画像に広域画像が含まれる点が異なる。特徴点マッチング領域限定部701では、直前の精細画像に含まれる特徴点の広域画像上の位置に基づいて、マッチングを行う限定領域を決定する。すなわち、今回の精細画像の特徴点は、直前の精細画像の位置の近傍に位置することが推測されるので、直前の精細画像の特徴点の位置にもとづいて限定領域を決定すればよい。ただし、初期三次元点群との対応に関しては、広域画像DB407記載のスタート座標を使用する。
FIG. 15 shows a configuration block diagram of the feature
広域画像座標位置計算部415では、精細画像で撮影された特徴点が、広域画像上の座標のどこに対応付けられるかを示す広域画像座標位置を計算する。すなわち、広域画像と精細画像の特徴点マッチング部414でマッチした特徴点に対して、広域画像上の座標を対応付ける。なお、広域画像から抽出した特徴点は、図10の特徴点DB403と同様に記録しておくものとする。
The wide area image coordinate
図16は、広域画像DB407のデータ構造を示す一例である。広域画像の広域画像ID1601に対して、当該画像を撮影したカメラの位置1602、カメラの向き1603が格納される。カメラの位置1602はGPS等でカメラ位置を取得して記録することができる。かめらの向き1603はカメラの動作パラメータから取得することができる。あるいは、これらは広域画像自体から推定した値でもよい。
FIG. 16 shows an example of the data structure of the wide
スタート位置1604は、図5で説明した広域画像と精細画像のマッチングにおいて、領域510の位置を示す。スタート位置の設定方法としては、先に述べたように、オペレータが広域画像を見て人為的に策定し入力することができる。あるいは、広域画像上でも確認可能なマークをフィールドに設置し、マークを撮影した広域画像から画像処理によりマークを抽出し、マークに基づいて定めることができる。あるいは、被写体が動かない場合は、GPS等によって被写体と同じ場所と推定される位置に定めることができる。あるいは、初期三次元点群を抽出するための精細画像を撮影したカメラの位置や方向から定めることができる。
The
スタート位置1604の設定方法としては、図16に示すように領域の中心や角部を示す二次元座標でもよいし、領域が四角形であれば、その四隅を示す二次元座標でもよい。
As a method for setting the
図17は、センサDB409のデータ構造を示す一例である。センサを一意に識別するセンサID1701、センサが取得する点検位置の定義1702、およびセンサの向き1703を含む。
FIG. 17 is an example showing the data structure of the
図18は、広域画像座標位置DB408のデータ構造を示す一例である。図14に示した三次元点群ID1401を持つ点が、広域画像ID1802を持つ広域画像の広域画像特徴点ID1803を持つ特徴点のどれに対応するかを示している。さらに、その点の広域画像上の広域画像座標1804を対応付ける。
FIG. 18 is an example showing the data structure of the wide area image coordinate
最後に結果出力部にて、広域画像座標DB408の広域画像座標1804を用いて、点検箇所が広域画像上のどこかを示すことができる。また、広域画像とそれぞれの特徴点の対応が判明した、三次元点群モデルを作成することができる。例えば、各点と広域画像の特徴点に番号が付加されており、数字が一致する点が同一点を表現する方法などが考えられる。
Finally, the result output unit can indicate where the inspection location is on the wide area image using the wide area image coordinates 1804 of the wide area image coordinate
実施形態1では、広域画像と精細画像の位置的な対応を取得するところで処理を終了している。実際の点検作業では、定期的に点検を行って最新の結果と過去の結果を比較することにより点検を行う。実施例1の適用により、時間的に異なるタイミングで撮影された精細画像中の点検箇所の位置を、広域画像の座標を用いて対応付けることができる。よって、点検箇所の絶対位置が移動した場合でも、現在と過去の点検箇所同士の位置合わせを行うことができ、時間的に異なる点検内容を比較することができる。 In the first embodiment, the process ends when the positional correspondence between the wide area image and the fine image is acquired. In actual inspection work, periodic inspections are performed and the latest results are compared with past results. By applying the first embodiment, the position of the inspection location in the fine image captured at different timings can be associated using the coordinates of the wide area image. Therefore, even when the absolute position of the inspection location is moved, the current and past inspection locations can be aligned, and the inspection contents that are different in time can be compared.
図19は実施形態2のブロック図である。結果出力部417の代わりに点検結果比較部801を備えている。位置の表示が実施例1では主目的であったが、実施例2では記録した位置を用いた点検結果の比較を主目的としている。
FIG. 19 is a block diagram of the second embodiment. An inspection result
実施例1では、広域画像と精細画像の特徴点マッチング部414では、広域画像と精細画像の特徴点マッチングのための領域限定を画像情報だけで処理した。通常UAV等により連続的に空撮を行って精細画像を取得する場合には、連続して撮影された精細画像の位置は近接しているため、直近の精細画像の広域画像中の位置が推定できれば、次のマッチングのための領域を推定できる。しかし、UAVやカメラの向きが突然変化した場合には、領域の限定が難しい場合がある。
In the first embodiment, the feature
そこで、UAVやカメラに、加速度センサ、磁気センサを設置し、加速度情報や磁気情報を用いることで、UAVやカメラが突然向きを変えても、撮影している向きを予測し、マッチングに用いる領域の推定誤差を修正することができる。 Therefore, by installing an acceleration sensor or magnetic sensor in the UAV or camera and using the acceleration information or magnetic information, the direction in which the UAV or camera suddenly changes direction is predicted and used for matching Can be corrected.
14001 カメラ
14002 精細画像DB
403 特徴点DB
404 マッチングDB
405 三次元点群DB
406 カメラDB
407 広域画像DB
408 広域画像座標位置DB
409 センサDB
410 精細画像処理部
411 精細画像同士の特徴点マッチング部
412 SfM部
413 位置情報記録部
414 広域画像と精細画像の特徴点マッチング部
415 広域画像座標位置計算部
416 広域画像座標位置記録部
417 結果出力部
601 初期三次元点群生成部
602 新規三次元点群追加部
603 カメラ位置推定部
604 バンドル調整部
701 特徴点マッチング領域限定部
801 点検結果比較部
14001
403 Feature point DB
404 Matching DB
405 3D point cloud DB
406 Camera DB
407 Wide Area Image DB
408 Wide-area image coordinate position DB
409 Sensor DB
410 Fine
Claims (10)
前記広域画像より高分解能である精細画像を取得する第2のステップ、
前記精細画像から、精細画像特徴点を抽出する第3のステップ、
前記精細画像から、前記精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する第4のステップ、
前記広域画像から広域画像特徴点を抽出し、前記精細画像特徴点とマッチングを行う第5のステップ、
前記広域画像特徴点に対して、マッチングが成立した前記精細画像特徴点の三次元座標を対応付けて記録する第6のステップ、
を備える位置情報記録方法。 A first step of acquiring a wide area image;
A second step of obtaining a fine image having a higher resolution than the wide-area image;
A third step of extracting fine image feature points from the fine image;
A fourth step of generating, from the fine image, a three-dimensional point group in which three-dimensional coordinates are given to the fine image feature points;
A fifth step of extracting a wide area image feature point from the wide area image and performing matching with the fine image feature point;
A sixth step of recording the three-dimensional coordinates of the fine image feature points for which matching has been established in association with the wide-area image feature points;
A position information recording method comprising:
請求項1記載の位置情報記録方法。 In the fourth step, Visual SLAM is used.
The position information recording method according to claim 1.
請求項1記載の位置情報記録方法。 In the fifth step, an area for performing the matching is limited to a part of the wide area image;
The position information recording method according to claim 1.
請求項3記載の位置情報記録方法。 In the fifth step, in order to limit the matching area to a part of the wide area image, a mark included in the wide area image is used.
The position information recording method according to claim 3.
請求項3記載の位置情報記録方法。 In the fifth step, in order to limit the matching area to a part of the wide area image, a range can be specified by an operator.
The position information recording method according to claim 3.
前記第2のステップにおいて、一連の空撮により複数の精細画像を取得し、
前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定するために、前記一連の空撮を行うためのカメラの位置情報を利用する、
請求項3記載の位置情報記録方法。 In the first step, a wide area image is acquired by aerial photography;
In the second step, a plurality of fine images are obtained by a series of aerial photographs,
In the fifth step, in order to limit the matching area to a part of the wide area image, the position information of the camera for performing the series of aerial photography is used.
The position information recording method according to claim 3.
請求項6記載の位置情報記録方法。 In the fifth step, the camera includes at least one of an acceleration sensor and a magnetic sensor, and uses at least one of acceleration information and magnetic information to estimate a region captured by the camera, Limiting the matching area to a part of the wide area image;
The position information recording method according to claim 6.
請求項1記載の位置情報記録方法。 In the sixth step, the coordinates on the wide area image of the wide area image feature points are recorded in association with the three-dimensional coordinates of the fine image feature points that have been matched.
The position information recording method according to claim 1.
前記第6のステップで記録した情報に基づいて、前記対象物の時間的変化を検知する、
請求項8記載の位置情報記録方法。 In the second step, fine images are acquired at different time timings for the same object, and the absolute position of the object is changing at the different time timings,
Detecting a temporal change of the object based on the information recorded in the sixth step;
The position information recording method according to claim 8.
前記広域画像より高分解能である精細画像を取得する精細画像取得部と、
前記精細画像から精細画像特徴点を抽出し、前記精細画像から前記精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する精細画像処理部と、
前記広域画像から広域画像特徴点を抽出し、前記精細画像特徴点とマッチングを行い、前記広域画像特徴点に対して、マッチングが成立した前記精細画像特徴点の三次元座標を対応付けて記録する位置情報記録部、
を備える位置情報記録装置。 A wide area image acquisition unit for acquiring a wide area image;
A fine image acquisition unit for acquiring a fine image having a higher resolution than the wide-area image;
A fine image processing unit that extracts a fine image feature point from the fine image and generates a three-dimensional point group that gives a three-dimensional coordinate to the fine image feature point from the fine image;
A wide-area image feature point is extracted from the wide-area image, matched with the fine-image feature point, and the three-dimensional coordinates of the fine-image feature point that has been matched are recorded in association with the wide-area image feature point. Location information recording section,
A position information recording apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017152817A JP6877293B2 (en) | 2017-08-08 | 2017-08-08 | Location information recording method and equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017152817A JP6877293B2 (en) | 2017-08-08 | 2017-08-08 | Location information recording method and equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019032218A true JP2019032218A (en) | 2019-02-28 |
JP6877293B2 JP6877293B2 (en) | 2021-05-26 |
Family
ID=65523374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017152817A Active JP6877293B2 (en) | 2017-08-08 | 2017-08-08 | Location information recording method and equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6877293B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166741A (en) * | 2019-03-29 | 2020-10-08 | スターティアラボ株式会社 | Image processing device for ar, image processing system, and program |
JP2020183873A (en) * | 2019-04-26 | 2020-11-12 | コムシス情報システム株式会社 | Aerial shoot image position specification system and aerial shoot image position specification method |
CN111964649A (en) * | 2020-08-21 | 2020-11-20 | 武汉原点勘测设计工程有限公司 | Terrain information acquisition method based on unmanned aerial vehicle remote sensing |
JP2020197797A (en) * | 2019-05-31 | 2020-12-10 | 株式会社東芝 | Image processing device and image processing method |
JP2021032650A (en) * | 2019-08-22 | 2021-03-01 | Automagi株式会社 | Degraded state detector and degraded state detection method |
JP2021065087A (en) * | 2019-04-26 | 2021-04-22 | コムシス情報システム株式会社 | Aerial photography image identification system and aerial photography image identification method |
JP7447234B1 (en) | 2022-12-26 | 2024-03-11 | 楽天グループ株式会社 | Information processing device, information processing method, and information processing program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014007762A1 (en) * | 2012-07-04 | 2014-01-09 | Tan Seow Loong | A method and system for automated monitoring of traffic |
JP2014006148A (en) * | 2012-06-25 | 2014-01-16 | Topcon Corp | Aerial photographing method and aerial photographing system |
JP2016194515A (en) * | 2015-04-01 | 2016-11-17 | Terra Drone株式会社 | Imaging method of image for point group data generation, and point group data generation method using image |
JP2017053795A (en) * | 2015-09-11 | 2017-03-16 | 株式会社リコー | Information processing apparatus, position attitude measurement method, and position attitude measurement program |
WO2017057362A1 (en) * | 2015-10-01 | 2017-04-06 | 富士フイルム株式会社 | Drawing creation device and drawing creation method |
JP2017130049A (en) * | 2016-01-20 | 2017-07-27 | キヤノン株式会社 | Image processor, image processing method and program |
-
2017
- 2017-08-08 JP JP2017152817A patent/JP6877293B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014006148A (en) * | 2012-06-25 | 2014-01-16 | Topcon Corp | Aerial photographing method and aerial photographing system |
WO2014007762A1 (en) * | 2012-07-04 | 2014-01-09 | Tan Seow Loong | A method and system for automated monitoring of traffic |
JP2016194515A (en) * | 2015-04-01 | 2016-11-17 | Terra Drone株式会社 | Imaging method of image for point group data generation, and point group data generation method using image |
JP2017053795A (en) * | 2015-09-11 | 2017-03-16 | 株式会社リコー | Information processing apparatus, position attitude measurement method, and position attitude measurement program |
WO2017057362A1 (en) * | 2015-10-01 | 2017-04-06 | 富士フイルム株式会社 | Drawing creation device and drawing creation method |
JP2017130049A (en) * | 2016-01-20 | 2017-07-27 | キヤノン株式会社 | Image processor, image processing method and program |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166741A (en) * | 2019-03-29 | 2020-10-08 | スターティアラボ株式会社 | Image processing device for ar, image processing system, and program |
JP2020183873A (en) * | 2019-04-26 | 2020-11-12 | コムシス情報システム株式会社 | Aerial shoot image position specification system and aerial shoot image position specification method |
JP2021065087A (en) * | 2019-04-26 | 2021-04-22 | コムシス情報システム株式会社 | Aerial photography image identification system and aerial photography image identification method |
JP2020197797A (en) * | 2019-05-31 | 2020-12-10 | 株式会社東芝 | Image processing device and image processing method |
JP7292979B2 (en) | 2019-05-31 | 2023-06-19 | 株式会社東芝 | Image processing device and image processing method |
JP2021032650A (en) * | 2019-08-22 | 2021-03-01 | Automagi株式会社 | Degraded state detector and degraded state detection method |
JP7290510B2 (en) | 2019-08-22 | 2023-06-13 | Automagi株式会社 | Deterioration state detection device and deterioration state detection method |
CN111964649A (en) * | 2020-08-21 | 2020-11-20 | 武汉原点勘测设计工程有限公司 | Terrain information acquisition method based on unmanned aerial vehicle remote sensing |
JP7447234B1 (en) | 2022-12-26 | 2024-03-11 | 楽天グループ株式会社 | Information processing device, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP6877293B2 (en) | 2021-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6877293B2 (en) | Location information recording method and equipment | |
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
CN109658461B (en) | Unmanned aerial vehicle positioning method based on cooperation two-dimensional code of virtual simulation environment | |
US9420265B2 (en) | Tracking poses of 3D camera using points and planes | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
JP5832341B2 (en) | Movie processing apparatus, movie processing method, and movie processing program | |
JP5992184B2 (en) | Image data processing apparatus, image data processing method, and image data processing program | |
JP6370038B2 (en) | Position and orientation measurement apparatus and method | |
JP2011179908A (en) | Three-dimensional measurement apparatus, method for processing the same, and program | |
JP2016197287A (en) | Information processing apparatus, information processing method, and program | |
JP5439277B2 (en) | Position / orientation measuring apparatus and position / orientation measuring program | |
CN115423863B (en) | Camera pose estimation method and device and computer readable storage medium | |
CN115345942A (en) | Space calibration method and device, computer equipment and storage medium | |
CN116295279A (en) | Unmanned aerial vehicle remote sensing-based building mapping method and unmanned aerial vehicle | |
CN115018920A (en) | Camera array calibration method and device, electronic equipment and storage medium | |
WO2020133080A1 (en) | Object positioning method and apparatus, computer device, and storage medium | |
JP2018173882A (en) | Information processing device, method, and program | |
JP2007025863A (en) | Photographing system, photographing method, and image processing program | |
JP6228239B2 (en) | A method for registering data using a set of primitives | |
CN113034347A (en) | Oblique photographic image processing method, device, processing equipment and storage medium | |
CN109389645B (en) | Camera self-calibration method and system, camera, robot and cloud server | |
JP5885974B2 (en) | Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data | |
KR102576449B1 (en) | Device and method of image registration for 3d models | |
JP6861592B2 (en) | Data thinning device, surveying device, surveying system and data thinning method | |
Liebold et al. | Integrated Georeferencing of LIDAR and Camera Data acquired from a moving platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6877293 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |