JP2019032218A - Location information recording method and device - Google Patents

Location information recording method and device Download PDF

Info

Publication number
JP2019032218A
JP2019032218A JP2017152817A JP2017152817A JP2019032218A JP 2019032218 A JP2019032218 A JP 2019032218A JP 2017152817 A JP2017152817 A JP 2017152817A JP 2017152817 A JP2017152817 A JP 2017152817A JP 2019032218 A JP2019032218 A JP 2019032218A
Authority
JP
Japan
Prior art keywords
image
fine
wide area
area image
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017152817A
Other languages
Japanese (ja)
Other versions
JP6877293B2 (en
Inventor
晃一郎 八幡
Koichiro Yahata
晃一郎 八幡
山本 知史
Satoshi Yamamoto
知史 山本
純一郎 渡邊
Junichiro Watanabe
純一郎 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017152817A priority Critical patent/JP6877293B2/en
Publication of JP2019032218A publication Critical patent/JP2019032218A/en
Application granted granted Critical
Publication of JP6877293B2 publication Critical patent/JP6877293B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To enable a storage of location information on a check point in a moving check object.SOLUTION: A location information recording method according to one aspect of the present invention comprises: a first step of acquiring a wide area image; a second step of acquiring a definition image with higher resolution than the wide area image; a third step of extracting a definition image characteristic point from the definition image; a fourth step of generating a three-dimensional point group giving a coordinate on a three-dimension to the definition image characteristic point from the definition image; a fifth step of extracting a wide area characteristic point from the wide area image, and matching the extracted wide area characteristic point with the definition image characteristic point; and a sixth step of recording the wide area image characteristic point in association with a three-dimensional coordinate of the definition image characteristic point in which the matching to the wide area image characteristic point is established.SELECTED DRAWING: Figure 7

Description

本発明は、空間上の位置情報を保存する技術に関する。   The present invention relates to a technique for storing position information in space.

近年、UAV(Unmanned Aerial Vehicle)を用いた点検が一般的になっている。一般化している理由は、点検に使用するUAVの機体とセンサの価格低下に伴い、UAVを用いた点検が、人手による点検より、短時間かつ低価格に実施できるようになったからである。点検の後は、点検結果に基づいた点検後の作業が必要である。点検後の作業とは、例えば、損傷していた箇所の修理と、同一箇所の比較と、同一箇所の再検査が考えられる。   In recent years, inspection using a UAV (Unmanned Aerial Vehicle) has become common. The reason for the generalization is that the inspection using the UAV can be carried out in a shorter time and at a lower price than the inspection by hand as the price of the UAV body and sensor used for the inspection decreases. After the inspection, post-inspection work based on the inspection result is necessary. As the work after inspection, for example, repair of a damaged part, comparison of the same part, and re-inspection of the same part can be considered.

当該作業を実施するには検査箇所の相対位置情報を把握する必要がある。カメラを用いた撮影対象及びカメラ自体の相対位置把握技術として、SfM(Structure from Motion)という技術が存在する。SfMは、共通領域を撮影した画像群からカメラの相対位置と撮影対象物の三次元形状の相対位置関係を推定する技術である。ゆえに、画像群の間で共通領域を撮影した画像のペアが存在しない場合、それぞれの画像群で推定されたカメラの相対位置関係が分からず、当該画像群間で推定された三次元形状の相対位置と相対スケールが分からない。   In order to carry out this work, it is necessary to grasp the relative position information of the inspection location. There is a technique called SfM (Structure from Motion) as a technique for grasping the relative position of an imaging target using a camera and the camera itself. SfM is a technique for estimating the relative position relationship between the relative position of the camera and the three-dimensional shape of the object to be photographed from an image group obtained by photographing the common area. Therefore, when there is no image pair that captures a common area between image groups, the relative positional relationship of the cameras estimated in each image group is not known, and the relative 3D shape estimated between the image groups is not known. I don't know the position and relative scale.

一方で、点検に不要な箇所を点検対象と同様に詳細に撮影していては、処理する画像の増加とともに計算時間が膨大になる。これに対し、特開2014−06148号公報(特許文献1)には、撮像装置を具備する飛行体が高高度を飛行し、測定範囲を含む広域画像を取得し、広域画像取得時の3次元位置を取得する工程と、該広域画像に基づき測定範囲を設定する工程と、飛行体が低高度を飛行し、所定距離間隔で精細画像を取得する工程と、精細画像取得時の位置を取得する工程と、広域画像と精細画像との倍率を合わせる工程と、広域画像取得時の位置、精細画像取得時の位置に基づき倍率を合わせた広域画像と精細画像とを広域画像/精細画像マッチングを行う工程と、広域画像/精細画像マッチングで得られる相対関係情報に基づき隣接する精細画像を精細画像/精細画像マッチングし、前記測定範囲全域の測定範囲精細3Dモデルを作成する工程が記載されている。   On the other hand, if a portion unnecessary for the inspection is photographed in detail like the inspection object, the calculation time becomes enormous as the number of images to be processed increases. On the other hand, in Japanese Unexamined Patent Application Publication No. 2014-06148 (Patent Document 1), a flying object equipped with an imaging device flies at a high altitude, acquires a wide area image including a measurement range, and obtains a three-dimensional image at the time of acquiring the wide area image. A step of acquiring a position, a step of setting a measurement range based on the wide area image, a step of acquiring a fine image at a predetermined distance interval when the flying object flies at a low altitude, and acquiring a position at the time of acquiring the fine image. Perform wide-area image / fine-image matching between the wide-area image and the fine image that have been scaled based on the process, the step of matching the magnification of the wide-area image and the fine image, the position at the time of wide-area image acquisition, and the position at the time of fine-image acquisition And a step of performing fine image / fine image matching of adjacent fine images based on relative information obtained by wide area image / fine image matching and creating a measurement range fine 3D model of the entire measurement range. It has been.

図1は、前記特許文献1の概念を示した図である。広域画像を用いて相対スケールを把握することで、2つ以上の3次元形状の相対位置と相対スケールを決定することができる。   FIG. 1 is a diagram showing the concept of Patent Document 1. In FIG. By grasping the relative scale using the wide area image, the relative position and relative scale of two or more three-dimensional shapes can be determined.

特開2014−06148号公報JP 2014-06148 A

前記特許文献1では、精細画像と広域画像を照合するのに、GPS(Global Positioning System)で計測した絶対位置情報を用いていた。しかし、撮影対象が動いてしまう場合、広域画像で撮影したときの撮影対象の絶対位置と、精細画像で撮影したときの撮影対象の絶対位置の関係が変化するので、GPSを用いた照合ができない。   In Patent Document 1, absolute position information measured by a GPS (Global Positioning System) is used to collate a fine image and a wide area image. However, if the shooting target moves, the relationship between the absolute position of the shooting target when shooting with a wide-area image and the absolute position of the shooting target when shooting with a fine image changes, and therefore, verification using GPS is not possible. .

移動する点検対象として、例えば、洋上風力発電機等が存在する。そこで、本発明は、精細画像と広域画像を用いて、移動する点検対象における点検箇所の位置情報を自動保存する技術の提供を目的とする。   For example, an offshore wind power generator or the like exists as a moving inspection target. Therefore, an object of the present invention is to provide a technique for automatically storing position information of an inspection point in a moving inspection object using a fine image and a wide area image.

本発明の一側面は、広域画像を取得する第1のステップ、広域画像より高分解能である精細画像を取得する第2のステップ、精細画像から、精細画像特徴点を抽出する第3のステップ、精細画像から、精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する第4のステップ、広域画像から広域画像特徴点を抽出し、精細画像特徴点とマッチングを行う第5のステップ、広域画像特徴点に対して、マッチングが成立した精細画像特徴点の三次元座標を対応付けて記録する第6のステップ、を備える位置情報記録方法である。   One aspect of the present invention is a first step of acquiring a wide area image, a second step of acquiring a fine image having a higher resolution than the wide area image, a third step of extracting fine image feature points from the fine image, A fourth step of generating a three-dimensional point group in which a three-dimensional coordinate is given to a fine image feature point from a fine image, extracting a wide area image feature point from the wide area image, and performing matching with the fine image feature point A position information recording method comprising: a fifth step, a sixth step of associating and recording the three-dimensional coordinates of the fine image feature points for which matching has been established with the wide-area image feature points.

本発明の他の一側面は、広域画像を取得する広域画像取得部と、広域画像より高分解能である精細画像を取得する精細画像取得部と、精細画像から精細画像特徴点を抽出し、精細画像から精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する精細画像処理部と、広域画像から広域画像特徴点を抽出し、精細画像特徴点とマッチングを行い、広域画像特徴点に対して、マッチングが成立した精細画像特徴点の三次元座標を対応付けて記録する位置情報記録部、を備える位置情報記録装置である。   Another aspect of the present invention includes a wide-area image acquisition unit that acquires a wide-area image, a fine-image acquisition section that acquires a fine image with higher resolution than the wide-area image, and extracts fine-image feature points from the fine-image, A fine image processing unit that generates a three-dimensional point cloud that gives coordinates in three dimensions to a fine image feature point from an image, and extracts a wide area image feature point from a wide area image, performs matching with the fine image feature point, The position information recording apparatus includes a position information recording unit that records a three-dimensional coordinate of a fine image feature point for which matching is established in association with a wide area image feature point.

広域画像と精細画像の撮影対象の絶対位置が必ずしも等しくなく、GPSベースでは広域画像と精細画像の3次元形状の位置合わせができない環境下でも、広域画像上で点検箇所の把握が可能となる。   The absolute positions of the shooting targets of the wide area image and the fine image are not necessarily equal, and even in an environment where the three-dimensional shape of the wide area image and the fine image cannot be aligned on a GPS basis, the inspection location can be grasped on the wide area image.

広域画像を用いた相対スケールの把握の概念図。The conceptual diagram of the grasping | ascertainment of the relative scale using a wide area image. 実施形態1のシステムフロー図。The system flow figure of Embodiment 1. FIG. 特徴点マッチングの概念図。The conceptual diagram of feature point matching. 三次元点群の生成概念図。Fig. 3 is a conceptual diagram of generating a three-dimensional point cloud. 領域限定とRANSACを用いた特徴点マッチングの概念図。The conceptual diagram of the feature point matching using area | region limitation and RANSAC. 投影誤差とその修正の概念図。The conceptual diagram of a projection error and its correction. 実施形態1の機能ブロック図。FIG. 2 is a functional block diagram of the first embodiment. 精細画像DBの表図。The table of fine image DB. 精細画像同士の特徴点マッチング部の機能ブロック図。The functional block diagram of the feature point matching part between fine images. 画像特徴点DBの表図。The table of image feature point DB. マッチングDBの表図。Table of matching DB. SfM部の機能ブロック図。The functional block diagram of a SfM part. カメラDBの表図。Table of camera DB. 三次元点群DBの表図。The table of 3D point cloud DB. 広域画像と精細画像の特徴点マッチング部の機能ブロック図。The functional block diagram of the feature point matching part of a wide area image and a fine image. 広域画像DBの表図。Table of wide area image DB. センサDBの表図。The table of sensor DB. 広域画像座標位置DBの表図。The table of wide area image coordinate position DB. 実施例2の機能ブロック図。FIG. 6 is a functional block diagram of the second embodiment.

以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。各図において共通の構成については同一の参照符号が付されている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that this embodiment is merely an example for realizing the present invention, and does not limit the technical scope of the present invention. In each figure, the same reference numerals are given to common configurations.

本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。   Notations such as “first”, “second”, and “third” in this specification and the like are attached to identify the constituent elements, and do not necessarily limit the number, order, or contents thereof. is not. In addition, a number for identifying a component is used for each context, and a number used in one context does not necessarily indicate the same configuration in another context. Further, it does not preclude that a component identified by a certain number also functions as a component identified by another number.

図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。   The position, size, shape, range, and the like of each component illustrated in the drawings and the like may not represent the actual position, size, shape, range, or the like in order to facilitate understanding of the invention. For this reason, the present invention is not necessarily limited to the position, size, shape, range, and the like disclosed in the drawings and the like.

本実施形態では、位置情報記録装置を活用する一例であるUAVを用いた点検を用いて説明する。本実施形態の位置情報記録装置は、点検の対象全域を映した広域画像と、点検を実施する時にカメラから取得した精細画像と、を用いて点検個所の広域画像上での位置情報を記録する。ただし、UAVは一例であり、有人飛行機や地上を移動するロボットや人にも装着することは可能である。点検に使用するセンサは、本装置を構成するカメラによる撮影結果をそのまま使用してもよい。また、当該カメラとは別のセンサを準備し、当該センサで取得した点検結果に位置情報を与えることも考えられる。   In the present embodiment, a description will be given using inspection using UAV, which is an example of utilizing a position information recording apparatus. The position information recording apparatus according to the present embodiment records position information on a wide area image of an inspection location using a wide area image showing the entire inspection target and a fine image acquired from the camera when the inspection is performed. . However, the UAV is an example, and can be attached to a manned airplane, a robot moving on the ground, or a person. The sensor used for the inspection may use the photographing result of the camera constituting the apparatus as it is. It is also conceivable to prepare a sensor different from the camera and give position information to the inspection result acquired by the sensor.

本実施例では、撮影対象が静止しておらず、過去の点検のタイミングと最新の点検のタイミングの間に移動している場合も取り扱うものとする。また、各点検のタイミングでは、例えばUAVにより、広域画像の一部領域に対応する精細画像を取得しておくものとする。広域画像は例えばUAVにより高高度から撮影対象を撮影した遠隔画像であり、精細画像は撮影対象により接近して撮影した近接画像である。精細画像はある一つの点検のタイミングにおいて、複数のカメラ位置から撮影された複数の静止画像を含むものとし、この複数の静止画像間では撮影対象は実質的に動いていないものとする。このような静止画像は、例えばUAMが撮影対象の周りを接近して飛行しながら撮影した動画像から、抽出することができる。一方、広域画像は最初の点検のタイミング以前に一度だけ撮影して保存しておいてもよいし、各点検のタイミングで精細画像とともに撮影してもよい。   In the present embodiment, it is also assumed that the object to be imaged is not stationary and moves between the past inspection timing and the latest inspection timing. Further, at the timing of each inspection, it is assumed that a fine image corresponding to a partial area of the wide area image is acquired by, for example, UAV. The wide area image is a remote image obtained by photographing a photographing object from a high altitude by, for example, UAV, and the fine image is a close image photographed closer to the photographing object. It is assumed that the fine image includes a plurality of still images taken from a plurality of camera positions at a certain inspection timing, and the subject to be photographed does not substantially move between the plurality of still images. Such a still image can be extracted from, for example, a moving image captured while the UAM is flying close to the object to be imaged. On the other hand, the wide area image may be taken and stored only once before the first inspection timing, or may be taken together with the fine image at each inspection timing.

以下に詳細に説明される実施例では、精細画像に対して例えばVisual SLAM(Simultaneous Localization and Mapping:位置推定と地図作成の同時実行)のような技術を用いて、撮影対象の3次元マップを作成する。公知のように、Visual SLAMでは、動画像を解析することで、逐次的にカメラの位置・姿勢と撮影対象の三次元マップを推定することができる。本実施例では、推定した3次元マップと広域画像を比較して、特徴点同士を対応付けることにより、広域画像の座標系における3次元マップの位置を推定し、記憶する。   In the embodiment described in detail below, a three-dimensional map of an object to be imaged is created using a technique such as Visual SLAM (Simultaneous Localization and Mapping) for fine images. To do. As is well known, in Visual SLAM, by analyzing a moving image, it is possible to sequentially estimate the position / posture of the camera and the three-dimensional map of the photographing target. In this embodiment, the estimated 3D map is compared with the wide area image, and the feature points are associated with each other, thereby estimating and storing the position of the 3D map in the coordinate system of the wide area image.

この方法により、精細画像から得られた3次元座標を、広域画像の座標系と対応付けることができる。そこで、過去の点検のタイミングにおける精細画像と、現在の点検のタイミングにおける精細画像との間で、精細画像に含まれる撮影対象の絶対位置が変化している場合でも、同じ座標系で撮影対象物の位置を特定することが可能となる。   By this method, the three-dimensional coordinates obtained from the fine image can be associated with the coordinate system of the wide area image. Therefore, even if the absolute position of the subject to be captured included in the fine image changes between the fine image at the past inspection timing and the fine image at the current inspection timing, the subject to be photographed in the same coordinate system. It becomes possible to specify the position of.

図2により、本発明の第1の実施形態について説明する。図2は、本発明の実施形態1に係る位置情報保存システムの処理フロー図である。本実施形態では、広域画像上における精細画像を取得したカメラの相対位置関係を把握するため、時間的に連続する複数の精細画像間での特徴点マッチングを行う(S201)。これら複数の精細画像は、短時間間隔で撮影されたものとし、その時間内では撮影対象は実質的に移動していないものとする。   A first embodiment of the present invention will be described with reference to FIG. FIG. 2 is a processing flowchart of the position information storage system according to the first embodiment of the present invention. In the present embodiment, feature point matching is performed between a plurality of temporally continuous fine images in order to grasp the relative positional relationship of the cameras that have acquired the fine images on the wide area image (S201). The plurality of fine images are taken at short time intervals, and the subject to be photographed is not substantially moved within that time.

図3により、特徴点マッチングの概念を説明する。マッチングとは、2枚の画像に映る同一点を結び付ける作業のことである。まず、カメラで取得した精細画像300の特徴点301を取得する(図3(a))。   The concept of feature point matching will be described with reference to FIG. Matching is an operation for connecting the same points appearing in two images. First, the feature point 301 of the fine image 300 acquired by the camera is acquired (FIG. 3A).

特徴点301は、他の点と区別が容易な画像上の点のことであり、画素情報の勾配情報を特徴点の特徴量として表現することができる。特徴量の例として、公知のSIFT,SURF,ORB,AKAZE等がある。ただし、カメラの位置が変わらず、画像がほとんど変化しない場合は、当該画像から特徴点を取得しなくても良い。特徴点を取得するかの判断に関しては、多くの研究が行われているので詳細を省く。   The feature point 301 is a point on the image that can be easily distinguished from other points, and the gradient information of the pixel information can be expressed as the feature amount of the feature point. Examples of feature quantities include known SIFT, SURF, ORB, AKAZE, and the like. However, when the position of the camera does not change and the image hardly changes, it is not necessary to acquire feature points from the image. A lot of research has been done on determining whether to acquire a feature point, so the details are omitted.

次に、取得した特徴点のマッチングを行う。特徴点マッチングとは、2つの精細画像300aと300bから同一地点を表す点を紐付けることである(図3(b))。比較した特徴点の特徴量が似た値を示している場合に、2つの特徴点301aと301bが同一点を表現していると判断する。当該マッチングの精度を高めるため、幾何的制約等を使用することで、誤ったマッチングを消去しても良い。誤ったマッチングを消去する手段に関しては、後に説明する。   Next, the acquired feature points are matched. The feature point matching is to link points representing the same point from the two fine images 300a and 300b (FIG. 3B). When the feature quantities of the compared feature points indicate similar values, it is determined that the two feature points 301a and 301b represent the same point. In order to increase the accuracy of the matching, an incorrect matching may be eliminated by using a geometric constraint or the like. A means for deleting an incorrect matching will be described later.

次に特徴点マッチングの結果を用いて、初期の精細画像より生成された三次元点群の相対位置と、カメラの相対位置と、カメラの向きとを、推定する(S202)。三次元点群とは、当該画像上の点に対して三次元上の座標を与えたものである。カメラ相対位置と向きは、当該画像を撮影したときの、カメラの位置と向きのことである。   Next, using the result of feature point matching, the relative position of the three-dimensional point group generated from the initial fine image, the relative position of the camera, and the direction of the camera are estimated (S202). The three-dimensional point group is obtained by giving a three-dimensional coordinate to a point on the image. The camera relative position and orientation are the position and orientation of the camera when the image is taken.

図4に示すように、特徴点マッチングの結果に基づいて、三角測量を利用することで、初期三次元点群401の相対位置とカメラの相対位置402と向き403を推定することができる。このような処理は、前述のVisual SLAMにより行うことができる。   As shown in FIG. 4, the relative position of the initial three-dimensional point group 401, the relative position 402 of the camera, and the direction 403 can be estimated by using triangulation based on the result of feature point matching. Such processing can be performed by the aforementioned Visual SLAM.

ただし、三角測量を用いた当該処理は、カメラパラメータが既知であることを前提に行われている。カメラパラメータとは、画像のピクセルの数、センサのサイズ、焦点距離、レンズの歪み等を表現したパラメータである。しかし、実際は事前にカメラパラメータが不明である、もしくは、推定されていたとしても誤差が含まれていることがある。カメラパラメータが正確に把握できない状況でも、特徴点マッチングのマッチング結果によりカメラパラメータを推定することができるので、必ずしも事前にカメラパラメータを推定する必要は無い。   However, the process using triangulation is performed on the assumption that the camera parameters are known. The camera parameter is a parameter expressing the number of pixels of the image, the sensor size, the focal length, the lens distortion, and the like. However, in practice, camera parameters may be unknown in advance, or may include errors even if estimated. Even in a situation where the camera parameters cannot be accurately grasped, the camera parameters can be estimated from the matching result of the feature point matching. Therefore, it is not always necessary to estimate the camera parameters in advance.

次に広域画像と精細画像の特徴点マッチングを行う(S203)。まず、撮影した高度の異なる広域画像と精細画像の特徴点マッチングについて説明する。特徴点マッチングでは、精細画像同士のマッチングで述べたように、画素の勾配情報に基づいた特徴量の類似度で2つの点が同一の箇所を示しているかを判断する。この類似度に基づいたマッチングでは、誤対応点が多く含まれている。そこで、背後にある拘束式を推定し、正しい特徴点マッチング精度を実施するため、公知のRANSAC(RANdom Sample Consensus)と呼ばれるアルゴリズムを用いる。これにより同一地点を適切に対応付けているマッチングを抽出する。   Next, feature point matching between the wide area image and the fine image is performed (S203). First, feature point matching between a captured wide area image and a fine image with different altitudes will be described. In the feature point matching, as described in the matching between the fine images, it is determined whether the two points indicate the same location based on the similarity of the feature amount based on the pixel gradient information. The matching based on the similarity includes many miscorresponding points. Therefore, a known algorithm called RANSAC (RANdom Sample Consensus) is used in order to estimate the constraint equation behind and implement correct feature point matching accuracy. Thereby, the matching which matches the same point appropriately is extracted.

RANSACでは、外れ値を含んだデータから、確率的に背後に存在する拘束を推定し、その拘束に基づいて、マッチングが正しいか判断する。しかし、高度の異なる画像では、誤対応の割合の多さから、背後に存在する拘束条件を推定できず、うまく特徴点マッチングできない。   In RANSAC, a constraint that is stochastically behind is estimated from data including an outlier, and whether matching is correct is determined based on the constraint. However, in images with different altitudes, the constraint conditions existing behind cannot be estimated due to the high proportion of false correspondences, and feature point matching cannot be performed well.

図5を用いて、精細画像と広域画像の特徴点マッチングの方法を説明する。一例であるが、図5は精細画像の大きさを変えて、回転した画像を広域画像に対応付けるという拘束を用いて、正しいマッチングを取得しようとしている。   A feature point matching method between a fine image and a wide area image will be described with reference to FIG. As an example, FIG. 5 attempts to acquire correct matching by using the constraint that the size of the fine image is changed and the rotated image is associated with the wide area image.

図5(a)を見ると、広域画像500は精細画像300を撮影した箇所より、高いところで撮影した結果、撮影対象物は精細画像300を小さくし、回転したように写っている。しかし、大量の誤ったマッチングがある結果、マッチング結果だけを見ても、サイズをどれだけ変化させて、回転させたか推定することは難しい。   As shown in FIG. 5A, the wide area image 500 is photographed at a position higher than the portion where the fine image 300 was photographed. As a result, the photographing object appears as if the fine image 300 is made smaller and rotated. However, as a result of a large amount of incorrect matching, it is difficult to estimate how much the size has been changed and rotated by looking at the matching result alone.

図5(b)は、広域画像500において、マッチング対象とする特徴点5001がある領域を510に限定して、特徴点マッチングを行なった例である。このように、精細画像300の広域画像500における場所に基づいて、明らかなマッチング誤りを除去すると、大きさと回転の変化の推定が容易となる。すると、背後の拘束が推定できた結果、図5(c)のように誤マッチングを除去することができる。   FIG. 5B shows an example in which feature point matching is performed by limiting the region having the feature point 5001 to be matched to 510 in the wide area image 500. In this way, if an obvious matching error is removed based on the location of the fine image 300 in the wide area image 500, it is easy to estimate changes in size and rotation. Then, as a result of estimating the back restraint, it is possible to remove the false matching as shown in FIG.

本実施形態ではRANSACを実行する前に、広域画像500における撮影範囲外の特徴点5001xが含まれているマッチングを除去する。大量の誤マッチングを除去することで、正しく背後に存在する拘束条件を推定し、結果的に正しいマッチング結果を取得することができた。以下に具体的な手順について説明する。   In the present embodiment, before executing RANSAC, the matching including the feature point 5001x outside the imaging range in the wide area image 500 is removed. By removing a large amount of false matching, we were able to correctly estimate the constraints that existed behind, and as a result, obtain the correct matching results. A specific procedure will be described below.

まず、広域画像データベース(DBと略す。以下同様)より事前に撮影した広域画像500を取得する。ただし、当該広域画像500は精細画像300を撮影する前に撮影し、そのまま精細画像300の撮影を開始しても良い。次に、当該広域画像500の特徴点5001を取得し、特徴点DBに格納する。ただし、当該広域画像500の特徴点5001の取得は、広域画像500が事前に撮影されている場合には、事前に行い特徴点DBに格納しても良い。   First, a wide-area image 500 captured in advance is acquired from a wide-area image database (abbreviated as DB; the same applies hereinafter). However, the wide area image 500 may be taken before the fine image 300 is taken, and the fine image 300 may be taken as it is. Next, the feature point 5001 of the wide area image 500 is acquired and stored in the feature point DB. However, when the wide area image 500 is captured in advance, the feature point 5001 of the wide area image 500 may be acquired in advance and stored in the feature point DB.

マッチングする広域画像500の領域510は、事前に広域画像DBに初期三次元点群領域として格納し、当該領域に基づいてマッチング領域を限定する。初期三次元点領域の座標は、例えば精細画像の撮影スタート位置の座標とする。この座標は、精細画像の撮影時にGPS等で記録したカメラの座標を用いる、あるいは、カメラの方向の情報を併用してもよい。これらの情報によれば、カメラが撮影した場所をおおよそ特定することができる。この場合、精密な座標は必要でない。また、カメラの座標が記録されていない場合には、処理S202で推定したカメラ位置の座標を用いてもよい。   The area 510 of the wide area image 500 to be matched is previously stored in the wide area image DB as an initial three-dimensional point cloud area, and the matching area is limited based on the area. The coordinates of the initial three-dimensional point area are, for example, the coordinates of the shooting start position of the fine image. As the coordinates, camera coordinates recorded by GPS or the like at the time of capturing a fine image may be used, or camera direction information may be used in combination. According to these pieces of information, it is possible to roughly specify the place where the camera has taken a picture. In this case, precise coordinates are not necessary. If the camera coordinates are not recorded, the camera position coordinates estimated in step S202 may be used.

領域の範囲は、当該座標を中心に所定半径の円内や所定の辺の長さを持つ四角形のように定める。他の方法としては、広域画像500から初期三次元点群領域を確認できるように、事前に撮影対象の移動が想定される領域に初期三次元点群領域を示す目印を置き、目印を撮影することで、当該限定領域を事前に格納せずに実施することも考えられる。   The range of the region is defined as a circle having a predetermined radius and a square having a predetermined side length with the coordinates as the center. As another method, in order to confirm the initial three-dimensional point cloud region from the wide area image 500, a mark indicating the initial three-dimensional point cloud region is placed in a region where the movement of the photographing target is assumed in advance, and the mark is photographed. Thus, it can be considered that the limited area is not stored in advance.

また、他の方法として、マッチングの前にオペレータに広域画像を表示し、オペレータが範囲を指定してもよい。これらの領域限定により、誤ったマッチングを除去する。   As another method, a wide area image may be displayed on the operator before matching, and the operator may specify the range. By limiting these areas, erroneous matching is removed.

次にRANSACを用いたマッチングを行う。拘束として考えられるのは、例えば、同一平面に存在する点を撮影した2枚の画像における同一地点の画像上の拘束条件である平面拘束が考えられる。また、エピポーラ拘束を用いても良い。当該広域画像500と当該精細画像300のマッチング結果から推定された平面拘束を満たす、マッチングのみを正しいマッチングとして処理する。   Next, matching using RANSAC is performed. A possible constraint is, for example, a plane constraint that is a constraint condition on an image at the same point in two images obtained by photographing points existing on the same plane. Epipolar constraints may also be used. Only matching that satisfies the plane constraint estimated from the matching result of the wide area image 500 and the fine image 300 is processed as correct matching.

広域画像の特徴点5001とマッチングした精細画像の特徴点301が存在した場合、当該特徴点301の三次元点群401は広域画像上の点との対応が確認できる。ただし、当該精細画像のみでの三次元点群の推定では、当該三次元点群401がゆがんでしまう場合がある。そこで、三次元点群とカメラ位置の補正をして広域画像と精細画像の特徴点の記録を行う(処理S204)。以下三次元点群とカメラ位置を補正する方法について説明する。   When there is a feature point 301 of the fine image that matches the feature point 5001 of the wide area image, the three-dimensional point group 401 of the feature point 301 can confirm the correspondence with the point on the wide area image. However, in the estimation of the three-dimensional point group using only the fine image, the three-dimensional point group 401 may be distorted. Therefore, the feature points of the wide area image and the fine image are recorded by correcting the three-dimensional point group and the camera position (processing S204). A method for correcting the three-dimensional point group and the camera position will be described below.

図6で、三次元点群のゆがみとこの修正について説明する。広域画像500と精細画像300のマッチングした特徴点のうち、三角測量で3次元座標が計算されているものを抽出する。この広域画像500における特徴点の対応をもとに、三次元点群及び精細画像のカメラ位置を修正する。   With reference to FIG. 6, the distortion of the three-dimensional point group and this correction will be described. Among the matching feature points of the wide area image 500 and the fine image 300, those whose three-dimensional coordinates are calculated by triangulation are extracted. Based on the correspondence of the feature points in the wide area image 500, the camera positions of the three-dimensional point group and the fine image are corrected.

まず、広域画像上で特定されている三次元点群401の位置情報から広域画像を撮影した場所を推定する。推定した結果から広域画像と精細画像の投影誤差の和が最小になるようにカメラ位置402と三次元点群401の位置を図中太矢印のように調整することで相対自己位置を修正する。301で示す点が画像上で特徴点が存在していた箇所であり、402と401で示す点はカメラと三次元点群の相対位置である。   First, the place where the wide area image is photographed is estimated from the position information of the three-dimensional point group 401 specified on the wide area image. From the estimated result, the relative self-position is corrected by adjusting the positions of the camera position 402 and the three-dimensional point group 401 as indicated by the thick arrows in the figure so that the sum of the projection errors of the wide area image and the fine image is minimized. A point indicated by 301 is a place where a feature point exists on the image, and points indicated by 402 and 401 are relative positions of the camera and the three-dimensional point group.

推定した広域画像を撮影した場所は誤差を含んでおり、カメラ位置と三次元点群の相対位置から推定される画像上の座標は、実際の画像上の座標とは一致しない。このカメラ位置と三次元点群を結んだ直線が精細画像300上のどこに存在するかを推定する作業を再投影という。再投影される場所は、カメラ位置と、カメラの向き、カメラパラメータ、三次元点群の相対位置により、計算することができる。この再投影した点6002と実際の画像に映っている点6001の画像上での誤差を投影誤差6003という。そして、この投影誤差を最小化するようにカメラ位置と三次元点群位置を補正することで、推定誤差を削減する。最小化する手段として、例えば、非線形最適化手法であるバンドル調整を使用する。   The location where the estimated wide-area image is captured includes an error, and the coordinates on the image estimated from the camera position and the relative position of the three-dimensional point group do not match the coordinates on the actual image. The operation of estimating where the straight line connecting the camera position and the three-dimensional point group exists on the fine image 300 is called reprojection. The reprojected location can be calculated from the camera position, the camera orientation, the camera parameters, and the relative position of the three-dimensional point group. An error between the re-projected point 6002 and the point 6001 reflected in the actual image is referred to as a projection error 6003. Then, the estimation error is reduced by correcting the camera position and the three-dimensional point group position so as to minimize the projection error. As a means for minimizing, for example, bundle adjustment which is a nonlinear optimization method is used.

以上で、初期精細画像に基づいて得られた初期三次元点群の特徴点と広域画像の特徴点とが対応付けられた。広域画像上に座標軸を定義しておけば、初期三次元点群の特徴点を広域画像上の座標で表わすことができる。本実施例では、精細画像は例えば、ある一つの点検のタイミングにおいて、UAVが撮影対象の周りを飛行しながら撮影した複数の静止画像であり、初期精細画像は例えば、その中から選ばれた2つの静止画像である。撮影時にリアルタイムで処理を行っている場合には、2つの静止画像は撮影スタート直後の2枚の精細画像である。以下ではリアルタイム処理を例に説明するが、画像をいったん保存しておき、後にバッチ処理を行うことも可能である。   The feature points of the initial three-dimensional point group obtained based on the initial fine image are associated with the feature points of the wide area image. If coordinate axes are defined on the wide area image, the feature points of the initial three-dimensional point group can be represented by the coordinates on the wide area image. In the present embodiment, the fine image is, for example, a plurality of still images taken by the UAV while flying around the photographing object at a certain inspection timing, and the initial fine image is, for example, 2 selected from among them. There are two still images. When processing is performed in real time at the time of shooting, the two still images are two fine images immediately after the start of shooting. In the following description, real-time processing will be described as an example. However, it is also possible to save an image once and perform batch processing later.

次に、UAVはスタート地点から移動して行く。UAVは移動しながら新たな精細画像を撮影する。追加された新規精細画像と直前の精細画像とで特徴点マッチングを行う(処理S205)。特徴点マッチングした特徴点のうち、三次元点群として位置情報が付加された点が存在した場合、当該三次元点群の位置情報をもとに、当該追加精細画像のカメラ位置を推定する(処理S206)。ただし、カメラ位置を推定した後に、投影誤差を用いて補正する処理を行っても良い。2つの精細画像間で同じ位置情報が付加された特徴点を共有するためには、撮影範囲が一部重複するように2つの精細画像を撮影すればよい。   Next, the UAV moves from the starting point. The UAV takes a new fine image while moving. Feature point matching is performed between the added new fine image and the previous fine image (step S205). When there is a point to which position information is added as a three-dimensional point group among the feature points that have been feature point matched, the camera position of the additional fine image is estimated based on the position information of the three-dimensional point group ( Process S206). However, after the camera position is estimated, a correction process using a projection error may be performed. In order to share a feature point with the same position information added between two fine images, the two fine images may be taken so that the photographing ranges partially overlap.

続いて、三次元点群の追加を行う(処理S207)。特徴点マッチング(処理S205)の結果抽出された特徴点のうち、相対位置情報が付加されていない特徴点を抽出する。当該位置情報が付加されていない特徴点については、処理S202と同様に三角測量を用いることで、相対位置情報を付加する。当該処理を終えた後も、処理S204と同様に投影誤差を用いて補正する処理を行っても良い。相対位置情報を付加した特徴点は、三次元点群に追加する。   Subsequently, a three-dimensional point group is added (processing S207). Of the feature points extracted as a result of the feature point matching (process S205), feature points to which relative position information is not added are extracted. For feature points to which the position information is not added, relative position information is added by using triangulation as in step S202. Even after the process is completed, a process of correcting using the projection error may be performed as in the process S204. The feature point to which the relative position information is added is added to the three-dimensional point group.

続いて、広域画像と新規精細画像の特徴点マッチングを行う(処理S208〜S209)。スタート地点では、特徴点マッチングを成功させるために、既知情報もしくは目印を用いることで、マッチングする領域を決定した(処理S203)。新規精細画像と広域画像とのマッチングの領域は処理S203と同様に決定してもよいが、新規精細画像のカメラ位置とカメラパラメータで決定してもよい(処理S208)。すなわち、処理S206で当該精細画像のカメラ位置が推定されているので、倍率などのカメラパラメータに基づいて、広域画像中の精細画像位置を推定することができる。   Subsequently, feature point matching between the wide area image and the new fine image is performed (steps S208 to S209). At the start point, in order to make feature point matching successful, a matching area is determined by using known information or a mark (processing S203). The matching area between the new fine image and the wide area image may be determined in the same manner as in the process S203, but may be determined by the camera position and camera parameters of the new fine image (process S208). That is, since the camera position of the fine image is estimated in step S206, the fine image position in the wide area image can be estimated based on the camera parameters such as the magnification.

特徴点マッチングを行った後、必要により処理S204と同様に投影誤差を用いて補正する処理を行い、三次元点群とカメラ位置の補正をして広域画像と精細画像の特徴点の記録を行う(処理S210)。   After performing the feature point matching, if necessary, a correction process using a projection error is performed in the same manner as in step S204, and the 3D point group and the camera position are corrected to record the feature points of the wide area image and the fine image. (Processing S210).

以後、処理S205〜処理S210のプロセスを繰り返すことによって、絶対位置情報が分からない状態であっても、逐次的に領域を限定した特徴点マッチングを行うことにより、GPS等による絶対位置情報を取得できない状況下でも、広域画像と精細画像の位置情報の対応を取り続けることができる。   Thereafter, even if the absolute position information is not known by repeating the processes of step S205 to step S210, the absolute position information by GPS or the like cannot be acquired by performing feature point matching in which the regions are sequentially limited. Even under circumstances, the correspondence between the position information of the wide area image and the fine image can be continued.

点検の結果のデータを点検対象物の位置情報とともに記録する方法について述べる。処理S205〜処理S210のプロセスでは、カメラ位置とカメラによって撮影された特徴点の三次元点群の相対位置情報を記録したに過ぎない。本実施例の目的とする点検の自動化のプロセスでは、点検対象物の相対位置情報と当該点検対象物の状態を反映したセンサデータを関連付けて記録する必要がある。   A method for recording the inspection result data together with the position information of the inspection object will be described. In the process from step S205 to step S210, only the relative position information of the camera position and the three-dimensional point group of the feature points photographed by the camera is recorded. In the inspection automation process which is the object of the present embodiment, it is necessary to record the relative position information of the inspection object and sensor data reflecting the state of the inspection object in association with each other.

一つの例では、記録する点検対象物の相対位置情報は、点検に使用するセンサに依存して決定することができる。温度や特定物質を検知するセンサのように、センサの位置と測定対象の位置が一致するセンサを使用する場合は、位置情報として当該センサ位置を記録すればよい。また、カメラやスペクトルカメラや熱赤外線カメラのような、センサがセンサとは離れた位置の情報を取得する場合であって、センサデータが二次元の画像として表現される場合は、センサ(カメラ)の向きによって、記録される位置情報が異なる。センサが位置情報を記録するためのカメラと同じ向きの場合は、当該カメラで取得した三次元点群の相対位置を記録すればよい。向きが異なる場合は、センサが取得しているデータが三次元座標上のどこに対応するかを把握する必要がある。このためには、センサ自体の位置とセンサの向きや感度等のセンサパラメータに基づいて、センサデータを取得している点検対象物の位置を把握することで、位置を決定することができる。また、センサに距離センサを併設することで、点検対象との距離を把握することができる。また、存在する平面を仮定することで限定することもできる。   In one example, the relative position information of the inspection object to be recorded can be determined depending on the sensor used for the inspection. When using a sensor in which the position of the sensor coincides with the position of the measurement object, such as a sensor that detects temperature or a specific substance, the sensor position may be recorded as position information. When the sensor acquires information on a position away from the sensor, such as a camera, a spectrum camera, or a thermal infrared camera, and the sensor data is expressed as a two-dimensional image, the sensor (camera) The position information to be recorded differs depending on the orientation of the. When the sensor is oriented in the same direction as the camera for recording position information, the relative position of the three-dimensional point group acquired by the camera may be recorded. When the directions are different, it is necessary to grasp where the data acquired by the sensor corresponds on the three-dimensional coordinates. For this purpose, the position can be determined by grasping the position of the inspection object from which the sensor data is acquired based on the position of the sensor itself and the sensor parameters such as the direction and sensitivity of the sensor. In addition, the distance from the inspection object can be grasped by providing the sensor with a distance sensor. It can also be limited by assuming an existing plane.

図7を用いて、図2の手順を実施するための機能ブロックについて説明する。本実施形態の位置情報記録装置700は、カメラ14001と、精細画像DB14002と、特徴点DB403と、マッチングDB404と、三次元点群DB405と、カメラDB406と、広域画像DB407と、広域画像座標位置DB408と、センサDB409と、精細画像処理部410と、位置情報記録部413と、結果出力部417を有する。   With reference to FIG. 7, functional blocks for implementing the procedure of FIG. 2 will be described. The position information recording apparatus 700 of this embodiment includes a camera 14001, a fine image DB 14002, a feature point DB 403, a matching DB 404, a three-dimensional point group DB 405, a camera DB 406, a wide area image DB 407, and a wide area image coordinate position DB 408. A sensor DB 409, a fine image processing unit 410, a position information recording unit 413, and a result output unit 417.

このような機能ブロックは、基本的に入力装置、出力装置、記憶装置、処理装置を備える一般的なサーバで構成することができる。本実施例では計算や制御等の機能は、記憶装置に格納されたプログラムが処理装置によって実行されることで、定められた処理を他のハードウェアと協働して実現されるものとする。サーバが実行するプログラム、その機能、あるいはその機能を実現する手段を、「部」、「機能」、「手段」、「ユニット」、「モジュール」等と呼び、処理の主語として記述する場合がある。また、以後の説明では記憶装置に格納されたデータを、「〜テーブル」、「〜リスト」、「〜DB」、「〜キュー」、「情報」等の表現で説明することがあるが、これらは等価な情報である限り、データ形式を問わない。   Such a functional block can be basically composed of a general server including an input device, an output device, a storage device, and a processing device. In the present embodiment, functions such as calculation and control are realized in cooperation with other hardware by executing a program stored in the storage device by the processing device. A program executed by a server, its function, or means for realizing the function are called "part", "function", "means", "unit", "module", etc., and may be described as the subject of processing. . In the following description, data stored in the storage device may be described in terms of “˜table”, “˜list”, “˜DB”, “˜queue”, “information”, etc. As long as is equivalent information, the data format is not limited.

また、以上の構成は、単体のサーバで構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、ネットワークで接続された他のコンピュータで構成されてもよい。また、図7の構成では説明上カメラ14001を装置に含めているが、カメラ14001は別途UAVに搭載し、遠隔地から無線回線等により画像データを位置情報記録装置700に送信するように構成することができる。   In addition, the above configuration may be configured by a single server, or any part of the input device, output device, processing device, and storage device may be configured by another computer connected via a network. Good. In the configuration of FIG. 7, the camera 14001 is included in the apparatus for the sake of explanation. However, the camera 14001 is separately mounted on the UAV and configured to transmit image data to the position information recording apparatus 700 from a remote location via a wireless line or the like. be able to.

位置情報記録装置700は、1または複数のカメラ14001によって、位置情報を取得するための精細画像もしくは動画を取得し、撮影した画像を精細画像DB14002へ保存する。   The position information recording apparatus 700 acquires a fine image or a moving image for acquiring position information with one or a plurality of cameras 14001, and stores the captured image in the fine image DB 14002.

図8は精細画像DB14002のインデックスのデータ構造を示す一例である。精細画像は、例えば取得した順番がわかるように撮影した順番に精細画像ID801をつける。もしくは、撮影時刻を保存しても良い。カメラを使った場合は、撮影した当該カメラのカメラID804を保存する。また、撮影時のカメラ位置802、カメラ向き803などの撮影条件が分かっている場合にはこれらを保存してもよい。カメラ位置は例えばGPSによって取得できる。ただし、これらが分かっていない場合でも、カメラ位置802やカメラ向き803は、前述のように推定して保存することもできる。また、カメラID804に対応して、別途ピクセル数や焦点距離など、カメラの性能パラメータを格納してもよい。   FIG. 8 shows an example of the data structure of the index of the fine image DB 14002. For the fine image, for example, the fine image ID 801 is attached in the order of photographing so that the order of acquisition is known. Alternatively, the shooting time may be stored. If a camera is used, the camera ID 804 of the photographed camera is stored. Further, when shooting conditions such as the camera position 802 and the camera orientation 803 at the time of shooting are known, these may be saved. The camera position can be acquired by GPS, for example. However, even when these are not known, the camera position 802 and the camera orientation 803 can be estimated and stored as described above. Corresponding to the camera ID 804, camera performance parameters such as the number of pixels and focal length may be stored separately.

図9は、精細画像同士の特徴点マッチング部411の機能ブロック図である。本実施例では、各機能ブロックはソフトウェアで実現することにしている。保存された精細画像は、精細画像同士の特徴点マッチング部411により、精細画像同士の特徴点マッチングを行う。精細画像同士の特徴点マッチング部は、画像特徴点検出部501と、画像特徴点特徴量比較部502と、画像特徴点特徴量計算部503と、特徴点マッチングRANSAC部504を有する。   FIG. 9 is a functional block diagram of the feature point matching unit 411 between fine images. In this embodiment, each functional block is realized by software. The saved fine images are subjected to feature point matching between the fine images by the feature point matching unit 411 between the fine images. The feature point matching unit between fine images includes an image feature point detection unit 501, an image feature point feature quantity comparison unit 502, an image feature point feature quantity calculation unit 503, and a feature point matching RANSAC unit 504.

図10は特徴点DB403のデータ構造を示す一例である。画像特徴点検出部501では、精細画像DB14002より精細画像を取得し、精細画像上の特徴点を検出し、精細画像ID1001と特徴点ID1004を割り当て、特徴点の二次元座標1002とともに特徴点DB403に保存する。画像特徴点特徴量計算部503で、精細画像と特徴点の二次元座標1002を用いて、特徴点の特徴量1003を計算し、特徴点DB403に保存する。   FIG. 10 shows an example of the data structure of the feature point DB 403. The image feature point detection unit 501 acquires a fine image from the fine image DB 14002, detects a feature point on the fine image, assigns a fine image ID 1001 and a feature point ID 1004, and stores the feature point in the feature point DB 403 together with the two-dimensional coordinates 1002 of the feature point. save. An image feature point feature amount calculation unit 503 calculates a feature point feature amount 1003 using the fine image and the two-dimensional coordinates 1002 of the feature points, and stores them in the feature point DB 403.

画像特徴点特徴量比較部502で、特徴点DB403の特徴量1003が近い特徴点の組み合わせを特徴点マッチングとして、マッチングDB404に格納する。   The image feature point feature amount comparison unit 502 stores a combination of feature points having the feature amount 1003 in the feature point DB 403 close to the matching DB 404 as feature point matching.

図11はマッチングDB404のデータ構造を示す一例である。マッチングDB404では、マッチングID1101に対応して、複数枚の精細画像の精細画像ID1102(1101)と、当該精細画像IDの精細画像中でマッチングした特徴点の特徴点ID1103(1004)が保存されている。図11の1行目の例では、画像ID「2」の特徴点ID「6」の点が、画像ID「3」の特徴点ID「39」の点とマッチングしていることを示す。   FIG. 11 shows an example of the data structure of the matching DB 404. In the matching DB 404, a fine image ID 1102 (1101) of a plurality of fine images and a feature point ID 1103 (1004) of feature points matched in the fine image of the fine image ID are stored in correspondence with the matching ID 1101. . The example of the first line in FIG. 11 indicates that the point with the feature point ID “6” of the image ID “2” matches the point with the feature point ID “39” of the image ID “3”.

特徴点マッチングRANSAC部504では、2枚の画像の背後にある拘束条件を推定し、マッチングDB404から誤ったマッチングを除去する。   The feature point matching RANSAC unit 504 estimates a constraint condition behind the two images and removes erroneous matching from the matching DB 404.

図12にSfM部412を示す。SfM部412により、三次元点群と、カメラ相対位置、カメラ向き等を推定する。   FIG. 12 shows the SfM unit 412. The SfM unit 412 estimates a three-dimensional point group, a camera relative position, a camera orientation, and the like.

初期三次元点群生成部601にて、特徴点DB403とマッチングDB404に基づいて、マッチングする特徴点の二次元座標を得、図4で説明したように、二次元座標と精細画像から初期三次元点群座標を得ることができる。初期三次元点群座標は、三次元点群DB405に格納する。また、カメラDB406のカメラパラメータと、精細画像DB14002のカメラ位置等を推定することができ、それぞれ、カメラパラメータはカメラDB406に格納し、カメラ位置等は精細画像DB14002にカメラ位置802、カメラ向き803のように格納する。   The initial three-dimensional point group generation unit 601 obtains the two-dimensional coordinates of the feature points to be matched based on the feature point DB 403 and the matching DB 404 and, as described with reference to FIG. Point cloud coordinates can be obtained. The initial three-dimensional point group coordinates are stored in the three-dimensional point group DB 405. The camera parameters of the camera DB 406 and the camera position of the fine image DB 14002 can be estimated. The camera parameters are stored in the camera DB 406, and the camera position and the like are stored in the fine image DB 14002 in the camera position 802 and the camera direction 803, respectively. Store like so.

図13はカメラDB406のデータ構造を示す一例である。カメラID1301に対して、ピクセル数1302、焦点距離1301、センササイズ1304、歪み係数1305のようなカメラパラメータが格納される。これらは事前に格納できる場合は事前に格納しておいてもよいし、精細画像から推定した値でもよい。   FIG. 13 shows an example of the data structure of the camera DB 406. For the camera ID 1301, camera parameters such as the number of pixels 1302, focal length 1301, sensor size 1304, and distortion coefficient 1305 are stored. These may be stored in advance if they can be stored in advance, or may be values estimated from fine images.

図14は三次元点群DB405のデータ構造を示す一例である。初期三次元点群生成部601で生成された三次元点群の各点は一意のIDである三次元点群ID1401を付与され、三次元点群ID1401は、当該三次元点群の元となる精細画像の精細画像ID1402と、当該精細画像中において三次元点群を構成する特徴点の特徴点ID1403とともに格納される。また、三次元点群の相対位置1404が格納される。三次元点群の相対位置1404は、例えば三次元点群に対して任意に設定された原点(0,0,0)に対する、相対位置座標を示す。図14の例では、一行目のデータは、精細画像ID「1」の特徴点ID「33」と、精細画像ID「3」の特徴点ID「22」と、精細画像ID「4」の特徴点ID「14」とがマッチングし、その点の三次元点群上の相対位置座標が(2,3,4)であることを示す。   FIG. 14 is an example showing the data structure of the three-dimensional point group DB 405. Each point of the three-dimensional point group generated by the initial three-dimensional point group generation unit 601 is assigned a three-dimensional point group ID 1401 that is a unique ID, and the three-dimensional point group ID 1401 is a source of the three-dimensional point group. It is stored together with a fine image ID 1402 of the fine image and a feature point ID 1403 of the feature points constituting the three-dimensional point group in the fine image. In addition, the relative position 1404 of the three-dimensional point group is stored. The relative position 1404 of the three-dimensional point group indicates relative position coordinates with respect to the origin (0, 0, 0) arbitrarily set for the three-dimensional point group, for example. In the example of FIG. 14, the data in the first row includes the feature point ID “33” of the fine image ID “1”, the feature point ID “22” of the fine image ID “3”, and the feature of the fine image ID “4”. The point ID “14” is matched, and the relative position coordinate of the point on the three-dimensional point group is (2, 3, 4).

三次元点群ID1401に点群の色情報を保存したい場合は、精細画像DB402より色情報を取得する。ただし、3枚以上の精細画像を使っている場合は、カメラDB406に予め準備されたカメラパラメータがない場合であっても、カメラパラメータを推定することができる。その場合は、推定したカメラパラメータをカメラDB406に保存する。   When it is desired to store the color information of the point group in the three-dimensional point group ID 1401, the color information is acquired from the fine image DB 402. However, when three or more detailed images are used, the camera parameters can be estimated even when there are no camera parameters prepared in advance in the camera DB 406. In that case, the estimated camera parameters are stored in the camera DB 406.

カメラ位置推定部603では、マッチングDB404のマッチング情報と、三次元点群DB405の相対位置情報と、カメラDB406のカメラパラメータにより、特徴点DB403の特徴点の二次元座標を用いて、新規精細画像のカメラ位置を推定し、精細画像DB402に保存する。   The camera position estimation unit 603 uses the two-dimensional coordinates of the feature points in the feature point DB 403 based on the matching information in the matching DB 404, the relative position information in the three-dimensional point cloud database 405, and the camera parameters in the camera DB 406 to generate a new fine image. The camera position is estimated and stored in the fine image DB 402.

新規三次元点群追加部602では、カメラDB406のカメラパラメータにより、特徴点DB403の特徴点の二次元座標と、精細画像DB402の当該新規精細画像のカメラ位置を用いることで、三次元点群DB405に保存されていない特徴点の相対三次元位置を推定し、三次元点群DB405に保存(追加)する。   The new three-dimensional point cloud adding unit 602 uses the two-dimensional coordinates of the feature points in the feature point DB 403 and the camera position of the new fine image in the fine image DB 402 based on the camera parameters of the camera DB 406 to obtain the three-dimensional point cloud DB 405. The relative three-dimensional position of the feature points not stored in is estimated and stored (added) in the three-dimensional point group DB 405.

バンドル調整部604では、特徴点DB403の二次元座標と、三次元点群IDと、カメラDB406のカメラパラメータと、を用いて投影誤差を計算し、三次元点群とカメラ位置とカメラ向きを補正し、それぞれ、三次元点群DB405と精細画像DB402に格納する。   The bundle adjustment unit 604 calculates a projection error using the two-dimensional coordinates of the feature point DB 403, the three-dimensional point group ID, and the camera parameters of the camera DB 406, and corrects the three-dimensional point group, the camera position, and the camera orientation. These are stored in the three-dimensional point group DB 405 and the fine image DB 402, respectively.

図15には、広域画像と精細画像の特徴点マッチング部414の構成ブロック図を示す。広域画像と接近画像の特徴点マッチング部414には、画像特徴点検出部501、画像特徴点特徴量比較部502と、画像特徴点特徴量計算部503と、特徴点マッチングRANSAC部504と特徴点マッチング領域限定部701を有する。特徴点マッチング領域限定部701以外は、図9に示した精細画像同士の特徴点マッチング部411と基本的に同様の構成であるが、対象とする画像に広域画像が含まれる点が異なる。特徴点マッチング領域限定部701では、直前の精細画像に含まれる特徴点の広域画像上の位置に基づいて、マッチングを行う限定領域を決定する。すなわち、今回の精細画像の特徴点は、直前の精細画像の位置の近傍に位置することが推測されるので、直前の精細画像の特徴点の位置にもとづいて限定領域を決定すればよい。ただし、初期三次元点群との対応に関しては、広域画像DB407記載のスタート座標を使用する。   FIG. 15 shows a configuration block diagram of the feature point matching unit 414 for the wide area image and the fine image. The feature point matching unit 414 for the wide area image and the approaching image includes an image feature point detection unit 501, an image feature point feature amount comparison unit 502, an image feature point feature amount calculation unit 503, a feature point matching RANSAC unit 504, and feature points. A matching area limiting unit 701 is included. Except for the feature point matching area limiting unit 701, the configuration is basically the same as that of the feature point matching unit 411 for fine images shown in FIG. 9 except that the target image includes a wide area image. The feature point matching area limiting unit 701 determines a limited area for matching based on the position of the feature point included in the immediately preceding fine image on the wide area image. That is, since it is estimated that the feature point of the current fine image is located in the vicinity of the position of the previous fine image, the limited region may be determined based on the position of the feature point of the previous fine image. However, for the correspondence with the initial three-dimensional point group, the start coordinates described in the wide area image DB 407 are used.

広域画像座標位置計算部415では、精細画像で撮影された特徴点が、広域画像上の座標のどこに対応付けられるかを示す広域画像座標位置を計算する。すなわち、広域画像と精細画像の特徴点マッチング部414でマッチした特徴点に対して、広域画像上の座標を対応付ける。なお、広域画像から抽出した特徴点は、図10の特徴点DB403と同様に記録しておくものとする。   The wide area image coordinate position calculation unit 415 calculates a wide area image coordinate position indicating where the feature point captured in the fine image is associated with the coordinates on the wide area image. That is, the coordinates on the wide area image are associated with the feature points matched by the feature point matching unit 414 of the wide area image and the fine image. Note that the feature points extracted from the wide area image are recorded in the same manner as the feature point DB 403 in FIG.

図16は、広域画像DB407のデータ構造を示す一例である。広域画像の広域画像ID1601に対して、当該画像を撮影したカメラの位置1602、カメラの向き1603が格納される。カメラの位置1602はGPS等でカメラ位置を取得して記録することができる。かめらの向き1603はカメラの動作パラメータから取得することができる。あるいは、これらは広域画像自体から推定した値でもよい。   FIG. 16 shows an example of the data structure of the wide area image DB 407. For the wide area image ID 1601 of the wide area image, the camera position 1602 and the camera direction 1603 that captured the image are stored. The camera position 1602 can be recorded by acquiring the camera position by GPS or the like. The direction of the temple 1603 can be obtained from the operation parameters of the camera. Alternatively, these may be values estimated from the wide area image itself.

スタート位置1604は、図5で説明した広域画像と精細画像のマッチングにおいて、領域510の位置を示す。スタート位置の設定方法としては、先に述べたように、オペレータが広域画像を見て人為的に策定し入力することができる。あるいは、広域画像上でも確認可能なマークをフィールドに設置し、マークを撮影した広域画像から画像処理によりマークを抽出し、マークに基づいて定めることができる。あるいは、被写体が動かない場合は、GPS等によって被写体と同じ場所と推定される位置に定めることができる。あるいは、初期三次元点群を抽出するための精細画像を撮影したカメラの位置や方向から定めることができる。   The start position 1604 indicates the position of the region 510 in the matching between the wide area image and the fine image described with reference to FIG. As described above, the start position can be set and input artificially by the operator looking at the wide area image. Alternatively, a mark that can be confirmed on a wide area image is placed in the field, and the mark is extracted by image processing from the wide area image obtained by photographing the mark, and can be determined based on the mark. Alternatively, when the subject does not move, it can be set at a position estimated as the same location as the subject by GPS or the like. Or it can determine from the position and direction of the camera which image | photographed the fine image for extracting an initial three-dimensional point group.

スタート位置1604の設定方法としては、図16に示すように領域の中心や角部を示す二次元座標でもよいし、領域が四角形であれば、その四隅を示す二次元座標でもよい。   As a method for setting the start position 1604, two-dimensional coordinates indicating the center or corner of the area as shown in FIG. 16 may be used, or if the area is a rectangle, two-dimensional coordinates indicating the four corners may be used.

図17は、センサDB409のデータ構造を示す一例である。センサを一意に識別するセンサID1701、センサが取得する点検位置の定義1702、およびセンサの向き1703を含む。   FIG. 17 is an example showing the data structure of the sensor DB 409. A sensor ID 1701 that uniquely identifies the sensor, a definition 1702 of an inspection position acquired by the sensor, and a sensor orientation 1703 are included.

図18は、広域画像座標位置DB408のデータ構造を示す一例である。図14に示した三次元点群ID1401を持つ点が、広域画像ID1802を持つ広域画像の広域画像特徴点ID1803を持つ特徴点のどれに対応するかを示している。さらに、その点の広域画像上の広域画像座標1804を対応付ける。   FIG. 18 is an example showing the data structure of the wide area image coordinate position DB 408. A point having the three-dimensional point group ID 1401 shown in FIG. 14 corresponds to which of the feature points having the wide area image feature point ID 1803 of the wide area image having the wide area image ID 1802. Further, the wide area image coordinates 1804 on the wide area image at that point are associated.

最後に結果出力部にて、広域画像座標DB408の広域画像座標1804を用いて、点検箇所が広域画像上のどこかを示すことができる。また、広域画像とそれぞれの特徴点の対応が判明した、三次元点群モデルを作成することができる。例えば、各点と広域画像の特徴点に番号が付加されており、数字が一致する点が同一点を表現する方法などが考えられる。   Finally, the result output unit can indicate where the inspection location is on the wide area image using the wide area image coordinates 1804 of the wide area image coordinate DB 408. In addition, it is possible to create a three-dimensional point cloud model in which the correspondence between the wide area image and each feature point is found. For example, there can be considered a method in which numbers are added to the points and feature points of the wide area image, and the points where the numbers match represent the same point.

実施形態1では、広域画像と精細画像の位置的な対応を取得するところで処理を終了している。実際の点検作業では、定期的に点検を行って最新の結果と過去の結果を比較することにより点検を行う。実施例1の適用により、時間的に異なるタイミングで撮影された精細画像中の点検箇所の位置を、広域画像の座標を用いて対応付けることができる。よって、点検箇所の絶対位置が移動した場合でも、現在と過去の点検箇所同士の位置合わせを行うことができ、時間的に異なる点検内容を比較することができる。   In the first embodiment, the process ends when the positional correspondence between the wide area image and the fine image is acquired. In actual inspection work, periodic inspections are performed and the latest results are compared with past results. By applying the first embodiment, the position of the inspection location in the fine image captured at different timings can be associated using the coordinates of the wide area image. Therefore, even when the absolute position of the inspection location is moved, the current and past inspection locations can be aligned, and the inspection contents that are different in time can be compared.

図19は実施形態2のブロック図である。結果出力部417の代わりに点検結果比較部801を備えている。位置の表示が実施例1では主目的であったが、実施例2では記録した位置を用いた点検結果の比較を主目的としている。   FIG. 19 is a block diagram of the second embodiment. An inspection result comparison unit 801 is provided instead of the result output unit 417. Although the display of the position was the main purpose in the first embodiment, the main purpose in the second embodiment is to compare the inspection results using the recorded positions.

実施例1では、広域画像と精細画像の特徴点マッチング部414では、広域画像と精細画像の特徴点マッチングのための領域限定を画像情報だけで処理した。通常UAV等により連続的に空撮を行って精細画像を取得する場合には、連続して撮影された精細画像の位置は近接しているため、直近の精細画像の広域画像中の位置が推定できれば、次のマッチングのための領域を推定できる。しかし、UAVやカメラの向きが突然変化した場合には、領域の限定が難しい場合がある。   In the first embodiment, the feature point matching unit 414 of the wide area image and the fine image processes the area limitation for the feature point matching of the wide area image and the fine image using only the image information. When acquiring fine images by performing continuous aerial photography using a UAV or the like, the positions of the fine images continuously shot are close to each other, so the position of the latest fine image in the wide-area image is estimated. If possible, an area for the next matching can be estimated. However, when the UAV or camera orientation changes suddenly, it may be difficult to limit the area.

そこで、UAVやカメラに、加速度センサ、磁気センサを設置し、加速度情報や磁気情報を用いることで、UAVやカメラが突然向きを変えても、撮影している向きを予測し、マッチングに用いる領域の推定誤差を修正することができる。   Therefore, by installing an acceleration sensor or magnetic sensor in the UAV or camera and using the acceleration information or magnetic information, the direction in which the UAV or camera suddenly changes direction is predicted and used for matching Can be corrected.

14001 カメラ
14002 精細画像DB
403 特徴点DB
404 マッチングDB
405 三次元点群DB
406 カメラDB
407 広域画像DB
408 広域画像座標位置DB
409 センサDB
410 精細画像処理部
411 精細画像同士の特徴点マッチング部
412 SfM部
413 位置情報記録部
414 広域画像と精細画像の特徴点マッチング部
415 広域画像座標位置計算部
416 広域画像座標位置記録部
417 結果出力部
601 初期三次元点群生成部
602 新規三次元点群追加部
603 カメラ位置推定部
604 バンドル調整部
701 特徴点マッチング領域限定部
801 点検結果比較部
14001 Camera 14002 Fine image DB
403 Feature point DB
404 Matching DB
405 3D point cloud DB
406 Camera DB
407 Wide Area Image DB
408 Wide-area image coordinate position DB
409 Sensor DB
410 Fine image processing unit 411 Feature point matching unit 412 between fine images SfM unit 413 Position information recording unit 414 Wide area image and fine image feature point matching unit 415 Wide area image coordinate position calculation unit 416 Wide area image coordinate position recording unit 417 Result output Unit 601 initial three-dimensional point group generation unit 602 new three-dimensional point group addition unit 603 camera position estimation unit 604 bundle adjustment unit 701 feature point matching region limitation unit 801 inspection result comparison unit

Claims (10)

広域画像を取得する第1のステップ、
前記広域画像より高分解能である精細画像を取得する第2のステップ、
前記精細画像から、精細画像特徴点を抽出する第3のステップ、
前記精細画像から、前記精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する第4のステップ、
前記広域画像から広域画像特徴点を抽出し、前記精細画像特徴点とマッチングを行う第5のステップ、
前記広域画像特徴点に対して、マッチングが成立した前記精細画像特徴点の三次元座標を対応付けて記録する第6のステップ、
を備える位置情報記録方法。
A first step of acquiring a wide area image;
A second step of obtaining a fine image having a higher resolution than the wide-area image;
A third step of extracting fine image feature points from the fine image;
A fourth step of generating, from the fine image, a three-dimensional point group in which three-dimensional coordinates are given to the fine image feature points;
A fifth step of extracting a wide area image feature point from the wide area image and performing matching with the fine image feature point;
A sixth step of recording the three-dimensional coordinates of the fine image feature points for which matching has been established in association with the wide-area image feature points;
A position information recording method comprising:
前記第4のステップにおいて、Visual SLAMを用いる、
請求項1記載の位置情報記録方法。
In the fourth step, Visual SLAM is used.
The position information recording method according to claim 1.
前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定する、
請求項1記載の位置情報記録方法。
In the fifth step, an area for performing the matching is limited to a part of the wide area image;
The position information recording method according to claim 1.
前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定するために、前記広域画像に含まれるマークを用いる、
請求項3記載の位置情報記録方法。
In the fifth step, in order to limit the matching area to a part of the wide area image, a mark included in the wide area image is used.
The position information recording method according to claim 3.
前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定するために、オペレータによる範囲指定を可能とする、
請求項3記載の位置情報記録方法。
In the fifth step, in order to limit the matching area to a part of the wide area image, a range can be specified by an operator.
The position information recording method according to claim 3.
前記第1のステップにおいて、空撮により広域画像を取得し、
前記第2のステップにおいて、一連の空撮により複数の精細画像を取得し、
前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定するために、前記一連の空撮を行うためのカメラの位置情報を利用する、
請求項3記載の位置情報記録方法。
In the first step, a wide area image is acquired by aerial photography;
In the second step, a plurality of fine images are obtained by a series of aerial photographs,
In the fifth step, in order to limit the matching area to a part of the wide area image, the position information of the camera for performing the series of aerial photography is used.
The position information recording method according to claim 3.
前記第5のステップにおいて、前記カメラに加速度センサおよび磁気センサのうち少なくとも一つを備え、加速度情報および磁気情報の少なくとも一つを用いて、前記カメラが撮影している領域を推定することで、前記マッチングを行う領域を前記広域画像の一部に限定する、
請求項6記載の位置情報記録方法。
In the fifth step, the camera includes at least one of an acceleration sensor and a magnetic sensor, and uses at least one of acceleration information and magnetic information to estimate a region captured by the camera, Limiting the matching area to a part of the wide area image;
The position information recording method according to claim 6.
前記第6のステップにおいて、前記広域画像特徴点の広域画像上の座標に対して、マッチングが成立した前記精細画像特徴点の三次元座標を対応付けて記録する、
請求項1記載の位置情報記録方法。
In the sixth step, the coordinates on the wide area image of the wide area image feature points are recorded in association with the three-dimensional coordinates of the fine image feature points that have been matched.
The position information recording method according to claim 1.
前記第2のステップにおいて、同一の対象物に対して異なる時間タイミングで精細画像を取得し、前記異なる時間タイミングにおいて前記対象物の絶対位置が変化しており、
前記第6のステップで記録した情報に基づいて、前記対象物の時間的変化を検知する、
請求項8記載の位置情報記録方法。
In the second step, fine images are acquired at different time timings for the same object, and the absolute position of the object is changing at the different time timings,
Detecting a temporal change of the object based on the information recorded in the sixth step;
The position information recording method according to claim 8.
広域画像を取得する広域画像取得部と、
前記広域画像より高分解能である精細画像を取得する精細画像取得部と、
前記精細画像から精細画像特徴点を抽出し、前記精細画像から前記精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する精細画像処理部と、
前記広域画像から広域画像特徴点を抽出し、前記精細画像特徴点とマッチングを行い、前記広域画像特徴点に対して、マッチングが成立した前記精細画像特徴点の三次元座標を対応付けて記録する位置情報記録部、
を備える位置情報記録装置。
A wide area image acquisition unit for acquiring a wide area image;
A fine image acquisition unit for acquiring a fine image having a higher resolution than the wide-area image;
A fine image processing unit that extracts a fine image feature point from the fine image and generates a three-dimensional point group that gives a three-dimensional coordinate to the fine image feature point from the fine image;
A wide-area image feature point is extracted from the wide-area image, matched with the fine-image feature point, and the three-dimensional coordinates of the fine-image feature point that has been matched are recorded in association with the wide-area image feature point. Location information recording section,
A position information recording apparatus comprising:
JP2017152817A 2017-08-08 2017-08-08 Location information recording method and equipment Active JP6877293B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017152817A JP6877293B2 (en) 2017-08-08 2017-08-08 Location information recording method and equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017152817A JP6877293B2 (en) 2017-08-08 2017-08-08 Location information recording method and equipment

Publications (2)

Publication Number Publication Date
JP2019032218A true JP2019032218A (en) 2019-02-28
JP6877293B2 JP6877293B2 (en) 2021-05-26

Family

ID=65523374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017152817A Active JP6877293B2 (en) 2017-08-08 2017-08-08 Location information recording method and equipment

Country Status (1)

Country Link
JP (1) JP6877293B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166741A (en) * 2019-03-29 2020-10-08 スターティアラボ株式会社 Image processing device for ar, image processing system, and program
JP2020183873A (en) * 2019-04-26 2020-11-12 コムシス情報システム株式会社 Aerial shoot image position specification system and aerial shoot image position specification method
CN111964649A (en) * 2020-08-21 2020-11-20 武汉原点勘测设计工程有限公司 Terrain information acquisition method based on unmanned aerial vehicle remote sensing
JP2020197797A (en) * 2019-05-31 2020-12-10 株式会社東芝 Image processing device and image processing method
JP2021032650A (en) * 2019-08-22 2021-03-01 Automagi株式会社 Degraded state detector and degraded state detection method
JP2021065087A (en) * 2019-04-26 2021-04-22 コムシス情報システム株式会社 Aerial photography image identification system and aerial photography image identification method
JP7447234B1 (en) 2022-12-26 2024-03-11 楽天グループ株式会社 Information processing device, information processing method, and information processing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014007762A1 (en) * 2012-07-04 2014-01-09 Tan Seow Loong A method and system for automated monitoring of traffic
JP2014006148A (en) * 2012-06-25 2014-01-16 Topcon Corp Aerial photographing method and aerial photographing system
JP2016194515A (en) * 2015-04-01 2016-11-17 Terra Drone株式会社 Imaging method of image for point group data generation, and point group data generation method using image
JP2017053795A (en) * 2015-09-11 2017-03-16 株式会社リコー Information processing apparatus, position attitude measurement method, and position attitude measurement program
WO2017057362A1 (en) * 2015-10-01 2017-04-06 富士フイルム株式会社 Drawing creation device and drawing creation method
JP2017130049A (en) * 2016-01-20 2017-07-27 キヤノン株式会社 Image processor, image processing method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006148A (en) * 2012-06-25 2014-01-16 Topcon Corp Aerial photographing method and aerial photographing system
WO2014007762A1 (en) * 2012-07-04 2014-01-09 Tan Seow Loong A method and system for automated monitoring of traffic
JP2016194515A (en) * 2015-04-01 2016-11-17 Terra Drone株式会社 Imaging method of image for point group data generation, and point group data generation method using image
JP2017053795A (en) * 2015-09-11 2017-03-16 株式会社リコー Information processing apparatus, position attitude measurement method, and position attitude measurement program
WO2017057362A1 (en) * 2015-10-01 2017-04-06 富士フイルム株式会社 Drawing creation device and drawing creation method
JP2017130049A (en) * 2016-01-20 2017-07-27 キヤノン株式会社 Image processor, image processing method and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166741A (en) * 2019-03-29 2020-10-08 スターティアラボ株式会社 Image processing device for ar, image processing system, and program
JP2020183873A (en) * 2019-04-26 2020-11-12 コムシス情報システム株式会社 Aerial shoot image position specification system and aerial shoot image position specification method
JP2021065087A (en) * 2019-04-26 2021-04-22 コムシス情報システム株式会社 Aerial photography image identification system and aerial photography image identification method
JP2020197797A (en) * 2019-05-31 2020-12-10 株式会社東芝 Image processing device and image processing method
JP7292979B2 (en) 2019-05-31 2023-06-19 株式会社東芝 Image processing device and image processing method
JP2021032650A (en) * 2019-08-22 2021-03-01 Automagi株式会社 Degraded state detector and degraded state detection method
JP7290510B2 (en) 2019-08-22 2023-06-13 Automagi株式会社 Deterioration state detection device and deterioration state detection method
CN111964649A (en) * 2020-08-21 2020-11-20 武汉原点勘测设计工程有限公司 Terrain information acquisition method based on unmanned aerial vehicle remote sensing
JP7447234B1 (en) 2022-12-26 2024-03-11 楽天グループ株式会社 Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
JP6877293B2 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
JP6877293B2 (en) Location information recording method and equipment
CN110568447B (en) Visual positioning method, device and computer readable medium
CN109658461B (en) Unmanned aerial vehicle positioning method based on cooperation two-dimensional code of virtual simulation environment
US9420265B2 (en) Tracking poses of 3D camera using points and planes
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
JP6370038B2 (en) Position and orientation measurement apparatus and method
JP2011179908A (en) Three-dimensional measurement apparatus, method for processing the same, and program
JP2016197287A (en) Information processing apparatus, information processing method, and program
JP5439277B2 (en) Position / orientation measuring apparatus and position / orientation measuring program
CN115423863B (en) Camera pose estimation method and device and computer readable storage medium
CN115345942A (en) Space calibration method and device, computer equipment and storage medium
CN116295279A (en) Unmanned aerial vehicle remote sensing-based building mapping method and unmanned aerial vehicle
CN115018920A (en) Camera array calibration method and device, electronic equipment and storage medium
WO2020133080A1 (en) Object positioning method and apparatus, computer device, and storage medium
JP2018173882A (en) Information processing device, method, and program
JP2007025863A (en) Photographing system, photographing method, and image processing program
JP6228239B2 (en) A method for registering data using a set of primitives
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
CN109389645B (en) Camera self-calibration method and system, camera, robot and cloud server
JP5885974B2 (en) Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data
KR102576449B1 (en) Device and method of image registration for 3d models
JP6861592B2 (en) Data thinning device, surveying device, surveying system and data thinning method
Liebold et al. Integrated Georeferencing of LIDAR and Camera Data acquired from a moving platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6877293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150