JP6770826B2 - Automatic collimation method and automatic collimation device for measuring the placement position of structures - Google Patents
Automatic collimation method and automatic collimation device for measuring the placement position of structures Download PDFInfo
- Publication number
- JP6770826B2 JP6770826B2 JP2016093484A JP2016093484A JP6770826B2 JP 6770826 B2 JP6770826 B2 JP 6770826B2 JP 2016093484 A JP2016093484 A JP 2016093484A JP 2016093484 A JP2016093484 A JP 2016093484A JP 6770826 B2 JP6770826 B2 JP 6770826B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- measuring
- target
- data
- automatic collimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、測定対象物の形状、配置位置を特定する
構造物の配置位置測定用の自動視準方法及び自動視準装置に関する。詳しくは、撮像装置により測定対象物を撮像した撮像画像の中から画像処理を行い特定の色彩、形状を認識し、その測定対象物の配置位置を特定する構造物の配置位置測定用の自動視準方法及び自動視準装置に関する。
The present invention specifies the shape and placement position of the object to be measured.
The present invention relates to an automatic collimation method and an automatic collimation device for measuring the arrangement position of a structure . Specifically, automatic vision for measuring the placement position of a structure that performs image processing from the captured image obtained by capturing the measurement target with an imaging device, recognizes a specific color and shape, and specifies the placement position of the measurement target. Regarding quasi-methods and automatic collimation devices.
近年は、画像認識技術による3次元画像の認識精度が高度化しており、写真の中の人間の顔認識から、建築物等の構造物の認識まで高い精度で認識できるようになっている。また、物体までの距離を測定するためのトータルステーションをはじめとする測量機器は、レーザ光を用いて距離を測定する距離測定手段の他に、ディジタルカメラを搭載している機種が存在する。このディジタルカメラは、測定方向を撮影し、その画像を用いて、測量機器で測定方向設定や視準等に用いられる望遠鏡の代わりに利用される。 In recent years, the recognition accuracy of three-dimensional images by image recognition technology has become more sophisticated, and it has become possible to recognize from human face recognition in photographs to recognition of structures such as buildings with high accuracy. Further, as a measuring device such as a total station for measuring a distance to an object, there are models equipped with a digital camera in addition to a distance measuring means for measuring a distance using a laser beam. This digital camera captures the measurement direction and uses the image to be used in place of the telescope used for setting the measurement direction, collimation, etc. in the surveying instrument.
よって、測量機器は、距離や方角を測定した測定データだけでなく、ディジタルカメラで撮影された静止画、動画の画像データをストリーミングすることができる。撮影装置で撮影された画像を処理し、撮影された物体の形状を認識し識別する技術が広く利用されている。例えば、撮影画像の背景からターゲット領域を識別し、ターゲット領域内にある視準用及び傾斜測定用のマーク図形を検出する技術が従来から知られている(特許文献1を参照)。このとき、ターゲットが傾いても、その色や形状の検知や識別が可能である。 Therefore, the surveying device can stream not only the measurement data obtained by measuring the distance and the direction, but also the image data of the still image and the moving image taken by the digital camera. A technique of processing an image taken by a photographing device and recognizing and identifying the shape of the photographed object is widely used. For example, a technique for identifying a target area from the background of a captured image and detecting a mark figure for collimation and inclination measurement in the target area has been conventionally known (see Patent Document 1). At this time, even if the target is tilted, its color and shape can be detected and identified.
しかしながら、従来の測量機器は、測定機能と撮影機能を組み合わせて、測定対象物を撮影した画像を形状認識し、その中の物体の位置ずれを計算して提供していない。
本発明の目的は、測量機器の測定機能と撮影機能を組み合わせて、測定対象物を撮影した画像を形状認識し、形状認識した物体の位置を特定するための構造物の配置位置測定用の自動視準方法及び自動視準装置を提供する。
However, conventional surveying instruments do not combine a measurement function and a photographing function to recognize the shape of an image obtained by photographing an object to be measured, and calculate and provide a displacement of an object in the image.
An object of the present invention is to combine the measurement function and the photographing function of a measuring device to automatically recognize the shape of an image of a measurement object and to measure the placement position of a structure for identifying the position of the shape-recognized object. A collimation method and an automatic collimation device are provided.
本発明の他の目的は、測量機器の測定機能と撮影機能を組み合わせて、測定対象物を撮影した画像を形状認識し、形状認識した物体が設計上の設置位置から位置ずれを特定するための構造物の配置位置測定用の自動視準方法及び自動視準装置を提供する。
Another object of the present invention is to combine the measurement function and the photographing function of the measuring device to recognize the shape of the photographed image of the object to be measured, and to identify the position deviation of the shape-recognized object from the design installation position. An automatic collimation method and an automatic collimation device for measuring the arrangement position of a structure are provided.
本発明の発明1の構造物の配置位置測定用の自動視準方法は、
水平軸及び鉛直軸を中心として揺動可能な撮像装置を搭載した測量機器と、
前記撮像装置により撮像された撮像画像の中から画像処理を行い特定の色彩、形状を認識可能な画像・演算処理手段と、
構造物の設定データを予め記憶するための記憶手段と
からなる自動視準装置により測定対象物の配置位置を測定するための構造物の配置位置測定用の自動視準方法であって、
前記構造物を構成する一平面に、予め設定された2次元の外形形状を有する標的を貼付し、
前記画像・演算処理手段により、前記撮像装置により撮影した撮影データを自動的に画像認識することで前記標的を認識し特定して、かつ、前記標的が貼られている断面を認識し、前記断面の中央位置を推定して、
前記測量機器により、前記中央位置の距離と方位データを測定して測定データを得て、
前記画像・演算処理手段により、前記設定データと前記測定データを対比し、前記構造物の位置変位を計算して出力する
ことを特徴とする。
The automatic collimation method for measuring the arrangement position of the structure according to the first aspect of the present invention is
A surveying instrument equipped with an imaging device that can swing around the horizontal and vertical axes,
An image / arithmetic processing means capable of recognizing a specific color and shape by performing image processing from the captured image captured by the imaging device.
It is an automatic collimation method for measuring the arrangement position of a structure for measuring the arrangement position of a measurement object by an automatic collimation device including a storage means for storing the setting data of the structure in advance.
A target having a preset two-dimensional outer shape is attached to one plane constituting the structure.
Wherein the image-processing means, the target recognition to identify to the by automatically image recognition of the picture taken by the imaging device, and recognizes a section in which the target is stuck, the Estimate the center position of the cross section
With the surveying instrument, the distance and orientation data at the center position are measured to obtain the measurement data.
The image / arithmetic processing means is used to compare the set data with the measurement data, calculate the positional displacement of the structure, and output the data.
本発明の発明2の構造物の配置位置測定用の自動視準方法は、発明1において、
前記測定データをディスプレイに前記設定データに重ねて表示する
ことを特徴とする。
The automatic collimation method for measuring the arrangement position of the structure according to the invention 2 of the present invention is described in the invention 1.
And displaying the measurement data superimposed on the setting data to the display.
本発明の発明3の構造物の配置位置測定用の自動視準方法は、発明1又は2において、
前記構造物は、3次元の物体である
ことを特徴とする。
The automatic collimation method for measuring the arrangement position of the structure according to the invention 3 of the present invention is described in the invention 1 or 2 .
The structure is characterized by being a three- dimensional object .
本発明の発明4の構造物の配置位置測定用の自動視準装置自動視準装置は、
水平軸及び鉛直軸を中心として揺動可能な撮像装置を搭載した測量機器と、
前記撮像装置により撮像された撮像画像の中から画像処理を行い特定の色彩、形状を認識可能な画像・演算処理手段と、
構造物の設定データを予め記憶するための記憶手段と
からなり、測定対象物の配置位置を測定するための構造物の配置位置測定用の自動視準装置であって、
前記画像・演算処理手段は、
前記撮像画像から、前記構造物に貼付された標的を検出するために、該標的の形状を設定する形状設定部と、
前記形状設定部に基づいて前記標的を自動的に画像認識して識別する標的画像識別部と
を有し、
前記画像・演算処理手段は、前記標的が貼られている前記構造物の断面を認識し、前記断面の中央位置を推定する機能を有し、
前記測量機器は、前記中央位置の距離と方位データを測定して測定データを出力する機能を有し、
前記画像・演算処理手段は、前記設定データと前記測定データを対比し、前記構造物の位置変位を計算して出力する機能を有する
ことを特徴とする。
The automatic collimation device for measuring the arrangement position of the structure according to the invention 4 of the present invention.
A surveying instrument equipped with an imaging device that can swing around the horizontal and vertical axes,
An image / arithmetic processing means capable of recognizing a specific color and shape by performing image processing from the captured image captured by the imaging device.
It consists of a storage means for storing the setting data of the structure in advance, and is an automatic collimation device for measuring the arrangement position of the structure for measuring the arrangement position of the object to be measured.
The image / arithmetic processing means is
A shape setting unit that sets the shape of the target in order to detect the target attached to the structure from the captured image.
It has a target image identification unit that automatically recognizes and identifies the target based on the shape setting unit.
The image / arithmetic processing means has a function of recognizing a cross section of the structure to which the target is attached and estimating the center position of the cross section.
The surveying instrument has a function of measuring the distance and direction data of the central position and outputting the measurement data.
The image / calculation processing means has a function of comparing the setting data with the measurement data, calculating the position displacement of the structure, and outputting the data.
本発明の発明5の構造物の配置位置測定用の自動視準装置は、発明4において、
前記撮像画像から、前記標的を検出するために、色彩を設定する検出色彩設定部と、
前記検出色彩設定部に基づいて前記標的を識別する前記標的画像識別部と
を有する
ことを特徴とする。
The automatic collimation device for measuring the arrangement position of the structure according to the invention 5 of the present invention is described in the invention 4 .
A detection color setting unit that sets a color in order to detect the target from the captured image,
It is characterized by having the target image identification unit that identifies the target based on the detection color setting unit.
本発明の発明6の構造物の配置位置測定用の自動視準装置は、発明4又は5において、
前記画像・演算処理手段は、
前記撮像画像から標的画像を検出する標的画像検出手段と、
前記標的画像の中心点を演算する標的画像中心点演算手段と
を有することを特徴とする。
The automatic collimation device for measuring the arrangement position of the structure according to the invention 6 of the present invention is described in the invention 4 or 5.
The image / arithmetic processing means is
A target image detecting means for detecting a target image from the captured image,
It is characterized by having a target image center point calculation means for calculating the center point of the target image.
本発明の発明7の構造物の配置位置測定用の自動視準装置は、発明4乃至6において、
前記構造物は、3次元の物体である
ことを特徴とする。
The automatic collimation device for measuring the arrangement position of the structure according to the invention 7 of the present invention is described in the inventions 4 to 6 .
The structure is characterized by being a three- dimensional object .
本発明によれば、測量機器で搭載された撮影装置で、測定対象物体を認識し、測定対象物体が設計位置からの位置変位を把握することができた。
本発明によれば、測定対象物に付けたマークを、測量機器で搭載された撮影装置で撮影した画像から認識して、その位置を特定することが可能になった。これにより、測定対象物の位置を把握することが可能になった。
According to the present invention, the imaging device mounted on the surveying device can recognize the object to be measured and grasp the displacement of the object to be measured from the design position.
According to the present invention, it has become possible to recognize a mark attached to a measurement object from an image taken by a photographing device mounted on a surveying instrument and specify the position thereof. This makes it possible to grasp the position of the object to be measured.
以下、本発明の構造物の配置位置測定用の自動視準方法及び自動視準装置の第1の実施の形態を、図面を参照しながら説明する。図1は、本発明の第1の実施の形態の構造物の配置位置測定用の自動視準装置1(以下、自動視準装置1という。)の運営状況を示す概念図である。自動視準装置1は、構造物が設計位置からずれているか否か測定するための装置である。自動視準装置1は、構造物までの距離を測定するための測量機器2と、それに内蔵された撮影装置3、及び撮影データを分析するための計算機4等からなる。 Hereinafter, the first embodiment of the automatic collimation method and the automatic collimation device for measuring the arrangement position of the structure of the present invention will be described with reference to the drawings. FIG. 1 is a conceptual diagram showing an operating state of an automatic collimation device 1 (hereinafter, referred to as an automatic collimation device 1) for measuring the arrangement position of a structure according to the first embodiment of the present invention. The automatic collimation device 1 is a device for measuring whether or not the structure deviates from the design position. The automatic collimation device 1 includes a surveying device 2 for measuring a distance to a structure, a photographing device 3 built therein, a computer 4 for analyzing imaging data, and the like.
具体的には、撮影装置3によって、構造物又はその方面を撮影して撮影データを得る。計算機4で、この撮影データを分析して、撮影データに映っている構造物を画像認識し、その方角を測量機器2にフィードバックし、測量機器2はその構造物までの距離等を測定する。この測定結果を用いて、撮影装置3は、最終的に構造物が設計位置にあるか否かを計算し、設計位置からのずれを出力する。 Specifically, the imaging device 3 photographs the structure or its direction to obtain imaging data. The computer 4 analyzes the photographed data, recognizes the image of the structure reflected in the photographed data, feeds back the direction to the measuring device 2, and the measuring device 2 measures the distance to the structure and the like. Using this measurement result, the photographing apparatus 3 finally calculates whether or not the structure is in the design position, and outputs the deviation from the design position.
構造物は、基本的に、本実施の形態において、所定の大きさを有して、空間に設置されているあらゆる3次元の物体をいう。建築等の建造物、その一部分、その鋼製部材等も構造物として取り扱う。また、構造物として、2次元に印刷された標識、画像も利用する。
構造物は、基本的に、その設計通りに、空間の所定の位置に設置される。しかし、構造物は、設計通りの設置位置からずれることがある。
A structure basically refers to any three-dimensional object having a predetermined size and installed in a space in the present embodiment. Buildings such as buildings, parts of them, and their steel members are also treated as structures. In addition, two-dimensionally printed signs and images are also used as structures.
The structure is basically installed in place in the space as designed. However, the structure may deviate from the designed installation position.
その原因は、地下変動、環境変化等の変化に起因するものから、構造物の老化、負荷による変化によるものもある。また、構造物を設置するとき人間又は機械の設置作業の作業ミス、誤差、誤動作等で設置位置からずれることがある。さらに、構造物の製造時又は建設時にも製造ミス等によって、構造物の寸法が設計通りにならず、結果的に、設置するとき、設計位置にならないでずれることになる。これらの原因によって、構造物が設計通りの設置位置からずれることを、以下では、構造物の位置変位又は単に変位という。 The cause may be due to changes such as underground fluctuations and environmental changes, and may be due to changes due to aging of structures and loads. In addition, when installing a structure, it may deviate from the installation position due to work mistakes, errors, malfunctions, etc. in the installation work of humans or machines. Further, the dimensions of the structure do not match the design due to a manufacturing error or the like at the time of manufacturing or construction of the structure, and as a result, when the structure is installed, the structure does not reach the design position and shifts. The deviation of the structure from the design installation position due to these causes is hereinafter referred to as the positional displacement of the structure or simply the displacement.
以下、構造物を断面が四角形の棒を例に説明する。図1の例において、構造物は、参照参照番号10で示している四角棒の一端になっている。この四角棒10の断面が四角形、この例では長方形であり、その一端の端面10aは長方形になっている。複数の四角棒10が並んで配置されており、通常の建造物等の構造物においては、端面10aは、一直線上に配置される。例えば、端面10aの下側の一辺が線11の上に並んで配置されている。 Hereinafter, the structure will be described by taking a rod having a quadrangular cross section as an example. In the example of FIG. 1, the structure is one end of the square bar indicated by reference numeral 10. The cross section of the square bar 10 is a rectangle, in this example, a rectangle, and the end face 10a at one end thereof is a rectangle. A plurality of square bars 10 are arranged side by side, and in a structure such as a normal building, the end faces 10a are arranged in a straight line. For example, one lower side of the end face 10a is arranged side by side on the line 11.
しかし、四角棒10の設置作業等によって、設置すべき位置である設計位置から外れて設置されること、又は、設置後に何らかの原因で設置位置が変位することがあり、言い換えると、四角棒10の位置が変位している。この例は、図1の中で、位置変位しているものは、四角棒10bで図示している。四角棒10bは、設計位置から変位している。四角棒10bの設計位置は、破線の四角棒10cで図示している。よって、四角棒10bの端面10dは、他の四角棒10の端面10aからは変位し、線11から変位している。 However, due to the installation work of the square bar 10, the installation position may be displaced from the design position, which is the position to be installed, or the installation position may be displaced for some reason after installation. In other words, the square bar 10 The position is displaced. In this example, in FIG. 1, the position-displaced one is illustrated by a square bar 10b. The square bar 10b is displaced from the design position. The design position of the square bar 10b is illustrated by the broken line square bar 10c. Therefore, the end face 10d of the square bar 10b is displaced from the end face 10a of the other square bar 10 and is displaced from the line 11.
本発明の第1の実施の形態の自動視準装置1は、このような構造物を撮影し、それを自動的に画像認識し、測定を行って、測定値と設計値を比較してその変位を計算して出力するものである。画像認識は、測定対象の構造物をそのまま又はその一部を撮影データから画像認識する第1方法と、構造物に所定のマークを予め貼り付けて、そのマークを撮影データから認識する第2方法を採用する。 The automatic collimation device 1 according to the first embodiment of the present invention photographs such a structure, automatically recognizes the image, performs measurement, compares the measured value with the design value, and obtains the same. It calculates and outputs the displacement. Image recognition is a first method of recognizing an image of a structure to be measured as it is or a part thereof from shooting data, and a second method of attaching a predetermined mark to the structure in advance and recognizing the mark from the shooting data. Is adopted.
本発明の第1の実施の形態の自動視準装置1は、この第1方法又は第2方法を単独で利用することができるが、この両方法を組み合わせて利用することもできる。第2方法の場合、図1の例では、マークとして、三角形のマーク12を採用している。マーク12は、基本的に数字、幾何学的図形、画像、それらの組み合わせ等の任意のマークを利用することができる。マークは、任意の色を有することができるが、人間の目で見やすい赤色、黄色、オレンジ色等の色が好ましい。 The automatic collimation device 1 according to the first embodiment of the present invention can use the first method or the second method alone, but can also use both methods in combination. In the case of the second method, in the example of FIG. 1, a triangular mark 12 is adopted as a mark. As the mark 12, basically any mark such as numbers, geometric figures, images, and combinations thereof can be used. The mark can have any color, but colors such as red, yellow, and orange that are easy for the human eye to see are preferable.
例えば、図1に図示している複数の四角棒10の断面10aと四角棒10bの断面10dの略中央にマーク12が貼り付けられている。破線で図示した四角棒10cは、四角棒10bの本来の設置位置(設計上の位置)に設置したものである。四角棒10cと四角棒10bの位置変位は、マーク12を利用して、本発明で求める位置変位である。 For example, the mark 12 is attached to the substantially center of the cross section 10a of the plurality of square bars 10 and the cross section 10d of the square bars 10b shown in FIG. The square bar 10c shown by the broken line is installed at the original installation position (design position) of the square bar 10b. The positional displacement of the square bar 10c and the square bar 10b is the positional displacement obtained in the present invention by using the mark 12.
そのため、構造物の撮影映像から、マーク12を認識しその位置も認識して、その後、それが貼り付けられている構造物を画像認識し、最終的に、構造物及び/又はマーク12までの距離を測定して、位置変位を計算する。又は、構造物の映像から、マーク12を認識し、マーク12の周囲の構造物とその位置を画像認識して推定し、最終的に、構造物までの距離を測定して、位置変位を計算する。以下、測量機器2の構造及びその動作の概要を説明してから、画像認識及び位置変位の計算の詳細について説明する。 Therefore, the mark 12 is recognized and its position is also recognized from the photographed image of the structure, and then the structure to which it is attached is image-recognized, and finally the structure and / or the mark 12 is reached. Measure the distance and calculate the position displacement. Alternatively, the mark 12 is recognized from the image of the structure, the structure around the mark 12 and its position are image-recognized and estimated, and finally, the distance to the structure is measured and the position displacement is calculated. To do. Hereinafter, the structure of the surveying instrument 2 and the outline of its operation will be described, and then the details of image recognition and calculation of position displacement will be described.
自動視準装置1は、構造物を撮影し、マーク12を認識し、構造物のマーク12までの距離を測量機器2で計測し、撮影データの分析結果及び、計測されたデータを計算機4の表示器としてのディスプレイ9に表示する。ディスプレイ9には、構造物の設計値、計測データ、この設計値と計測データの変位値等を見やすく表示する。例えば、図1に図示したように、設計値である四角棒10cと実際の設置結果である四角棒10d、その変位値を表示する。これにより、現場の管理者に見やすくなり、工事の進め具合を把握しやすくなる。 The automatic collimation device 1 photographs the structure, recognizes the mark 12, measures the distance to the mark 12 of the structure with the measuring device 2, and analyzes the photographed data and the measured data of the computer 4. It is displayed on the display 9 as a display device. The display 9 displays the design value of the structure, the measurement data, the displacement value of the design value and the measurement data, and the like in an easy-to-see manner. For example, as shown in FIG. 1, the square bar 10c which is the design value, the square bar 10d which is the actual installation result, and the displacement value thereof are displayed. This makes it easier for site managers to see and understand the progress of construction.
現場の管理者は、ディスプレイ9上に表示されている構造物を見ながら、設計値に合うように、又は、予め設定した基準値に合うように工事を進める。測量機器2は、図1に図示したように測定対象の構造物の付近に、特に、測定対象の構造物やその測定対象部位の全体がはっきり見える箇所に、設置される。測量機器2は、三脚5に搭載されて設置される。計算機4は、測量機器2の近傍に設置され又は作業者が持参し、作業者が操作する。測量機器2と計算機4は、互いに双方向通信を行うための通信機能を有する。 While looking at the structure displayed on the display 9, the site manager proceeds with the construction so as to meet the design value or the preset reference value. As shown in FIG. 1, the surveying instrument 2 is installed in the vicinity of the structure to be measured, particularly in a place where the structure to be measured and the entire measurement target portion can be clearly seen. The surveying instrument 2 is mounted on a tripod 5 and installed. The computer 4 is installed in the vicinity of the surveying instrument 2 or brought by an operator and operated by the operator. The surveying instrument 2 and the computer 4 have a communication function for bidirectional communication with each other.
本発明の第1の実施の形態において、測量機器2は計算機4と無線双方向通信を行っているが、測量機器2と計算機4が通信ケーブル等で接続される有線通信機能を、測量機器2が備えても良い。測量機器2は、無線通信をするためのアンテナ8を備えている。計算機4は、無線通信をするための内蔵アンテナ(図示せず。)を内蔵している。測量機器2は、アンテナ8と計算機4の内蔵アンテナを介して、計算機4と通信する。 In the first embodiment of the present invention, the surveying device 2 performs wireless bidirectional communication with the computer 4, but the surveying device 2 provides a wired communication function in which the surveying device 2 and the computer 4 are connected by a communication cable or the like. May be prepared. The surveying instrument 2 includes an antenna 8 for wireless communication. The computer 4 has a built-in antenna (not shown) for wireless communication. The surveying instrument 2 communicates with the computer 4 via the antenna 8 and the built-in antenna of the computer 4.
測量機器2と計算機4との通信は、例えば、無線LAN(Local Area Network)、Wi−Fi(登録商標)、Bluetooth(登録商標)等の汎用の無線通信方式を用いる。本例では、無線LANを例に説明する。また、計算機4は、内蔵アンテナを介して、管理センター(図示せず。)と通信することもできる。管理センターは、計算機4、測量機器2等を含み自動視準装置1の全体の運営を管理するところである。測量機器2は、レーザ光を発生させて計測対象物へ照射し、このレーザ光が計測対象物で反射してきた反射レーザ光を検出して、計測を行う。 For communication between the surveying device 2 and the computer 4, for example, a general-purpose wireless communication method such as a wireless LAN (Local Area Network), Wi-Fi (registered trademark), or Bluetooth (registered trademark) is used. In this example, a wireless LAN will be described as an example. The computer 4 can also communicate with the management center (not shown) via the built-in antenna. The management center manages the entire operation of the automatic collimation device 1 including the computer 4, the surveying instrument 2, and the like. The surveying instrument 2 generates a laser beam and irradiates the measurement object with the laser beam, detects the reflected laser beam reflected by the measurement object, and performs measurement.
レーザ光は、対象物に測量機器2からほぼ直線状に照射されて反射されるもので、図1の中で測量機器2から伸びている破線で図示しており、この破線の先端は、到達点を示すために矢印が付いている。測量機器2としては、トータルステーションに代表されるように汎用の装置を利用する。トータルステーションとしては、Leica Geosystems AG(本社:Heerbrugg, Canton St. Gallen, Switzerland)のLeica Nova TMシリーズ(例えば、TM50乃至TM60機種)が利用することが例示できる。 The laser beam is reflected by irradiating the object with the surveying instrument 2 in a substantially linear shape, and is shown by a broken line extending from the surveying instrument 2 in FIG. 1, and the tip of the broken line reaches. An arrow is attached to indicate a point. As the surveying instrument 2, a general-purpose device such as a total station is used. As a total station, the Leica Nova TM series (for example, TM50 to TM60 models) of Leica Geosystems AG (Headquarters: Heerbrugg, Canton St. Gallen, Switzerland) can be exemplified.
この装置は、視準同軸の望遠鏡カメラを内蔵している。説明する測量機器2の構造に関しては、汎用の構造であり、構造部の詳細な違いがあっても、同じ機能を実現できるものであれば、公知の任意の測定装置、計測装置、測距装置、測量装置等の装置が利用できる。以下、測量機器2の構造概要、計測の方法等について簡単に説明し、その詳細な構造及び計測の方法については汎用の機器のため省略する。測量機器2は、レーザ光(位相)検出距離計算器(図示せず。)を備えている。 This device has a built-in telescope camera with coaxial collimation. The structure of the surveying instrument 2 to be described is a general-purpose structure, and any known measuring device, measuring device, or distance measuring device can be used as long as the same function can be realized even if there are detailed differences in the structural parts. , Surveying equipment and other equipment can be used. Hereinafter, the structural outline of the surveying instrument 2, the measuring method, and the like will be briefly described, and the detailed structure and the measuring method will be omitted because they are general-purpose instruments. The surveying instrument 2 includes a laser beam (phase) detection distance calculator (not shown).
レーザ光検出距離計算器は、投射レーザ光を発振するためのレーザ投射器6と、レーザ投射器6の投射方向に対応する2次元角度に光軸を制御するための2軸回転サーボ機構7と、レーザ投射角度をプログラムに従って制御するレーザ投射角度電子制御系(図示せず。)と、反射して戻ったレーザ光を検出し位相を計測する光波位相解析距離計算器(図示せず。)とを備えている。 The laser light detection distance calculator includes a laser projector 6 for oscillating the projected laser light, and a two-axis rotation servo mechanism 7 for controlling the optical axis to a two-dimensional angle corresponding to the projection direction of the laser projector 6. , A laser projection angle electronic control system (not shown) that controls the laser projection angle according to a program, and a light wave phase analysis distance calculator (not shown) that detects the reflected and returned laser beam and measures the phase. Is equipped with.
レーザ投射器6から投射される投射レーザ光が計測対象点(図示せず。)で反射して戻った反射レーザ光は、光波位相解析距離計算器で受信される。光波位相解析距離計算器は、反射レーザ光と投射レーザ光に夫々対応する位相の差に基づいて、測量機器2に設定されている機械的原点(基準点)と計測対象点の間の距離(R)を計算し、計測データとして出力する。計測データは、3次元極座標データ(R,θx,θy)を有し、2次元角度座標(θx,θy)に対応して距離Rが計測されているので、その3次元極座標データの内の距離データRは、R(θx,θy)として表される。 The reflected laser light projected from the laser projector 6 is reflected at the measurement target point (not shown) and returned, and is received by the light wave phase analysis distance calculator. The light wave phase analysis distance calculator is based on the phase difference corresponding to the reflected laser light and the projected laser light, respectively, and the distance (reference point) between the mechanical origin (reference point) set in the surveying instrument 2 and the measurement target point ( R) is calculated and output as measurement data. Since the measurement data has three-dimensional polar coordinate data (R, θx, θy) and the distance R is measured corresponding to the two-dimensional angular coordinates (θx, θy), the distance within the three-dimensional polar coordinate data. The data R is represented as R (θx, θy).
3次元極座標データ(R,θx,θy)は、レーザ投射角度電子制御系から出力される2次元角度データ(θx,θy)と、光波位相解析距離計算器から出力される距離データRとを合成する3次元極座標データ作成器により作成される。 The three-dimensional polar coordinate data (R, θx, θy) is a combination of the two-dimensional angle data (θx, θy) output from the laser projection angle electronic control system and the distance data R output from the light wave phase analysis distance calculator. It is created by the 3D polar coordinate data creator.
測量機器2は、計測された計測データを計算機4へ送信する。計算機4は、図示しないが、中央処理装置(以下、CPUという)、主記憶装置(RAM)、ROM、通信バス、入力装置、出力装置としての表示器であるディスプレイ9、各種通信インターフェースを備えた電子計算機である。本発明の第1の実施の形態においては、計算機4の本体は、CPU、RAM、ROM、通信バス、各種通信インターフェースからなる。また、計算機4の本体は、内蔵及び/又は外付けのハードディスク、不揮発性メモリ等の補助記憶装置を有する。 The surveying instrument 2 transmits the measured measurement data to the computer 4. Although not shown, the computer 4 includes a central processing unit (hereinafter referred to as a CPU), a main storage device (RAM), a ROM, a communication bus, an input device, a display 9 which is a display as an output device, and various communication interfaces. It is an electronic computer. In the first embodiment of the present invention, the main body of the computer 4 includes a CPU, RAM, ROM, a communication bus, and various communication interfaces. Further, the main body of the computer 4 has an auxiliary storage device such as an internal and / or external hard disk and a non-volatile memory.
この補助記憶装置は、図示していないが所定のインターフェースで通信バスに接続され、アプリケーションソフトウェアが格納されている。本発明の第1の実施の形態の自動視準装置1は、計算機4上に動作する自動視準管理プログラム13を有する。自動視準管理プログラム13は、計算機4を制御し動作させることで、設計データを読み込む機能、撮影データを分析し、画像認識する機能、測定結果を設計データと比較し位置変位を計算する機能、計算結果をディスプレイ9上に表示する機能を計算機4に実現させるアプリケーションプログラムである。 Although not shown, this auxiliary storage device is connected to a communication bus by a predetermined interface and stores application software. The automatic collimation device 1 according to the first embodiment of the present invention has an automatic collimation management program 13 that operates on a computer 4. The automatic collimation management program 13 controls and operates a computer 4, has a function of reading design data, a function of analyzing shooting data and recognizing an image, and a function of comparing measurement results with design data to calculate position displacement. This is an application program that allows the computer 4 to realize a function of displaying the calculation result on the display 9.
自動視準管理プログラム13は、通常、計算機4の補助記憶装置に格納されていて、計算機4で自動的に起動して、又は、管理者によって手動で稼働して動作する。しかし、自動視準管理プログラム13は、計算機4とネットワークを介して接続された他の電子計算機、ネットワーク上の記憶装置に格納され、動作しても良い。この場合は、計算機4は、自動視準管理プログラム13をその格納場所から読み込んで稼働させるものである。 The automatic collimation management program 13 is usually stored in the auxiliary storage device of the computer 4, and is automatically started by the computer 4 or manually operated by the administrator. However, the automatic collimation management program 13 may be stored and operated in another computer connected to the computer 4 via a network or a storage device on the network. In this case, the computer 4 reads the automatic collimation management program 13 from its storage location and operates it.
本実施の形態においては、自動視準管理プログラム13は、限定はしないが、計算機4の補助記憶装置に格納されて動作する形態を採用し、他の形態はこれに準用するものとする。また、自動視準管理プログラム13は、測量機器2で計測された計測データ、この計測データから計算された3次元又は2次元の図を表示する機能も有する。また、計算機4の補助記憶装置には、計算機4が測量機器2及び/又は管理センターと通信するとき、その通信を制御するための通信ソフトウェアが格納されている。 In the present embodiment, the automatic collimation management program 13 adopts a mode in which the automatic collimation management program 13 is stored in the auxiliary storage device of the computer 4 and operates, and the other modes are applied mutatis mutandis to this. In addition, the automatic collimation management program 13 also has a function of displaying measurement data measured by the surveying instrument 2 and a three-dimensional or two-dimensional diagram calculated from the measurement data. Further, when the computer 4 communicates with the surveying instrument 2 and / or the management center, the auxiliary storage device of the computer 4 stores communication software for controlling the communication.
これらのソフトウェアは、計算機4を制御している基本ソフトウェアから呼び出されて動作する。また、計算機4の本体は、計算機4の電源を供給するための内蔵電源ユニット(図示せず。)を備える。計算機4の入力装置は、図示していないが、マウス、キーボード、タッチパネル等の装置である。出力装置は、ディスプレイ9からなる。計算機4の内蔵アンテナは、通信インターフェースに接続され、計算機4の内蔵されているものが好ましい。 These softwares are called from the basic software that controls the computer 4 and operate. Further, the main body of the computer 4 includes a built-in power supply unit (not shown) for supplying power to the computer 4. Although not shown, the input device of the computer 4 is a device such as a mouse, a keyboard, and a touch panel. The output device comprises a display 9. The built-in antenna of the computer 4 is preferably connected to the communication interface and built in the computer 4.
計算機4は、上述のように本体と、それに接続して利用する入力装置、ディスプレイ9、内蔵アンテナ等からなっているが、計算機4は、本体がこれらを内蔵した一体型でも良い。計算機4は、マイクロソフト社のWindows(登録商標)、オープンソースのLINUX(登録商標)、アップル社のMac OS(登録商標)等の汎用の電子計算機ようのオペレーティングシステム、グーグル社のアンドロイド(登録商標)、アップル社のiOS(登録商標)、モジラ・ファウンデーションのFirefox OS(登録商標)、マイクロソフト社のWindows Mobile(登録商標)等のスマートフォン、タブレット電子計算機用のオペレーティングシステム等の任意の基本ソフトウェアで制御されて動作する。 As described above, the computer 4 includes a main body, an input device connected to the main body, a display 9, a built-in antenna, and the like, but the computer 4 may be an integrated type in which the main body has these built-in. Computer 4 is a general-purpose computer-like operating system such as Microsoft's Windows (registered trademark), open source LINUX (registered trademark), Apple's Mac OS (registered trademark), and Google's Android (registered trademark). , Apple's iOS®, Modira Foundation's Firefox OS®, Microsoft's Windows Mobile® and other smartphones, controlled by any basic software such as operating systems for tablet computers Works.
計算機4は、本発明の第1の実施の形態で記述した処理を行うことができるものであれば、任意の電子計算機を使用できる。計算機4の詳細な動作については、本発明の趣旨ではないので省略する。測量機器2から送信された計測データに基づいて、現場の状況が計算機4のディスプレイ9に表示される。 As the computer 4, any electronic computer can be used as long as it can perform the processing described in the first embodiment of the present invention. The detailed operation of the computer 4 is omitted because it is not the gist of the present invention. Based on the measurement data transmitted from the surveying instrument 2, the situation at the site is displayed on the display 9 of the computer 4.
[測量機器2の自己位置決定]
現場では、測量機器2を設置すると共に座標が分かっている2つの基準点がその座標が測量機器2に入力される。計算機4は、これに限定されないが、後方交会法により、測量機器2が設置された自己位置を計算する。後方交会法は、周知のものであり、その概要を説明すると、計算機4に前記既知点の座標を入力し、測量機器2により測量機器2から2つの既知点に設置したプリズムまでの距離を夫々計測する。
[Self-fixing of surveying instrument 2]
At the site, the surveying instrument 2 is installed and the coordinates of the two reference points whose coordinates are known are input to the surveying instrument 2. The computer 4 calculates, but is not limited to, the self-position where the surveying instrument 2 is installed by the backward interaction method. The backward association method is well known, and to explain the outline thereof, the coordinates of the known points are input to the computer 4, and the distances from the surveying instrument 2 to the prisms installed at the two known points by the surveying instrument 2 are set respectively. measure.
そして、この2つの距離と測量機器2と一方の既知点とを結ぶ直線と測量機器2と他方の既知点とを結ぶ直線とが成す夾角とから、計算機4により測量機器2を設置した自己位置である基準点(機械的原点)を計算して求めるものである。測量機器2には、計測対象の範囲が予め設定されており、又は、作業者が主導で設定して、測量機器2は、撮影を行う。 Then, from the distance formed by these two distances, the straight line connecting the surveying instrument 2 and one known point, and the angle formed by the straight line connecting the surveying instrument 2 and the other known point, the self-position where the surveying instrument 2 is installed by the computer 4 The reference point (mechanical origin) is calculated and obtained. The range of the measurement target is set in advance in the surveying instrument 2, or the operator takes the initiative in setting the range, and the surveying instrument 2 takes a picture.
[全体の流れ]
図2は、自動視準装置1の運営全体の手順例を示すフローチャートである。まず、作業者らは、測定対象の構造物に予めマークを設置する(ステップ1,2)。又は、マークが最初から、例えば、構造物が建造されるときに設置されても良い。図1に示すマーク12を各四角棒10の断面10a,10dに貼り付ける。測量機器2に電源供給などが行われ、測量機器2が稼働する(ステップ3)。
[Overall flow]
FIG. 2 is a flowchart showing a procedure example of the entire operation of the automatic collimation device 1. First, the workers pre-mark the structure to be measured (steps 1 and 2). Alternatively, the mark may be installed from the beginning, for example, when the structure is constructed. The mark 12 shown in FIG. 1 is attached to the cross sections 10a and 10d of each of the square bars 10. Power is supplied to the surveying instrument 2, and the surveying instrument 2 operates (step 3).
測量機器2が稼働すると、測量機器2は、撮影装置3で、マーク付きの構造物を撮影する。又は、測量機器2は、マーク付きの構造物の方面を撮影装置3で撮影する(ステップ4)。図1の例では、マーク12が付けられた四角棒10を撮影装置3で撮影する。そして、測量機器2は、この撮影された撮影データを計算機4へ送信する。計算機4は、撮影データを分析・解析し、マーク及びマークが設置された構造物を認識する(ステップ5)。この認識の結果、撮影された方角から、マーク及びマークが設置された構造物を特定し、その方角のデータを測量機器2へ送信する。 When the surveying device 2 is activated, the surveying device 2 takes a picture of the marked structure with the photographing device 3. Alternatively, the surveying instrument 2 photographs the direction of the marked structure with the photographing device 3 (step 4). In the example of FIG. 1, the square bar 10 with the mark 12 is photographed by the photographing device 3. Then, the surveying instrument 2 transmits the photographed photographed data to the computer 4. The computer 4 analyzes and analyzes the photographed data and recognizes the mark and the structure on which the mark is placed (step 5). As a result of this recognition, the mark and the structure in which the mark is installed are identified from the photographed direction, and the data in that direction is transmitted to the surveying instrument 2.
図1の例では、撮影データを画像認識し、マーク12を認識して特定し、マーク12が貼られている断面10a,10dを認識し、断面10a,10dの中央位置を推定して、この中央位置の座標、言い換えると、方位データを測量機器2へ送信する。マーク12が断面10a,10dの中央に貼られている場合は、断面10a,10dの中央位置はマーク12の中央位置に重なる。マーク12が断面10a,10dの中央に均一に貼られている、又はその貼られた位置が誤差を無視できる範囲(誤差範囲)内である場合は、マーク12の中央位置を求めて、測量機器2へ送信する。 In the example of FIG. 1, the photographed data is image-recognized, the mark 12 is recognized and specified, the cross-sections 10a and 10d to which the mark 12 is affixed are recognized, and the central position of the cross-sections 10a and 10d is estimated. The coordinates of the center position, in other words, the orientation data, are transmitted to the surveying instrument 2. When the mark 12 is attached to the center of the cross sections 10a and 10d, the center position of the cross sections 10a and 10d overlaps with the center position of the mark 12. If the mark 12 is uniformly affixed to the center of the cross sections 10a and 10d, or if the affixed position is within a range in which an error can be ignored (error range), the center position of the mark 12 is obtained and the surveying instrument is used. Send to 2.
測量機器2はこの方角データを取得して、その方角を測定する(ステップ6)。その測定で得られた測定データは、マーク付きの構造物までの距離であり、この測定データを計算機4へ送信する。図1の例では、測定データは、各断面10a,10dの中央位置までの距離を測定したデータになる。計算機4は、この測定データを受信して、測定データと構造物の設計データを比較して、測定対象構造物の位置変位を計算して、これらのデータをディスプレイ9上に表示する(ステップ7)。 The surveying instrument 2 acquires this direction data and measures the direction (step 6). The measurement data obtained by the measurement is the distance to the marked structure, and this measurement data is transmitted to the computer 4. In the example of FIG. 1, the measurement data is the data obtained by measuring the distance to the center position of each of the cross sections 10a and 10d. The computer 4 receives the measurement data, compares the measurement data with the design data of the structure, calculates the positional displacement of the structure to be measured, and displays these data on the display 9 (step 7). ).
図1の例では、四角棒10の測定データと設計データが比較され、設計データである破線の四角棒10cと、測定データである実線の四角棒10bのように、作業者にわかりやすく表示する。これを作業者が見れば把握でき、変位している構造物の位置を修正又は調節することができる(ステップ8)。図1の例では、位置が変位している四角棒10bとその設計位置である四角棒10cをそれぞれの位置に表示し、これを作業者が見れば現場状況を把握できる。よって、作業者は、四角棒10bの位置を調節することができる。これらの作業が終わると、計算機4は次の処理へ移行する(ステップ9)。 In the example of FIG. 1, the measurement data of the square bar 10 and the design data are compared and displayed in an easy-to-understand manner for the operator like the broken line square bar 10c which is the design data and the solid line square bar 10b which is the measurement data. .. This can be grasped by the operator, and the position of the displaced structure can be corrected or adjusted (step 8). In the example of FIG. 1, the square bar 10b whose position is displaced and the square bar 10c which is the design position thereof are displayed at each position, and the operator can grasp the site situation by looking at this. Therefore, the operator can adjust the position of the square bar 10b. When these operations are completed, the computer 4 moves to the next process (step 9).
図3は、測量機器2及び計算機4の動作例を示すフローチャートである。測量機器2に電源供給等が行われ、測量機器2が稼働する(ステップ20,21)。測量機器2が稼働すると、測量機器2は、初期化処理を行う。例えば、上述の後方交会方法によって、測量機器2の自己位置調整、測量機器2への現場の座標入力や構造物の座標等の入力が行わえる(ステップ22)。これらの座標が計算機4から送信されて行われても良い。 FIG. 3 is a flowchart showing an operation example of the surveying instrument 2 and the computer 4. Power is supplied to the surveying instrument 2, and the surveying instrument 2 operates (steps 20 and 21). When the surveying instrument 2 operates, the surveying instrument 2 performs an initialization process. For example, the self-position adjustment of the surveying instrument 2, the on-site coordinate input to the surveying instrument 2, the coordinates of the structure, and the like can be input by the above-mentioned backward meeting method (step 22). These coordinates may be transmitted from the computer 4.
測量機器2は、内蔵の撮影装置3で、指定された方角若しくは方向、又は、指定された座標を向けて撮影する(ステップ23)。測量機器2は撮影した撮影データを計算機4へ送信する(ステップ24)。計算機4は、撮影データを受信して、その解析を行い、撮影データの中の標的を認識し検出する(ステップ25)。標的は、予めその形状や色が指定されたマークや構造物であり、事前に計算機4に入力されて設定されている。 The surveying instrument 2 uses the built-in photographing device 3 to take a picture in a designated direction or direction or in a designated coordinate (step 23). The surveying instrument 2 transmits the photographed data to the computer 4 (step 24). The computer 4 receives the captured data, analyzes the captured data, and recognizes and detects the target in the captured data (step 25). The target is a mark or structure whose shape and color are designated in advance, and is input to and set in the computer 4 in advance.
計算機4は、標的の位置を計算し、その位置から変位を計算する(ステップ26)。この変位は、設定された基準を満たすかを判定する(ステップ27)。変位が基準を満たさない場合、撮影方向に修正する指示を測量機器2へ送信し、再度撮影を行う指示をする(ステップ28)。これにより、上述のステップ23〜27の処理が変位の基準を満たすまで繰り返し行われる。ここでいう基準は、標的の中心が所定の範囲以内の場合をいう。例えば、撮影データの画像の中心点から所定の範囲以内で位置する場合等である。 The computer 4 calculates the position of the target and calculates the displacement from that position (step 26). It is determined whether this displacement meets the set criteria (step 27). If the displacement does not meet the reference, an instruction to correct the imaging direction is transmitted to the surveying instrument 2, and an instruction to perform imaging again is given (step 28). As a result, the processes of steps 23 to 27 described above are repeated until the displacement criteria are satisfied. The reference here refers to the case where the center of the target is within a predetermined range. For example, it may be located within a predetermined range from the center point of the image of the shooting data.
変位が基準を満たす場合、計算機4は、標的までの測定を行う指示を測量機器2へ送信し、測量機器2が測定を行う(ステップ29)。そして、測量機器2は、測定結果を計算機4へ送信し、計算機4は、測定結果を用いて、標的の変位を計算し、出力する(ステップ30、31)。計算機4は、標的、その変位を、ディスプレイ9に表示し、次の処理へ移行する(ステップ31、32)。 When the displacement satisfies the reference, the computer 4 transmits an instruction to measure to the target to the surveying instrument 2, and the surveying instrument 2 performs the measurement (step 29). Then, the surveying instrument 2 transmits the measurement result to the computer 4, and the computer 4 calculates and outputs the displacement of the target using the measurement result (steps 30 and 31). The computer 4 displays the target and its displacement on the display 9, and proceeds to the next process (steps 31 and 32).
図4は、画像認識の例を示すフローチャートであり、図5は、この画像認識を概念的に図示した図である。計算機4は、画像認識するとき、撮影された撮影データを測量機器2から受信する(ステップ40,41)。計算機4は、標的データを読み込む(ステップ42)。標的は、予めその形状や色が指定されてマークや構造物からなるもので、画像の中で画像認識の対象になるものである。標的データは、この標的の形状、大きさ、又はその設計図等についてのデータである。 FIG. 4 is a flowchart showing an example of image recognition, and FIG. 5 is a diagram conceptually illustrating this image recognition. When the computer 4 recognizes an image, the computer 4 receives the photographed data from the surveying device 2 (steps 40 and 41). The computer 4 reads the target data (step 42). A target is a mark or a structure whose shape or color is specified in advance, and is a target of image recognition in an image. The target data is data about the shape, size, design drawing, etc. of the target.
標的データは、予め計算機4に設定されているか、特定の場所で、標的データの画像、特徴等のように、画像認識に必要なパラメータが入力されている。これを、計算機4は、読み込み、画像認識に利用する。そして、計算機4は、撮影データを解析し、その中の標的データを識別する(ステップ43)。このときの識別方法は、下述する。 The target data is set in the computer 4 in advance, or parameters necessary for image recognition such as images and features of the target data are input at a specific place. The computer 4 reads this and uses it for image recognition. Then, the computer 4 analyzes the captured data and identifies the target data in the photographed data (step 43). The identification method at this time will be described below.
計算機4は、撮影データの中の標的データ以外に識別できた物体の図等を削除する(ステップ44)。続いて、計算機4は、撮影データの中の標的データを識別すると、撮影データの背景色を削除し、続いて、ノイズを削除する(ステップ45,46)。最後は、ほぼ標的データが残って、この標的データの位置を計算し、必要であれば位置補正する(ステップ47)。この位置計算は、撮影データを撮影するときの方角、画像のサイズから、標的データの方角位置を計算するものである。 The computer 4 deletes the figure or the like of the identified object other than the target data in the photographed data (step 44). Subsequently, when the computer 4 identifies the target data in the shooting data, the background color of the shooting data is deleted, and then the noise is deleted (steps 45 and 46). At the end, almost the target data remains, the position of the target data is calculated, and the position is corrected if necessary (step 47). In this position calculation, the direction position of the target data is calculated from the direction when the shooting data is taken and the size of the image.
2次元の撮影では、撮影データの中の物体を形状認識しても、その各物体までの距離がわからない。そのため、撮影された撮影データから標的データの撮影方角を分かれば、計測機器2でその撮影方角を距離測定することで、標的までの距離が把握できる。ここでは、図1で図示したように、マーク12が貼られている断面10aが複数ある場合は、撮影データからマーク12を認識し、マーク12が貼られている物体の形状の断面10aを認識する。その後、認識結果として、各断面10aの方角を出力する。
又は、撮影データからマーク12を認識し、認識結果として、マーク12の方角を出力しても良い。
In two-dimensional photography, even if the shape of an object in the photographed data is recognized, the distance to each object cannot be known. Therefore, if the shooting direction of the target data is known from the shot data, the distance to the target can be grasped by measuring the shooting direction with the measuring device 2. Here, as shown in FIG. 1, when there are a plurality of cross sections 10a to which the mark 12 is affixed, the mark 12 is recognized from the shooting data, and the cross section 10a of the shape of the object to which the mark 12 is affixed is recognized. To do. After that, as a recognition result, the direction of each cross section 10a is output.
Alternatively, the mark 12 may be recognized from the shooting data, and the direction of the mark 12 may be output as the recognition result.
(画像認識のアルゴリズムの説明)
ディジタルカメラで撮影した画像又は映像を解析して画像認識する技術が日進月歩の進化を遂げている。本発明の第1の実施の形態において、撮影装置3は、静止画も動画も撮影できるディジタルカメラである。人間の目には、連続して変化する静止画が動画として認識される。動画でも、標準化された動画フォーマットでは、静止画の連続したコマである。そのため、ディジタルカメラで撮影するとき、撮影風景の差分だけを撮影して、出力したりする。ディジタルカメラの高性能化で、取得する撮影映像、撮影画像等の撮影データが膨大化する傾向である。撮影データは、2次元の配列に点としての画素を並べて、各画素に色情報、階調情報(明るさの濃淡の段階数)が付与されている。
(Explanation of image recognition algorithm)
Technology that analyzes and recognizes images or videos taken with digital cameras is evolving day by day. In the first embodiment of the present invention, the photographing device 3 is a digital camera capable of capturing both still images and moving images. To the human eye, a continuously changing still image is recognized as a moving image. Even for moving images, in the standardized moving image format, it is a continuous frame of still images. Therefore, when shooting with a digital camera, only the difference in the shooting scenery is shot and output. As the performance of digital cameras increases, the amount of shooting data such as shot images and shot images to be acquired tends to increase. In the shooting data, pixels as points are arranged in a two-dimensional array, and color information and gradation information (number of steps of lightness and shade) are given to each pixel.
カラー画像の場合は1点を3種類の色で表現する。本実施の形態では、撮影画像は、そのフォーマットは、JPEG,GIF,PNG,TIFF等のように圧縮方法も含め任意のフォーマットを採用する。撮影映像のフォーマットは、AVI(.avi)、ASF(.asf,.asx,.wmv,.wvx,.wma,.wax)、MP4(.mp4,.m4v,.m4a)、Flash Video(.flv)を初め、その圧縮方法も含め任意のフォーマットを採用する。本発明は、撮影画像、撮影動画のための発明ではない、かつ、汎用の撮影方法とそれによるフォーマットのデータを利用するため、撮影データの詳細な構造、フォーマットについてこれ以上の説明は省略する。 In the case of a color image, one point is represented by three kinds of colors. In the present embodiment, the captured image adopts an arbitrary format including a compression method such as JPEG, GIF, PNG, TIFF and the like. The format of the shot video is AVI (.avi), ASF (.asf, .asx, .wmv, .wvx, .wma, .wax), MP4 (.mp4, .m4v, .m4a), Flash Video (.flv) ), And any format including its compression method. Since the present invention is not an invention for a photographed image or a photographed moving image and uses data in a general-purpose photographing method and a format based on the method, further description of the detailed structure and format of the photographed data will be omitted.
画像認識の方法は、その目的によって様々なアルゴリズム、認識方法が用いられている。本実施の形態においては、所定の形状と色の図形からなるマークと、所定の形状の構造物を検出することを想定している。本発明の第1の実施の形態において、撮影データから所定の形状と色の物体を認識する場合は、限定しないが次の方法を利用することができる。平滑化、平均化フィルタ、ガウシアンフィルタ等のフィルタリングを利用して、ヒストグラムから外れ値を削除して、ノイズ除去を行う。ボリュームデータ、ボクセル等の3次元フィルタを画像認識利用することができる。 As the image recognition method, various algorithms and recognition methods are used depending on the purpose. In the present embodiment, it is assumed that a mark composed of a figure having a predetermined shape and a color and a structure having a predetermined shape are detected. In the first embodiment of the present invention, when recognizing an object having a predetermined shape and color from shooting data, the following method can be used without limitation. Noise is removed by removing outliers from the histogram using filtering such as smoothing, averaging filter, and Gaussian filter. Image recognition can be used for three-dimensional filters such as volume data and voxels.
また、撮影データを、膨張演算と収縮演算を繰り返し利用して、輪郭を抽出したり、小さなノイズ、線、点を削除したりして、大きな変化点を強調して抽出したりして、画像認識に必要な処理画像を得る。更に、所定の形状や色を、処理画像中から比較して、所定の一致率以上になったら認識結果として出力しても良い。このように、画像認識の様々なアルゴリズムを利用することができる。本発明は、画像認識のアルゴリズム自体の発明ではないので、詳細な説明を省略する。 In addition, the captured data can be extracted by repeatedly using expansion and contraction calculations to extract contours and remove small noises, lines, and points to emphasize and extract large change points. Obtain the processed image required for recognition. Further, a predetermined shape and color may be compared from the processed image, and when the coincidence rate becomes equal to or higher than the predetermined value, it may be output as a recognition result. In this way, various algorithms for image recognition can be used. Since the present invention is not an invention of the image recognition algorithm itself, detailed description thereof will be omitted.
図5〜図7は、撮影装置3で撮影された撮影データを計算機4によって解析し、撮影データの中の標的の映像を認識する例を示す図である。図5は、例えば、標的として、特定の色が設定されている場合、この色のマークを識別する例を図示している。計算機4は、測量機器2から図5(a)に図示したような画像データ20からなる撮影データを受信する。画像データ20は、撮影装置3で撮影されたものである。画像データ20は、図中に四角形になっており、汎用のディジタルカメラで撮影した形式のものである。 5 to 7 are diagrams showing an example in which the shooting data shot by the shooting device 3 is analyzed by the computer 4 and the target image in the shooting data is recognized. FIG. 5 illustrates an example of identifying a mark of this color when a specific color is set as a target, for example. The computer 4 receives the shooting data including the image data 20 as shown in FIG. 5A from the surveying instrument 2. The image data 20 was taken by the photographing device 3. The image data 20 has a quadrangle in the drawing and is in a format taken by a general-purpose digital camera.
画像データ20はこのように四角形になる必要がなく、撮影装置3が出力する任意の形式、フォーマットのものが利用できる。図5(a)に示す画像データ20は、一般的な撮影データを概念的に図示しているもので、図の中で、物体を四角形で第1物体22と第2物体23として図示し、それぞれが別々の色で図示されている。色は、ここで、別々のハッチングで図示している。ここで、四角形22で標的を示しており、四角形23はそれ以外の物体を示す。 The image data 20 does not have to be a quadrangle in this way, and any format and format output by the photographing device 3 can be used. The image data 20 shown in FIG. 5A conceptually illustrates general shooting data, and in the figure, the objects are shown as a quadrangle as a first object 22 and a second object 23. Each is illustrated in a different color. The colors are illustrated here in separate hatches. Here, the quadrangle 22 indicates the target, and the quadrangle 23 indicates other objects.
標的の色は、赤、青、黄色等のようにできるだけ基本色であることが好ましい。中間色であると画像データの中のノイズから識別され難く、画像処理を複雑にする。第1物体22は、第1色を示す第1ハッチングで図示されている。第2物体23は、第2色を示す第2ハッチングで図示されている。画像データ20は、背景21を有する。背景21は、基本的にこれらの第1色、第2色等の色と異なる色又は物体の画像である。図中、参照番号24で示す各種記号は、ノイズを示すものである。 The target color is preferably as basic as possible, such as red, blue, yellow, and the like. If it is a neutral color, it is difficult to distinguish it from noise in the image data, which complicates image processing. The first object 22 is illustrated with a first hatch that indicates the first color. The second object 23 is illustrated by a second hatch that indicates a second color. The image data 20 has a background 21. The background 21 is basically an image of a color or an object different from these colors such as the first color and the second color. In the figure, various symbols indicated by reference numeral 24 indicate noise.
計算機4は、この画像データ20を解析して、まず、標的の第1色以外の色の物体23を削除する。そして、背景21を削除すると、図5(b)に図示したような画像データ20aになり、ノイズ24と標的の第1色の第1物体22のみが残る。背景21が削除されて、ここでは黒色の背景21aになっているが、画像データ20aの中では、色情報がなく、透明になる。そして、この中で、標的の第1色のみを残し、他を削除すると、図5(c)に図示したような画像データ20bが残る。 The computer 4 analyzes the image data 20 and first deletes the object 23 having a color other than the first color of the target. Then, when the background 21 is deleted, the image data 20a as shown in FIG. 5B is obtained, and only the noise 24 and the first object 22 of the first color of the target remain. The background 21 is deleted and becomes a black background 21a here, but in the image data 20a, there is no color information and it becomes transparent. Then, when only the first color of the target is left and the others are deleted, the image data 20b as shown in FIG. 5C remains.
この中で、第1色の第1物体22の位置を特定し、その方角を測量機器2へ送信する。図5(a)と図5(c)に図示したように、画像データ20、20bの中でその中央点を通り座標系が定義されており、通常は、横軸25xと縦軸25yになる。ここでは、標的の第1物体22は、特にその中央点は、この座標系で定義される。画像の中で、横軸25xと縦軸25yで定義されるが、これを測量機器2で測定する方角を示す極座標データ(θx,θy)へ変換され、出力される。 In this, the position of the first object 22 of the first color is specified, and the direction thereof is transmitted to the surveying instrument 2. As illustrated in FIGS. 5 (a) and 5 (c), the coordinate system is defined in the image data 20 and 20b through the center point, and usually has a horizontal axis of 25x and a vertical axis of 25y. .. Here, the target first object 22, especially its central point, is defined in this coordinate system. In the image, the horizontal axis 25x and the vertical axis 25y are defined, which are converted into polar coordinate data (θx, θy) indicating the direction to be measured by the surveying instrument 2 and output.
計算機4は、この変換された極座標データからこの極座標データが示す方角へ測定方向を求めて旋回させ調整し、測定を行う。言い換えると、測量機器2は、標的の色の第1物体22を測定することになる。測量機器2は測定を行い、測定データを計算機4へ送信する。計算機4は測定データを用いて、標的の第1物体22の位置を把握し、その設計データと比較することで、その位置変位が計算できる。 The computer 4 obtains a measurement direction from the converted polar coordinate data in the direction indicated by the polar coordinate data, turns and adjusts the measurement, and performs measurement. In other words, the surveying instrument 2 measures the first object 22 of the target color. The surveying instrument 2 makes a measurement and transmits the measurement data to the computer 4. The computer 4 can calculate the position displacement by grasping the position of the target first object 22 by using the measurement data and comparing it with the design data.
図6は、第1物体22が画像データ20の中で、その中央点ではない位置に位置する例を図示している。画像認識は、基本的に、図5の説明で記述したものと同様であるがここで異なる部分のみを説明する。図6(a)に図示した画像データ20を認識し第1物体22以外の物体である第2物体23、背景21、ノイズ24を削除すると、図6(b)に図示した画像データ20a’になり、第1物体22が下部に図示されている。 FIG. 6 illustrates an example in which the first object 22 is located at a position other than the center point in the image data 20. The image recognition is basically the same as that described in the description of FIG. 5, but only the different parts will be described here. When the image data 20 shown in FIG. 6A is recognized and the second object 23, the background 21, and the noise 24, which are objects other than the first object 22, are deleted, the image data 20a'shown in FIG. 6B is obtained. The first object 22 is shown at the bottom.
このとき、計算機4は、画像の座標補正を行い、図6(c)に図示したように第1物体22’が画像20b’の中央点に位置するようにし、その座標を求める。そして、この座標を、極座標に変換して、旋回角度を求めて出力する。図7は、標的として特定の形状が設定されている場合、この形状のマークを識別する例を図示している。計算機4は、測量機器2から図7(a)に図示したような画像データ30からなる撮影データを受信する。画像データ30は、上述の画像データ20と同様に、撮影装置3で撮影されたものである。 At this time, the computer 4 corrects the coordinates of the image so that the first object 22'is located at the center point of the image 20b' as shown in FIG. 6C, and obtains the coordinates thereof. Then, these coordinates are converted into polar coordinates to obtain the turning angle and output. FIG. 7 illustrates an example of identifying a mark of this shape when a specific shape is set as a target. The computer 4 receives the shooting data including the image data 30 as shown in FIG. 7A from the surveying instrument 2. The image data 30 is taken by the photographing device 3 in the same manner as the image data 20 described above.
図7(a)に図示して画像データ30は、物体を第1形状の第1物体32と第2形状の第2物体33として図示している。ここで、各形状の物体は、別々のハッチングで図示している別々の色を有し、図中でも、四角形と三角形で別々の形状で図示している。四角形で第1物体32を示し、三角形33はそれ以外の物体を示す。画像認識は、画像データ30から背景31、第2物体33、ノイズ34等を削除し、画像データ30aが残る。画像データ30aの背景は、色情報がなく、透明になるが、図中に黒色に図示されている。 Illustrated in FIG. 7A, the image data 30 illustrates the objects as the first object 32 of the first shape and the second object 33 of the second shape. Here, the objects of each shape have different colors shown by different hatching, and even in the figure, the quadrangles and the triangles are shown in different shapes. The quadrangle indicates the first object 32, and the triangle 33 indicates other objects. In the image recognition, the background 31, the second object 33, the noise 34, and the like are deleted from the image data 30, and the image data 30a remains. The background of the image data 30a has no color information and becomes transparent, but is shown in black in the figure.
そして、第1物体32の位置を特定し、その方角を測量機器2へ送信する。方角は、極座標データから角度データに変換されて、計算機4から測量機器2へ送信される。測量機器2は、指定された角度に旋回し測定方向を調整し、測定を行う。言い換えると、測量機器2は、標的の第1物体32を測定することになる。測量機器2は測定を行い、測定データを計算機4へ送信する。計算機4測定データを用いて、標的の第1物体32の位置を把握し、その設計データと比較することで、その位置変位が計算できる。 Then, the position of the first object 32 is specified, and the direction is transmitted to the surveying instrument 2. The directions are converted from polar coordinate data into angle data and transmitted from the computer 4 to the surveying instrument 2. The surveying instrument 2 turns at a designated angle, adjusts the measurement direction, and performs measurement. In other words, the surveying instrument 2 measures the target first object 32. The surveying instrument 2 makes a measurement and transmits the measurement data to the computer 4. By grasping the position of the target first object 32 using the computer 4 measurement data and comparing it with the design data, the position displacement can be calculated.
図7(a)に図示して画像データ30の画像認識において、形状認識を、特定の色と組み合わせても良い。また、標的の物体が、画像データの中で、中央点から離れていても、図6で説明したものと同じように、座標補正を行うことができる。その説明は、ここでは省略する。図8には、画像認識の結果の例を図示している。図8は、計算機4で撮影データを画像認識した結果である。ここで、マーク41〜45は、認識対象のもので、マークを例にしている。 In the image recognition of the image data 30 illustrated in FIG. 7A, the shape recognition may be combined with a specific color. Further, even if the target object is far from the center point in the image data, the coordinate correction can be performed in the same manner as described with reference to FIG. The description is omitted here. FIG. 8 illustrates an example of the result of image recognition. FIG. 8 shows the result of image recognition of the captured data by the computer 4. Here, the marks 41 to 45 are recognition targets, and the mark is taken as an example.
このとき、撮影データからマークを画像認識した結果、マーク41〜45が認識され、これらを位置補正し、その位置を求めた場合、図8に図示したようになる。上述のように、撮影データから各マーク41〜45を画像認識し、その位置を求め、この位置の示方角データを測量機器2へ送信して、各マーク41〜45までの距離を測定している。その距離の測定データを用いて、各マーク41〜45の位置関係を計算する。よって、各マーク41〜45の中央点を求め、これらを通る線46を図に示すように引くと、マーク44がこの線から外れる。 At this time, as a result of image recognition of the marks from the shooting data, the marks 41 to 45 are recognized, and when the positions are corrected and the positions are obtained, the marks are as shown in FIG. As described above, each mark 41 to 45 is image-recognized from the shooting data, the position is obtained, the direction direction data of this position is transmitted to the surveying instrument 2, and the distance to each mark 41 to 45 is measured. There is. The positional relationship of each mark 41 to 45 is calculated using the measurement data of the distance. Therefore, when the center points of the marks 41 to 45 are obtained and a line 46 passing through them is drawn as shown in the figure, the mark 44 deviates from this line.
これを、ディスプレイ9に表示する。この表示のとき、色やテキスト情報で、強調表示する。線46の代わりに所定の間隔を持つ2本の線47のように、マーク44が所定の範囲に入っているかで判定しても良い。この例では、マーク44が2本の線47の間に入っていない。これにより、作業者は、ディスプレイ9に表示されるマーク41〜45の位置関係を見ながら、マーク41〜45が貼られている構造物の設置位置調整を行う。 This is displayed on the display 9. At the time of this display, highlight with color and text information. Instead of the line 46, it may be determined whether the mark 44 is within a predetermined range, such as two lines 47 having a predetermined interval. In this example, the mark 44 is not between the two lines 47. As a result, the operator adjusts the installation position of the structure to which the marks 41 to 45 are affixed while observing the positional relationship of the marks 41 to 45 displayed on the display 9.
[その他]
上述の通り、マークは、2次元のものを例に説明したが、3次元のものも利用できる。マークが3次元になると、これを各方角から見えるように変換して画像を作り、撮影データと比較して認識する。図9(a)に図示した画像は、3次元のマークとして利用することができる。
[Other]
As described above, the mark has been described using a two-dimensional mark as an example, but a three-dimensional mark can also be used. When the mark becomes three-dimensional, it is converted so that it can be seen from each direction to create an image, which is compared with the photographed data and recognized. The image illustrated in FIG. 9A can be used as a three-dimensional mark.
1…自動視準装置
2…測量機器
3…撮影装置
4…計算機
9…ディスプレイ
10,10b…四角棒
10a,10d…端面
12…マーク
13…自動視準管理プログラム
1 ... Automatic collimation device 2 ... Surveying equipment 3 ... Imaging device 4 ... Computer 9 ... Display 10, 10b ... Square bars 10a, 10d ... End face 12 ... Mark 13 ... Automatic collimation management program
Claims (7)
前記撮像装置により撮像された撮像画像の中から画像処理を行い特定の色彩、形状を認識可能な画像・演算処理手段と、
構造物の設定データを予め記憶するための記憶手段と
からなる自動視準装置により測定対象物の配置位置を測定するための構造物の配置位置測定用の自動視準方法であって、
前記構造物を構成する一平面に、予め設定された2次元の外形形状を有する標的を貼付し、
前記画像・演算処理手段により、前記撮像装置により撮影した撮影データを自動的に画像認識することで前記標的を認識し特定して、かつ、前記標的が貼られている断面を認識し、前記断面の中央位置を推定して、
前記測量機器により、前記中央位置の距離と方位データを測定して測定データを得て、
前記画像・演算処理手段により、前記設定データと前記測定データを対比し、前記構造物の位置変位を計算して出力する
ことを特徴とする構造物の配置位置測定用の自動視準方法。 A surveying instrument equipped with an imaging device that can swing around the horizontal and vertical axes,
An image / arithmetic processing means capable of recognizing a specific color and shape by performing image processing from the captured image captured by the imaging device.
It is an automatic collimation method for measuring the arrangement position of a structure for measuring the arrangement position of a measurement object by an automatic collimation device including a storage means for storing the setting data of the structure in advance.
A target having a preset two-dimensional outer shape is attached to one plane constituting the structure.
Wherein the image-processing means, the target recognition to identify to the by automatically image recognition of the picture taken by the imaging device, and recognizes a section in which the target is stuck, the Estimate the center position of the cross section
With the surveying instrument, the distance and orientation data at the center position are measured to obtain the measurement data.
An automatic collimation method for measuring the arrangement position of a structure, which comprises comparing the setting data with the measurement data by the image / calculation processing means, calculating and outputting the position displacement of the structure.
前記測定データをディスプレイに前記設定データに重ねて表示する
ことを特徴とする構造物の配置位置測定用の自動視準方法。 In the automatic collimation method for measuring the arrangement position of a structure according to claim 1.
Autocollimation method for position determination of structures and displaying superimposed on the configuration data of the measurement data on the display.
前記構造物は、3次元の物体である
ことを特徴とする構造物の配置位置測定用の自動視準方法。 In the automatic collimation method for measuring the arrangement position of a structure according to claim 1 or 2.
The automatic collimation method for measuring the arrangement position of a structure, characterized in that the structure is a three-dimensional object.
前記撮像装置により撮像された撮像画像の中から画像処理を行い特定の色彩、形状を認識可能な画像・演算処理手段と、
構造物の設定データを予め記憶するための記憶手段と
からなり、測定対象物の配置位置を測定するための構造物の配置位置測定用の自動視準装置であって、
前記画像・演算処理手段は、
前記撮像画像から、前記構造物に貼付された標的を検出するために、該標的の形状を設定する形状設定部と、
前記形状設定部に基づいて前記標的を自動的に画像認識して識別する標的画像識別部と
を有し、
前記画像・演算処理手段は、前記標的が貼られている前記構造物の断面を認識し、前記断面の中央位置を推定する機能を有し、
前記測量機器は、前記中央位置の距離と方位データを測定して測定データを出力する機能を有し、
前記画像・演算処理手段は、前記設定データと前記測定データを対比し、前記構造物の位置変位を計算して出力する機能を有する
ことを特徴とする構造物の配置位置測定用の自動視準装置。 A surveying instrument equipped with an imaging device that can swing around the horizontal and vertical axes,
An image / arithmetic processing means capable of recognizing a specific color and shape by performing image processing from the captured image captured by the imaging device.
It consists of a storage means for storing the setting data of the structure in advance, and is an automatic collimation device for measuring the arrangement position of the structure for measuring the arrangement position of the object to be measured.
The image / arithmetic processing means is
A shape setting unit that sets the shape of the target in order to detect the target attached to the structure from the captured image.
It has a target image identification unit that automatically recognizes and identifies the target based on the shape setting unit.
The image / arithmetic processing means has a function of recognizing a cross section of the structure to which the target is attached and estimating the center position of the cross section.
The surveying instrument has a function of measuring the distance and direction data of the central position and outputting the measurement data.
The image / calculation processing means has a function of comparing the setting data with the measurement data, calculating the position displacement of the structure, and outputting the automatic collimation for measuring the arrangement position of the structure. apparatus.
前記撮像画像から、前記標的を検出するために、色彩を設定する検出色彩設定部と、
前記検出色彩設定部に基づいて前記標的を識別する前記標的画像識別部と
を有する
ことを特徴とする構造物の配置位置測定用の自動視準装置。 In the automatic collimation device for measuring the arrangement position of the structure according to claim 4.
A detection color setting unit that sets a color in order to detect the target from the captured image,
An automatic collimation device for measuring the arrangement position of a structure, which comprises the target image identification unit that identifies the target based on the detection color setting unit.
前記画像・演算処理手段は、
前記撮像画像から標的画像を検出する標的画像検出手段と、
前記標的画像の中心点を演算する標的画像中心点演算手段と
を有することを特徴とする構造物の配置位置測定用の自動視準装置。 In the automatic collimation device for measuring the arrangement position of the structure according to claim 4 or 5.
The image / arithmetic processing means is
A target image detecting means for detecting a target image from the captured image,
An automatic collimation device for measuring the arrangement position of a structure, which comprises a target image center point calculation means for calculating the center point of the target image.
前記構造物は、3次元の物体である
ことを特徴とする構造物の配置位置測定用の自動視準装置。 In the automatic collimation device for measuring the arrangement position of the structure according to claim 1, which is selected from claims 4 to 6.
The structure is an automatic collimation device for measuring the arrangement position of a structure, which is characterized by being a three-dimensional object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016093484A JP6770826B2 (en) | 2016-05-06 | 2016-05-06 | Automatic collimation method and automatic collimation device for measuring the placement position of structures |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016093484A JP6770826B2 (en) | 2016-05-06 | 2016-05-06 | Automatic collimation method and automatic collimation device for measuring the placement position of structures |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017201281A JP2017201281A (en) | 2017-11-09 |
JP6770826B2 true JP6770826B2 (en) | 2020-10-21 |
Family
ID=60265054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016093484A Active JP6770826B2 (en) | 2016-05-06 | 2016-05-06 | Automatic collimation method and automatic collimation device for measuring the placement position of structures |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6770826B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019234936A1 (en) * | 2018-06-08 | 2019-12-12 | マクセル株式会社 | Mobile terminal, camera position estimation system, camera position estimation method, and signboard |
JP6693616B1 (en) * | 2019-12-11 | 2020-05-13 | 計測技研株式会社 | Surveying system and surveying method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3225635B2 (en) * | 1992-10-20 | 2001-11-05 | 株式会社日立製作所 | Construction support device and method |
JP3079186B2 (en) * | 1995-09-28 | 2000-08-21 | 株式会社小松製作所 | Structure measurement system |
JPH09101144A (en) * | 1995-10-05 | 1997-04-15 | Nippon Steel Corp | Automatic collimation method for sign |
JP2002090144A (en) * | 2000-09-21 | 2002-03-27 | Jekku:Kk | Secular change monitoring system using automatic tracking total station and storage medium |
JP2009258846A (en) * | 2008-04-14 | 2009-11-05 | Nikon Systems Inc | Image processing method, image processing system, image processor, and image processing program |
JP5350729B2 (en) * | 2008-09-30 | 2013-11-27 | 大成建設株式会社 | Work type confirmation system, work form confirmation program, and work form confirmation method |
JP5375479B2 (en) * | 2009-09-17 | 2013-12-25 | コニカミノルタ株式会社 | Three-dimensional measurement system and three-dimensional measurement method |
JP6594686B2 (en) * | 2015-07-14 | 2019-10-23 | 東急建設株式会社 | Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and program |
-
2016
- 2016-05-06 JP JP2016093484A patent/JP6770826B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017201281A (en) | 2017-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10647001B2 (en) | Calibration device, calibration method, and computer readable medium for visual sensor | |
KR102209008B1 (en) | Apparatus for estimating camera pose and method for estimating camera pose | |
US8412418B2 (en) | Industrial machine | |
JP6996925B2 (en) | Pile head analysis system, pile head analysis method, and pile head analysis program | |
EP3421930B1 (en) | Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
US20240107152A1 (en) | Automated guide for image capturing for 3d model creation | |
CN111033536A (en) | Method and system for generating adaptive projected reality at construction site | |
JP6516558B2 (en) | Position information processing method | |
US10445872B2 (en) | Machine control measurements device | |
JP6506032B2 (en) | Survey data processing apparatus, survey data processing method and program | |
KR101944816B1 (en) | Detection Automatic System of Excavating Work | |
JP6770826B2 (en) | Automatic collimation method and automatic collimation device for measuring the placement position of structures | |
JP6707933B2 (en) | Unmanned flight device control system, unmanned flight device control method, and unmanned flight device | |
US20180293751A1 (en) | Measuring apparatus and corresponding measuring method | |
WO2018180214A1 (en) | Image processing device, camera device, and image processing method | |
JP6076852B2 (en) | Camera system, control method thereof and control program thereof | |
JP7437930B2 (en) | Mobile objects and imaging systems | |
JP6861592B2 (en) | Data thinning device, surveying device, surveying system and data thinning method | |
JP2021155179A (en) | Photographing system and program for crane | |
JP2019056961A (en) | Photographed image correction system, photographed image data acquisition apparatus and photographed image correction method | |
US20240233410A1 (en) | Measuring device and method of use | |
RU2828682C2 (en) | Method and system for determining location and orientation of user's device with reference to visual features of environment | |
KR20230138101A (en) | Calibration and data division by timeline of unmanned aerial vehicle lidar and camera module, and a method of measuring numerical values in an image using them | |
KR20230138102A (en) | LIDAR-based real-time route tracking and guide system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6770826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |