JP2009031206A - Position measuring device - Google Patents

Position measuring device Download PDF

Info

Publication number
JP2009031206A
JP2009031206A JP2007197530A JP2007197530A JP2009031206A JP 2009031206 A JP2009031206 A JP 2009031206A JP 2007197530 A JP2007197530 A JP 2007197530A JP 2007197530 A JP2007197530 A JP 2007197530A JP 2009031206 A JP2009031206 A JP 2009031206A
Authority
JP
Japan
Prior art keywords
light source
video
image
reference light
measurement target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007197530A
Other languages
Japanese (ja)
Inventor
Shinichiro Haruyama
真一郎 春山
Tatsunori Sada
達典 佐田
Akio Kasuga
昭夫 春日
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nakagawa Laboratories Inc
Sumitomo Mitsui Construction Co Ltd
Original Assignee
Nakagawa Laboratories Inc
Sumitomo Mitsui Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nakagawa Laboratories Inc, Sumitomo Mitsui Construction Co Ltd filed Critical Nakagawa Laboratories Inc
Priority to JP2007197530A priority Critical patent/JP2009031206A/en
Publication of JP2009031206A publication Critical patent/JP2009031206A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position measuring device that does not require manual matching of each point and the analysis of a specific pattern, and can accurately and easily detect the position of a measuring object point. <P>SOLUTION: A video, including a reference light source 31 and a measuring object light source 32 for transmitting different data with light, is photographed by an imaging section 11 in a plurality of parts. A video-processing section 12 demodulates the data from the photographed video and specifies the position in the video of the image of each light source. A reference light source position acquiring section 13 acquires the position of the reference light source 31, based on the data from the reference light source 31, and a photographic position specifying section 14 specifies the photographic position and the attitude in each photographic part. A target position specifying section 15 matches the images of the measuring object light source 32 in the video photographed in the plurality of photographing parts with each other based on the obtained data, and specifies the position of the measuring object light source 32, having transmitted the same data based on the positions in the plurality of videos and the photographic positions and attitude, or the like, of the plurality of parts. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、位置を測定する位置測定技術に関するものである。   The present invention relates to a position measurement technique for measuring a position.

橋やビルの建設など、様々な建設の現場では位置を正確に測定することが重要である。位置を測定する代表的な方法として、旧来は三角法により測量している。しかし三角法は人間が目視で測定する必要があるので、人間による測定誤差などが生じてしまう問題があり、また夜間に測定することが困難であるという問題もある。   It is important to measure the position accurately at various construction sites such as bridges and buildings. Traditionally, triangulation is used as a representative method for measuring position. However, since the trigonometric method needs to be measured by human eyes, there is a problem that human measurement errors occur, and there is also a problem that it is difficult to measure at night.

近年、GPS衛星を用いた測定方法も利用されるようになってきた。この方法では、数ミリから数センチの精度で位置測定が可能である。しかし、その精度を得るには1時間以上の時間が必要である。また、測定器は安定した場所に確実に固定し、長時間、その位置が変わらないことを前提としており、使い勝手の悪いものである。また、GPS衛星からの電波が届かないトンネルや地下ではこの方法は使用できないという欠点もある。   In recent years, measurement methods using GPS satellites have also been used. In this method, position measurement is possible with an accuracy of several millimeters to several centimeters. However, one hour or more is required to obtain the accuracy. In addition, the measuring instrument is fixed in a stable place, and it is assumed that its position does not change for a long time, which is inconvenient. Another disadvantage is that this method cannot be used in tunnels and underground where radio waves from GPS satellites do not reach.

また別の方法として、画像解析による位置測定方法も考えられている。例えば特許文献1においては、トンネル内にターゲットと呼ばれる光反射部材を配置し、カメラで撮影した画像を用いてトンネルの形状を測定している。この特許文献1の場合には、所定の間隔で配置された基準となるターゲットを同じ画像中に写し込むことにより画像上の長さと実際の長さとを対応付け、これをもとにして各ターゲットの2次元平面上の位置を割り出している。この特許文献1では、ある2次元平面での位置しかわからない。   As another method, a position measuring method by image analysis is also considered. For example, in Patent Document 1, a light reflecting member called a target is arranged in a tunnel, and the shape of the tunnel is measured using an image taken by a camera. In the case of this patent document 1, the length on the image is associated with the actual length by copying the reference target arranged at a predetermined interval into the same image, and each target is based on this. The position on the two-dimensional plane is determined. In Patent Document 1, only a position on a two-dimensional plane is known.

画像を用いて3次元の位置を計測する方法も開発されている。例えば、既知の複数の位置から写真撮影を行い、得られた複数の写真から位置を求めるステレオ方式が使用されてきた。近年ではデジタルカメラなど、画像をコンピュータ処理できるようになり、位置計測もコンピュータ化されるようになってきている。   A method for measuring a three-dimensional position using an image has also been developed. For example, a stereo method has been used in which a photograph is taken from a plurality of known positions and the position is obtained from the plurality of obtained photographs. In recent years, images such as digital cameras can be computer-processed, and position measurement has also been computerized.

ある未知の点の正確な位置を測定する手法の一つとして、後方交会法と前方交会法がある。図6は、前方交会法及び後方交会法の説明図である。後方交会法は、座標が予めわかっている複数の基準点からカメラの座標及び姿勢を求めるものである。図6(A)に示すように、点Oをカメラの原点とし、基準点Rがカメラの撮像面上の像として点rの位置に投影される。実際のカメラでは像はカメラの原点の後方に投影されるが、ここでは説明のためカメラの原点の前方に結像するものとして示している。   One method for measuring the exact position of an unknown point is the backward intersection method and the forward intersection method. FIG. 6 is an explanatory diagram of the forward intersection method and the backward intersection method. In the backward intersection method, the coordinates and orientation of the camera are obtained from a plurality of reference points whose coordinates are known in advance. As shown in FIG. 6A, the point O is the origin of the camera, and the reference point R is projected as an image on the imaging surface of the camera at the position of the point r. In an actual camera, the image is projected behind the camera origin, but here it is shown as an image formed in front of the camera origin for the sake of explanation.

複数の基準点Rの3次元空間における位置と、その投影点rの撮像面上での位置(2次元)をもとに、カメラの原点Oの3次元空間における座標を求める。なお、カメラの原点と撮像面との距離は、実際のカメラではレンズの焦点距離などで得られ、この値を含めて投影点rはカメラ座標系における3次元の位置が求められることになる。   Based on the positions of the plurality of reference points R in the three-dimensional space and the positions (two dimensions) of the projected points r on the imaging surface, the coordinates of the camera origin O in the three-dimensional space are obtained. Note that the distance between the camera origin and the imaging surface is obtained from the focal length of the lens in an actual camera, and the projection point r is obtained as a three-dimensional position in the camera coordinate system including this value.

ここで、カメラの座標系はカメラの姿勢により回転しており、従って撮像面も回転している。そのため、カメラの原点Oの位置とともに、カメラの姿勢についても求める必要がある。カメラの姿勢は、3軸方向の角度を求めればよい。このように後方交会法では、カメラの位置として3変数、カメラの姿勢として3変数の合計6変数を特定することになる。そのためには、基準点は3点以上、望ましくは6点以上あればよく、基準点が多ければ精度を高められる。   Here, the camera coordinate system is rotated according to the posture of the camera, and therefore the imaging surface is also rotated. For this reason, it is necessary to obtain the posture of the camera as well as the position of the origin O of the camera. What is necessary is just to obtain | require the angle of a triaxial direction for the attitude | position of a camera. As described above, in the backward intersection method, a total of six variables, that is, three variables as the camera position and three variables as the camera posture are specified. For that purpose, the reference points should be 3 points or more, preferably 6 points or more, and if there are many reference points, the accuracy can be improved.

また前方交会法は、上述の後方交会法とは逆に、複数の既知の撮影位置から測定対象点を撮影し、測定対象点の座標を求めるものである。図6(B)に示すように、カメラが点O1および点O2にあるときに測定対象点Pを撮影したものとする。このとき、測定対象点Pは撮像面上の点p1、点p2の位置に投影されたとする。得られた撮像面上での点p1、点p2の位置(2次元)と、カメラの3次元空間における位置(点O1,点O2)およびそれぞれの撮影位置におけるカメラの姿勢(3軸方向の回転角)、カメラの原点と撮像面との距離などから、測定対象点Pの3次元空間における位置を求めればよい。なお、前方交会法ではそれぞれの測定位置及びカメラの姿勢は既知のものとしている。   In contrast to the backward intersection method described above, the forward intersection method captures the measurement target point from a plurality of known imaging positions and obtains the coordinates of the measurement target point. As shown in FIG. 6B, it is assumed that the measurement target point P is photographed when the camera is at the point O1 and the point O2. At this time, it is assumed that the measurement target point P is projected at the positions of the points p1 and p2 on the imaging surface. The positions (two-dimensional) of the points p1 and p2 on the obtained imaging surface, the positions (points O1 and O2) of the camera in the three-dimensional space, and the postures of the cameras at the respective photographing positions (rotation in the three-axis directions) Angle), the distance between the origin of the camera and the imaging surface, and the like, the position of the measurement target point P in the three-dimensional space may be obtained. In the forward intersection method, each measurement position and camera posture are known.

このような後方交会法と前方交会法を組み合わせ、複数の箇所において基準点および測定対象点の撮影を行い、基準点から後方交会法により各撮影位置とカメラの姿勢を求め、それぞれの撮影位置およびカメラの姿勢をもとに前方交会法により測定対象点の位置を求めることができる。   Combining such backward intersection method and forward intersection method, the reference points and measurement target points are photographed at a plurality of locations, and the respective photographing positions and camera postures are obtained from the reference points by the backward intersection method. The position of the measurement target point can be obtained by the forward intersection method based on the camera posture.

後方交会法によりカメラの位置および姿勢を求めるにしても、前方交会法により複数の測定対象点の位置を求めるにしても、複数の基準点あるいは測定対象点を同時に撮影するため、撮影された像がどの点のものであるかを特定する必要がある。この作業は、人手により行うことが考えられるが、点の数が多いと作業は繁雑であるし、また錯誤により異なる点を対応づけてしまうなど、問題も多い。   Regardless of whether the position and orientation of the camera is determined by the backward intersection method or the positions of the plurality of measurement target points are determined by the forward intersection method, a plurality of reference points or measurement target points are photographed simultaneously. It is necessary to specify what point is. Although it is conceivable that this work is performed manually, the work is complicated when the number of points is large, and there are many problems such as different points being associated with each other by mistakes.

別の方法として、画像解析により各点の対応を図る方法もある。例えば基準点を特定のパターンにより構成しておき、その特定のパターンを検出して基準点の対応付けを行い、未知点については基準点との位置関係から対応づけることが考えられる。しかし、カメラの姿勢により特定のパターンの像は回転、変形しているため、特定のパターンを検出する処理は膨大な処理が必要となる。また、撮影状態によっては未知点の対応付けが正確に行われない場合もあった。そもそも、この方法では特定のパターンが必要であるという問題があった。   As another method, there is a method of trying to correspond each point by image analysis. For example, it is conceivable that the reference point is constituted by a specific pattern, the specific pattern is detected to associate the reference point, and the unknown point is associated from the positional relationship with the reference point. However, since the image of the specific pattern is rotated and deformed depending on the posture of the camera, the processing for detecting the specific pattern requires enormous processing. In addition, unknown points may not be accurately associated depending on the shooting state. In the first place, this method has a problem that a specific pattern is required.

特開2003−75149号公報JP 2003-75149 A

本発明は、上述した事情に鑑みてなされたもので、人手による各点の対応付けや特定のパターンの解析が不要であり、簡単に測定対象点の位置を正確に検出することができる位置測定装置を提供することを目的とするものである。   The present invention has been made in view of the circumstances described above, and does not require manual association of points or analysis of a specific pattern, and can easily detect the position of a measurement target point accurately. The object is to provide an apparatus.

本発明は、1ないし複数の測定対象光源あるいはさらに複数の基準光源の光を複数の箇所で撮影し、あるいは複数台の撮影手段で撮影し、測定対象光源の位置を特定する位置測定装置である。測定対象光源および基準光源は、それぞれ異なるデータにより変調された光を放射しており、映像処理手段は、それぞれの測定対象光源および基準光源から放射される光を撮影した映像からデータを復調するとともに、測定対象光源の像の映像中の位置を特定する。この復調したデータをもとに、複数の箇所で撮影した映像に映っている各光源の像を対応づける。これにより、それぞれの光源について各映像中の位置がわかる。撮影手段の位置及び姿勢がわかっていれば、例えば前方交会法などにより各測定対象光源の各映像中の位置をもとに各測定対象光源の位置を特定することができる。また、各基準光源の既知の位置と、基準光源の映像中の位置とから、例えば後方交会法などにより撮影手段の位置及び姿勢を求めることができ、さらに上述のようにして測定対象光源の位置を特定することができる。   The present invention is a position measurement device that captures light from one or more measurement target light sources or a plurality of reference light sources at a plurality of locations or by a plurality of imaging means to identify the position of the measurement target light source. . The measurement target light source and the reference light source emit light modulated by different data, and the image processing means demodulates the data from the images obtained by photographing the light emitted from the measurement target light source and the reference light source. The position in the image of the image of the light source to be measured is specified. Based on the demodulated data, the image of each light source reflected in the video taken at a plurality of locations is associated. Thereby, the position in each image | video can be known about each light source. If the position and orientation of the imaging means are known, the position of each measurement target light source can be specified based on the position of each measurement target light source in each image by, for example, the forward intersection method. Further, from the known position of each reference light source and the position of the reference light source in the image, the position and orientation of the photographing means can be obtained by, for example, the backward intersection method, and the position of the light source to be measured as described above. Can be specified.

なお、基準光源の位置は、例えば通信手段を介して外部から取得したり、あるいは予め記憶手段に各基準光源の位置を記憶させておいて、復調したデータに対応する位置情報を取得したり、または、基準光源から送信するデータとして位置情報を送信するように構成することができる。   The position of the reference light source is acquired from the outside via, for example, communication means, or the position of each reference light source is stored in advance in the storage means, and position information corresponding to the demodulated data is acquired, Alternatively, the position information can be transmitted as data transmitted from the reference light source.

本発明によれば、各測定対象光源あるいはさらに各基準光源からデータを送信し、そのデータにより複数の映像間の光源の像の対応付けを行うので、人手による対応付けは不要であるとともに、パターン解析などの映像の処理が格段に簡単になり、高速かつ高精度で測定対象光源の位置を特定することができるという効果がある。   According to the present invention, data is transmitted from each measurement target light source or each reference light source, and the image of the light source between the plurality of images is associated with the data. The processing of the image such as analysis is remarkably simplified, and there is an effect that the position of the light source to be measured can be specified with high speed and high accuracy.

図1は、本発明の第1の実施の形態を示すブロック図である。図中、11は撮影部、12は映像処理部、13は基準光源位置取得部、14は撮影位置特定部、15は対象位置特定部、21は記憶部、22は通信部、31は基準光源、32は測定対象光源である。基準光源31は、既知の位置に設置された光源である。この基準光源31は、少なくとも3個、望ましくは6個以上設置される。また、測定対象光源32は、特定すべき位置に設置された光源である。基準光源31及び測定対象光源32は、それぞれ異なるデータにより変調された光を放射し、この光によりデータを送信している。例えば、それぞれ異なるIDを送信することができる。また基準光源31については、例えば既知の位置情報そのものを光により送信してもよい。変調方法は、後述の映像処理部12で復調できる方式であるものとする。光源としては、変調により点滅あるいは光量変化の応答が速い光源を用いるとよく、例えば可視光LEDや赤外光LEDを用いることができる。もちろん、他の発光源を用いてもよい。なお、後述のように複数の異なる撮影箇所で映像を撮影するが、撮影箇所の位置が既知であれば基準光源31及び基準光源位置取得部13、撮影位置特定部14などを設けずに構成してもよいが、ここでは撮影箇所の位置が既知でないものとして説明してゆく。   FIG. 1 is a block diagram showing a first embodiment of the present invention. In the figure, 11 is a photographing unit, 12 is a video processing unit, 13 is a reference light source position acquisition unit, 14 is a photographing position specifying unit, 15 is a target position specifying unit, 21 is a storage unit, 22 is a communication unit, and 31 is a reference light source. , 32 are measurement target light sources. The reference light source 31 is a light source installed at a known position. At least three, preferably six or more reference light sources 31 are installed. The measurement target light source 32 is a light source installed at a position to be specified. The reference light source 31 and the measurement target light source 32 emit light modulated by different data, and transmit data using this light. For example, different IDs can be transmitted. For the reference light source 31, for example, known position information itself may be transmitted by light. The modulation method is assumed to be a method that can be demodulated by the video processing unit 12 described later. As the light source, it is preferable to use a light source whose response to blinking or a change in the amount of light is fast due to modulation. For example, a visible LED or an infrared LED can be used. Of course, other light emitting sources may be used. As will be described later, the video is shot at a plurality of different shooting locations. However, if the location of the shooting location is known, the reference light source 31, the reference light source position acquisition unit 13, the shooting position specifying unit 14, and the like are not provided. However, it is assumed here that the position of the shooting location is not known.

撮影部11は、2次元受光素子及びその2次元受光素子に結像するための光学系などを有し、映像を撮影する。特にここでは、基準光源31及び測定対象光源32を含む映像を撮影する。なお、測定対象光源32の位置を特定するため、複数の異なる箇所において撮影する。   The photographing unit 11 includes a two-dimensional light receiving element and an optical system for forming an image on the two-dimensional light receiving element, and photographs an image. In particular, here, an image including the reference light source 31 and the measurement target light source 32 is taken. In addition, in order to pinpoint the position of the measurement object light source 32, it image | photographs in a several different location.

映像処理部12は、撮影部11で撮影された映像から、その映像中の基準光源31の像及び測定対象光源32の像の点滅あるいは光量変動をもとに、基準光源31及び測定対象光源32が光により送信したデータをそれぞれ復調する。それとともに、基準光源31の像および測定対象光源32の像の映像中の位置を特定する。この各光源の像の映像中の位置は、撮影部11における2次元受光素子上の受光位置に相当するものである。   The video processing unit 12 uses the reference light source 31 and the measurement target light source 32 from the video captured by the imaging unit 11 based on the blinking of the image of the reference light source 31 and the image of the measurement target light source 32 in the video or the light amount fluctuation. Respectively demodulates data transmitted by light. At the same time, the position of the image of the reference light source 31 and the image of the measurement target light source 32 in the video is specified. The position in the image of the image of each light source corresponds to the light receiving position on the two-dimensional light receiving element in the photographing unit 11.

基準光源位置取得部13は、映像処理部12で復調されたデータをもとに基準光源31を特定するとともに、基準光源31の3次元空間中の位置を取得する。基準光源31の位置は既知であるが、映像中には複数の基準光源31の像が含まれており、どの像がどの位置であるかを対応づける必要がある。本発明では基準光源31からデータが送られてきており、そのデータを映像処理部12で復調して得ているので、このデータをもとに既知の位置との対応付けを行う。   The reference light source position acquisition unit 13 specifies the reference light source 31 based on the data demodulated by the video processing unit 12 and acquires the position of the reference light source 31 in the three-dimensional space. The position of the reference light source 31 is known, but the image includes a plurality of images of the reference light source 31, and it is necessary to associate which image is which position. In the present invention, data is sent from the reference light source 31 and is obtained by demodulating the data by the video processing unit 12, so that the data is associated with a known position based on this data.

例えばデータとして光源のIDを送信している場合には、予め基準光源31として設定されているIDとの照合を行うことにより基準光源31を特定することができる。あるいは、データ中に基準光源である旨の情報を含ませておいてもよい。また、基準光源31の位置の取得は、例えば基準光源31からデータとして送られてきたIDをもとに通信部22を通じて外部へ問い合わせを行い、IDに対応する位置情報を取得して基準光源31の位置とすればよい。あるいは、基準光源31のIDと位置情報とを対応づけて記憶部21に予め記憶させておき、復調したデータ中のIDに対応付けて記憶されている位置情報を記憶部21から取得して基準光源31の位置とすればよい。または、基準光源31から位置情報がデータとして送信されている場合には、復調されたデータ中から位置情報を取り出して、それぞれの基準光源31の位置としてもよい。   For example, when the ID of the light source is transmitted as data, the reference light source 31 can be specified by collating with an ID set in advance as the reference light source 31. Alternatively, information indicating that the light source is a reference light source may be included in the data. The position of the reference light source 31 is acquired by, for example, making an inquiry to the outside through the communication unit 22 based on an ID sent as data from the reference light source 31, and acquiring position information corresponding to the ID to obtain the reference light source 31. The position should be Alternatively, the ID and position information of the reference light source 31 are associated with each other and stored in the storage unit 21 in advance, and the position information stored in association with the ID in the demodulated data is acquired from the storage unit 21 and used as a reference. The position of the light source 31 may be used. Alternatively, when position information is transmitted as data from the reference light source 31, the position information may be extracted from the demodulated data and set as the position of each reference light source 31.

撮影位置特定部14は、映像処理部12で取得した複数の基準光源31の像の映像中の位置、および、基準光源位置取得部13で取得した基準光源31の3次元空間中の位置を用いて、撮影部11が撮影を行った箇所の3次元空間中の位置および撮影時の撮影部11の姿勢を求める。上述のように基準光源31の像の映像中の位置は、撮影部11における2次元受光素子上の位置に対応するものであり、3次元空間中の撮影位置及び姿勢は、例えば図6(A)で説明した後方交会法により求めることができる。   The shooting position specifying unit 14 uses the positions of the images of the plurality of reference light sources 31 acquired by the video processing unit 12 and the positions of the reference light sources 31 acquired by the reference light source position acquisition unit 13 in the three-dimensional space. Thus, the position in the three-dimensional space where the photographing unit 11 has photographed and the posture of the photographing unit 11 at the time of photographing are obtained. As described above, the position of the image of the reference light source 31 in the video corresponds to the position on the two-dimensional light receiving element in the photographing unit 11, and the photographing position and orientation in the three-dimensional space are shown in FIG. ) Can be obtained by the backward crossing method described in (1).

対象位置特定部15は、複数箇所のそれぞれで撮影部11により撮影された映像をもとに映像処理部12で復調したデータおよび特定された測定対象光源の像の映像中の位置と、撮影位置特定部14により特定された撮影箇所の位置および撮影時の姿勢をもとに、測定対象光源の位置を特定する。まず、それぞれの箇所で撮影された映像に含まれている同じ測定対象光源の像の対応づけを行う。すなわち、ある映像中の測定対象光源32の像が、他の映像中のどの測定対象光源32の像に対応するのかを特定し、対応づける。この対応付けは、映像処理部12で復調されたデータをもとにして、複数の映像において同じデータが得られた像を、同じ測定対象光源32のものであるとして対応づければよい。   The target position specifying unit 15 includes the data demodulated by the video processing unit 12 based on the video shot by the shooting unit 11 at each of a plurality of locations, the position in the video of the specified measurement target light source image, and the shooting position. The position of the light source to be measured is specified based on the position of the shooting location specified by the specifying unit 14 and the posture at the time of shooting. First, the images of the same light source to be measured included in the images photographed at the respective locations are associated. In other words, the measurement target light source 32 image in a certain video is identified and associated with which measurement target light source 32 in another video image. This association may be made by associating images obtained from the same data in a plurality of videos based on the data demodulated by the video processing unit 12 as belonging to the same light source 32 to be measured.

それぞれの映像に含まれる測定対象光源32の像がどの測定対象光源32のものであるかが特定できたら、各測定対象光源32について映像処理部12で求めた各映像中の位置と、撮影位置特定部14で求めた各撮影箇所の3次元空間中の位置及び姿勢から、例えば前方交会法により測定対象光源32の3次元空間中の位置を特定すればよい。   When it is possible to identify which measurement target light source 32 the image of the measurement target light source 32 included in each video is, the position in each video obtained by the video processing unit 12 for each measurement target light source 32 and the shooting position What is necessary is just to identify the position in the three-dimensional space of the measurement object light source 32 from the position and attitude | position in the three-dimensional space of each imaging | photography location calculated | required in the specific | specification part 14, for example by the forward intersection method.

記憶部21は、装置内で記憶しておく必要がある種々の情報を記憶しておくことができ、適宜設ければよい。ここでは、予め設定されている基準光源31の3次元空間中の位置を記憶しておく場合に設けられ、基準光源31が送信するデータと各基準光源31の位置情報を対応づけて記憶する。   The memory | storage part 21 can memorize | store various information which needs to be memorize | stored in an apparatus, and should just be provided suitably. Here, it is provided when the preset position of the reference light source 31 in the three-dimensional space is stored, and the data transmitted by the reference light source 31 and the position information of each reference light source 31 are stored in association with each other.

通信部22は、通信路を通じて外部装置との通信を行うものであり、適宜設ければよい。ここでは、基準光源31の位置情報を外部装置から受け取る場合に設けられ、基準光源31から送られてきたデータをもとに外部装置へ問い合わせを行い、その問い合わせの結果を外部装置から受け取る。   The communication unit 22 performs communication with an external device through a communication path, and may be provided as appropriate. Here, it is provided when the position information of the reference light source 31 is received from an external device, and an inquiry is made to the external device based on the data sent from the reference light source 31, and the result of the inquiry is received from the external device.

図2は、本発明の第1の実施の形態における使用例の説明図である。図2においては、橋梁の各点において位置を計測する場合の一例を示している。測定対象の橋梁に測定対象光源32を複数配置している。また、橋梁を架設する際に基準としたポイントなど、位置が既知であって変化しない場所に基準光源31を設置する。各基準光源31及び測定対象光源32は、それぞれ発光光を異なるデータにより変調し、光によりデータを送信している。なお、基準光源31の位置は予め設定しておく。ここでは一例として、基準光源31が送信するデータ(ID)とその基準光源31の位置とを対応づけて外部装置が保持しているものとする。   FIG. 2 is an explanatory diagram of a usage example in the first embodiment of the present invention. FIG. 2 shows an example in which the position is measured at each point of the bridge. A plurality of measurement target light sources 32 are arranged on the measurement target bridge. In addition, the reference light source 31 is installed in a place where the position is known and does not change, such as a point used as a reference when the bridge is installed. Each of the reference light source 31 and the measurement target light source 32 modulates the emitted light with different data and transmits the data by light. The position of the reference light source 31 is set in advance. Here, as an example, it is assumed that the external device holds the data (ID) transmitted by the reference light source 31 and the position of the reference light source 31 in association with each other.

図2に示す例では、撮影箇所Aと撮影箇所Bで基準光源31及び測定対象光源32を含む映像を撮影する。図示の都合上、撮影部11のみを示し、また撮影された映像の1コマを示している。まず、撮影箇所Aにおいて基準光源31及び測定対象光源32を含む映像を撮影部11が撮影する。映像処理部12は、撮影した映像をもとに、その映像に含まれる基準光源31及び測定対象光源32から送られてきたデータを復調するとともに、基準光源31及び測定対象光源32の像の映像中の位置を特定する。   In the example illustrated in FIG. 2, an image including the reference light source 31 and the measurement target light source 32 is captured at the shooting location A and the shooting location B. For convenience of illustration, only the photographing unit 11 is shown, and one frame of the photographed video is shown. First, the imaging unit 11 captures an image including the reference light source 31 and the measurement target light source 32 at the shooting location A. The video processing unit 12 demodulates the data transmitted from the reference light source 31 and the measurement target light source 32 included in the video based on the captured video, and the video image of the reference light source 31 and the measurement target light source 32. Identify the position inside.

図3は、各光源から送られてくるデータの受信処理の一例の説明図である。ここでは1つの光源について着目して示している。上述のように、各光源はデータにより光の点滅や光量を変化させ、変調された光を放出している。例えば、変調方式としてOOK(On−Off Keying)を用いると、データが1の時に発光し、データが0の時に消灯する。すなわち光の点滅によりデータが送信される。そのため、撮影部11で撮影した映像においては、光源の像が現れたり消滅したりすることになる。この様子を図3に示しており、映像の各フレームを順に参照し、例えば順にフレーム間の相関を取ることにより、光源の点滅や光量変動を抽出することができる。図3に示す例では、データとして1,0,1,…が得られる。なお、データの送受信方法については既存の技術を適用することができる。例えば変調方式としてはOOKに限らず、PPM(Pulse Position Modulation)など、あらゆる強度変調方式を用いることができる。また、データフォーマットなどについても任意に設計することができる。   FIG. 3 is an explanatory diagram of an example of a reception process of data transmitted from each light source. Here, one light source is shown with attention. As described above, each light source emits modulated light by changing blinking or light amount of light according to data. For example, when OOK (On-Off Keying) is used as the modulation method, light is emitted when the data is 1, and the light is turned off when the data is 0. That is, data is transmitted by flashing light. Therefore, the image of the light source appears or disappears in the video imaged by the imaging unit 11. This state is shown in FIG. 3, and by referring to each frame of the video in order, for example, by sequentially obtaining the correlation between the frames, it is possible to extract the blinking of the light source and the light quantity fluctuation. In the example shown in FIG. 3, 1,0, 1,... Are obtained as data. An existing technique can be applied to the data transmission / reception method. For example, the modulation method is not limited to OOK, and any intensity modulation method such as PPM (Pulse Position Modulation) can be used. Also, the data format can be arbitrarily designed.

撮影した映像中には複数の光源の像が含まれているが、これらそれぞれの光源の像について、図3で説明したようにしてデータを取得すればよい。また、1つのフレームのみを参照すると消灯中の光源については存在が確認できないが、複数のフレームを参照することによって映像中に存在している光源の像を抽出することができる。なお、例えば基準光源31及び測定対象光源32以外の他の光源からの光の写り込みや、これらの光源からの光が金属面などの鏡面で反射して写り込む場合もあるが、これらの像についてはデータが取得できないので、基準光源31や測定対象光源32と区別することができる。   The captured video includes a plurality of light source images, and data may be acquired for each of the light source images as described with reference to FIG. In addition, referring to only one frame, the presence of a light source that is turned off cannot be confirmed, but an image of a light source that is present in a video can be extracted by referring to a plurality of frames. Note that, for example, there may be reflections of light from other light sources other than the reference light source 31 and the measurement target light source 32, or the light from these light sources may be reflected by a mirror surface such as a metal surface. Since no data can be acquired for, the reference light source 31 and the measurement target light source 32 can be distinguished.

基準光源31及び測定対象光源32からのデータが取得できたら、基準光源位置取得部13は、基準光源31から送られてきたデータをもとに通信部22を通じて外部装置へ問い合わせを行い、予め設定されている各基準光源31の位置を取得する。基準光源31の位置は、例えば緯度および経度や、ある基準点からの東西および南北方向の距離と高度などが考えられるが、任意に設定した3次元空間における位置であってもよい。   When the data from the reference light source 31 and the measurement target light source 32 can be acquired, the reference light source position acquisition unit 13 makes an inquiry to the external device through the communication unit 22 based on the data transmitted from the reference light source 31, and is set in advance. The position of each reference light source 31 is acquired. The position of the reference light source 31 may be, for example, latitude and longitude, or distances and altitudes in the east-west and north-south directions from a certain reference point, but may be an arbitrarily set position in a three-dimensional space.

そして、取得した各基準光源31の予め設定されている位置と、各基準光源31の映像上の位置とから、撮影位置特定部14は例えば図6(A)に示した後方交会法などにより撮影箇所Aの3次元空間中の位置及び撮影時の姿勢を特定する。従来は基準光源31と測定対象光源32を映像上で分離するため、基準光源31を特定の形状に配置するなど、基準光源31の配置が制約されていたが、本発明ではそれぞれの基準光源31から送られてくるデータにより識別するため、形状などで制約を受けることはない。また、従来は特定の形状を映像から抽出しなければならなかったが、本発明ではそのような処理は不要であり、簡単に各基準光源31を特定し、また対応づけられている位置情報を取得することができる。   Then, from the acquired preset position of each reference light source 31 and the position of each reference light source 31 on the image, the shooting position specifying unit 14 takes a picture by, for example, the backward intersection method shown in FIG. The position of the location A in the three-dimensional space and the posture at the time of shooting are specified. Conventionally, since the reference light source 31 and the measurement target light source 32 are separated on the image, the arrangement of the reference light source 31 is restricted, for example, the reference light source 31 is arranged in a specific shape. Because it is identified by the data sent from, there are no restrictions on the shape. Conventionally, a specific shape has to be extracted from an image. However, in the present invention, such processing is not necessary, and each reference light source 31 is easily specified, and associated positional information is also obtained. Can be acquired.

なお、この時点では1カ所からしか撮影していないので対象位置特定部15は測定対象光源32の位置を特定することができないが、例えば、映像処理部12で得られた撮影箇所Aでの各測定対象光源32の像の映像中の位置と、各測定対象光源32から送られてきて復調したデータを対応づけて、例えば記憶部21などに記憶しておくとよい。   At this time, since only one place is taken, the target position specifying unit 15 cannot specify the position of the measurement target light source 32. For example, each of the shooting places A obtained by the video processing unit 12 The position of the image of the measurement target light source 32 in the video and the demodulated data sent from each measurement target light source 32 may be associated with each other and stored in, for example, the storage unit 21.

次に、図2に示す撮影箇所Bにおいて撮影部11により撮影を行う。この撮影箇所Bにおいても、撮影箇所Aの場合と同様に処理を進める。映像処理部12において、撮影部11で撮影した映像中に含まれる基準光源31及び測定対象光源32から送られてきたデータを映像処理部12で復調し、また、基準光源31及び測定対象光源32の像の映像中の位置を特定する。そして、基準光源31から送られてきたデータをもとに通信部22を通じて外部装置へ問い合わせて各基準光源31の位置情報を基準光源位置取得部13が取得し、取得した各基準光源31の位置情報と、各基準光源31の映像中の位置とから、撮影位置特定部14は撮影箇所Bの3次元空間中の位置及び撮影時の姿勢を特定する。   Next, imaging is performed by the imaging unit 11 at the imaging location B shown in FIG. In this photographing location B, the process proceeds in the same manner as in the photographing location A. In the video processing unit 12, data sent from the reference light source 31 and the measurement target light source 32 included in the video captured by the imaging unit 11 is demodulated by the video processing unit 12, and the reference light source 31 and the measurement target light source 32 are also demodulated. The position of the image in the video is specified. Then, based on the data sent from the reference light source 31, an inquiry is made to the external device through the communication unit 22, the position information of each reference light source 31 is acquired by the reference light source position acquisition unit 13, and the acquired position of each reference light source 31 is acquired. From the information and the position of each reference light source 31 in the video, the shooting position specifying unit 14 specifies the position of the shooting location B in the three-dimensional space and the posture at the time of shooting.

対象位置特定部15は、撮影箇所Bにおいて撮影された映像に含まれている測定対象光源32の像の映像中の位置を求め、それぞれの測定対象光源32から送られてきたデータと対応づける。   The target position specifying unit 15 obtains a position in the video of the image of the measurement target light source 32 included in the video shot at the shooting location B, and associates it with the data sent from each measurement target light source 32.

少なくとも2カ所で撮影が行われると、測定対象光源32の位置を特定することができる。ここまでで撮影箇所Aにおける測定対象光源32の映像中の位置とデータ、および、撮影箇所Bにおける測定対象光源32の映像中の位置とデータが得られている。同じデータを得た測定対象光源32の像の撮影箇所Aで撮影した映像中の位置と,撮影箇所Bで撮影した映像中の位置とを用い、撮影位置特定部14で特定した撮影箇所A,Bの位置及び撮影時の姿勢から、例えば図6(B)に示した前方交会法などによって、測定対象光源32の3次元空間中の位置を特定することができる。   When photographing is performed at at least two locations, the position of the measurement target light source 32 can be specified. Up to this point, the position and data in the video of the measurement target light source 32 at the shooting location A, and the position and data in the video of the measurement target light source 32 at the shooting location B are obtained. Using the position in the video taken at the shooting location A of the image of the light source 32 to be measured and the position in the video taken at the shooting location B, the shooting location A specified by the shooting position specifying unit 14 is obtained. From the position of B and the posture at the time of shooting, the position of the measurement target light source 32 in the three-dimensional space can be specified by, for example, the forward intersection method shown in FIG.

この測定対象光源32の3次元空間中の位置の特定の際に、上述のように2カ所で撮影した映像中の光源の像の対応付けを行う。この対応付けは、従来は特定の形状で配置された基準光源からの相対位置などで判断していたが、本発明ではそのような特定の形状などは不要であり、それぞれの測定対象光源32から送られてくるデータの一致を判断すれば簡単に対応付けを行うことができる。   When the position of the measurement target light source 32 in the three-dimensional space is specified, the images of the light sources in the images taken at two places are associated as described above. Conventionally, this association is determined based on a relative position from a reference light source arranged in a specific shape. However, in the present invention, such a specific shape is not necessary, and each measurement target light source 32 Correspondence can be easily performed by determining the coincidence of the transmitted data.

また、最終的に測定対象光源の位置を特定するまでに要する時間は、従来のGPSを利用する場合には数時間を要していたのに比べると、光による通信速度にもよるが、数秒以下から長くても数分程度であり、従来に比べて格段に速く位置を測定することができる。   In addition, the time required to finally determine the position of the light source to be measured is several seconds, although it depends on the communication speed by light compared to the time required when using the conventional GPS several hours. It is about several minutes at most from the following, and the position can be measured much faster than in the past.

なお、ここでは2カ所で撮影して測定対象光源32の位置を特定するものとしたが、例えば3カ所以上で撮影を行い、精度を向上させることもできる。また、各撮影箇所で位置を固定したままで姿勢を変更でき、しかもその姿勢を計測できる場合には、例えば基準光源31の撮影と測定対象光源32の撮影を別々に行ってもよい。この場合、基準光源31の撮影時と測定対象光源32の撮影時とで撮影倍率を変更することもでき、それぞれ倍率を上げて撮影することにより測定精度を向上させることができる。   Here, it is assumed that the position of the light source 32 to be measured is identified by photographing at two locations, but the accuracy can be improved by photographing at, for example, three or more locations. Further, when the posture can be changed while the position is fixed at each photographing location and the posture can be measured, for example, photographing of the reference light source 31 and photographing of the measurement target light source 32 may be performed separately. In this case, the photographing magnification can be changed between when the reference light source 31 is photographed and when the measurement target light source 32 is photographed, and the measurement accuracy can be improved by increasing the magnification.

さらに、各撮影箇所における位置及び撮影時の姿勢が分かる場合には、基準光源31及び基準光源位置取得部13、撮影位置特定部14を設けずに構成してもよい。   Further, when the position at each photographing location and the posture at the time of photographing are known, the reference light source 31, the reference light source position acquisition unit 13, and the photographing position specifying unit 14 may be omitted.

図4は、本発明の第1の実施の形態における別の使用例の説明図である。図4においては、トンネル内の計測に利用した例を示している。特に図4に示した例では、既に掘削して計測が済んでいる壁面に基準光源31を設け、また測定対象光源32を切削面に設ける。   FIG. 4 is an explanatory diagram of another example of use in the first embodiment of the present invention. In FIG. 4, the example utilized for the measurement in a tunnel is shown. In particular, in the example shown in FIG. 4, the reference light source 31 is provided on the wall surface that has already been excavated and measured, and the measurement target light source 32 is provided on the cutting surface.

この例の場合にも上述の図2に示した例と同様に、異なる複数の箇所で基準光源31および測定対象光源32を含む映像を撮影部11で撮影し、測定対象光源32の位置を特定すればよい。本発明の方法では、光源を用いているため、この例のような暗いトンネル内であっても簡単に、しかも正確に測定対象光源32の位置を求めることができる。   In the case of this example as well, as in the example shown in FIG. 2 described above, images including the reference light source 31 and the measurement target light source 32 are photographed by the photographing unit 11 at a plurality of different locations, and the position of the measurement target light source 32 is specified. do it. Since the method of the present invention uses a light source, the position of the light source 32 to be measured can be obtained easily and accurately even in a dark tunnel like this example.

このような切削面における位置計測を反復して行うことにより、切削面の変異を検出することができる。切削面は崩壊するおそれがあるため、切削面の微少な変異を検出することにより事故防止に役立てることができる。また、この例では切削面に測定対象光源32を設けた例を示したが、切削後の壁面に設けて、切削寸法を計測することもできる。   By repeatedly performing such position measurement on the cutting surface, the variation of the cutting surface can be detected. Since the cutting surface may collapse, it can be useful for preventing accidents by detecting slight variations in the cutting surface. Moreover, although the example which provided the measuring object light source 32 in the cutting surface was shown in this example, it can also provide in the wall surface after cutting, and a cutting dimension can also be measured.

本発明の第1の実施の形態の構成は、上述のような橋梁やトンネルなどへの応用に限られるものではなく、様々な用途について測定対象光源32あるいはさらに基準光源31を設けて測定対象光源32の位置を特定することができる。   The configuration of the first embodiment of the present invention is not limited to the application to the bridges and tunnels as described above, and the measurement target light source 32 or the reference light source 31 is provided for various uses to provide the measurement target light source. 32 positions can be specified.

図5は、本発明の第2の実施の形態を示すブロック図である。図中の符号は図1と同様であり、重複する説明を省略する。上述の第1の実施の形態では、対象位置特定部15で測定対象光源32の位置を特定するため、撮影部11を移動させて異なる箇所で撮影を行うことになるが、この第2の実施の形態では、複数の撮影部11−a,bを設け、それぞれの撮影部11−a,bで映像を撮影する場合の構成例を示している。なお、図5では撮影部を2つ設けた例を示しているが、3以上設けてもよい。   FIG. 5 is a block diagram showing a second embodiment of the present invention. The reference numerals in the figure are the same as those in FIG. In the first embodiment described above, since the position of the measurement target light source 32 is specified by the target position specifying unit 15, the shooting unit 11 is moved and shooting is performed at different locations. This second embodiment In this embodiment, a configuration example in which a plurality of photographing units 11-a and b are provided and a video is photographed by each of the photographing units 11-a and b is illustrated. Although FIG. 5 shows an example in which two photographing units are provided, three or more photographing units may be provided.

さらに図5に示した例では、それぞれの撮影部11−a,bに対応する映像処理部12−a,bを設けている。映像処理部12−aは、撮影部11−aで撮影された映像から基準光源31及び測定対象光源32が光により送信したデータをそれぞれ復調するとともに、基準光源31の像および測定対象光源32の像の映像中の位置を特定する。同様に映像処理部12−bは、撮影部11−bで撮影された映像から基準光源31及び測定対象光源32が光により送信したデータをそれぞれ復調するとともに、基準光源31の像および測定対象光源32の像の映像中の位置を特定する。このようにそれぞれの撮影部11−a,bに対応する映像処理部12−a,bを設けておけば、異なる箇所における映像の撮影を同時に行うことができる。   Further, in the example shown in FIG. 5, video processing units 12-a and b corresponding to the photographing units 11-a and b are provided. The video processing unit 12-a demodulates the data transmitted by the reference light source 31 and the measurement target light source 32 by light from the video imaged by the imaging unit 11-a, and the image of the reference light source 31 and the measurement target light source 32. Specify the position of the image in the video. Similarly, the video processing unit 12-b demodulates the data transmitted by the reference light source 31 and the measurement target light source 32 by light from the video imaged by the imaging unit 11-b, and the image of the reference light source 31 and the measurement target light source. The position in the image of 32 images is specified. As described above, if the image processing units 12-a and 12b corresponding to the respective image capturing units 11-a and 11b are provided, it is possible to simultaneously capture images at different locations.

なお、映像処理部12を共用する構成とし、撮影部11−a,bを1つずつ動作させて映像を撮影するように構成してもよい。撮影部11−a,bを同時に動作させて映像を記憶させておき、映像処理部12で1つずつ処理してゆくことも考えられるが、撮影時に映像処理部12で処理を行っておけば、保存すべき情報量を格段に減少させることができる。   Note that the video processing unit 12 may be shared, and the video capturing units 11-a and b may be operated one by one to capture video. It is conceivable that the photographing units 11-a and 11b are simultaneously operated to store images and processed one by one by the image processing unit 12. However, if processing is performed by the image processing unit 12 at the time of photographing. The amount of information to be stored can be greatly reduced.

基準光源位置取得部13は、映像処理部12−a,bで復調されたデータをもとに基準光源31を特定するとともに、基準光源31の3次元空間中の位置を取得する。また撮影位置特定部14は、映像処理部12−a,bで取得した複数の基準光源31の像の映像中の位置、および、基準光源位置取得部13で取得した基準光源31の3次元空間中の位置を用いて、撮影部11−a,bの3次元空間中の位置および撮影部11−a,bの撮影時の姿勢を求める。なお、この基準光源位置取得部13および撮影位置特定部14についても撮影部11−a,bごとに設け、それぞれ対応する撮影部の位置および姿勢を特定するように構成してもよい。   The reference light source position acquisition unit 13 specifies the reference light source 31 based on the data demodulated by the video processing units 12-a and 12b, and acquires the position of the reference light source 31 in the three-dimensional space. The shooting position specifying unit 14 also includes the positions in the images of the images of the plurality of reference light sources 31 acquired by the video processing units 12-a and 12 b and the three-dimensional space of the reference light source 31 acquired by the reference light source position acquisition unit 13. Using the inside position, the position of the photographing units 11-a, b in the three-dimensional space and the posture of the photographing units 11-a, b at the time of photographing are obtained. The reference light source position acquisition unit 13 and the shooting position specifying unit 14 may be provided for each of the shooting units 11-a and 11b, and may be configured to specify the position and orientation of the corresponding shooting unit.

対象位置特定部15は、映像処理部12−a,bで復調したデータおよび特定された測定対象光源の像の映像中の位置と、基準光源位置取得部13で取得した撮影部11−a,bの位置および撮影時の姿勢をもとに、測定対象光源の位置を特定する。   The target position specifying unit 15 includes the data demodulated by the video processing units 12-a and b and the position of the specified image of the measurement target light source in the video, and the photographing units 11-a and n acquired by the reference light source position acquisition unit 13. The position of the light source to be measured is specified based on the position b and the posture at the time of shooting.

この第2の実施の形態の動作は、上述の第1の実施の形態とほぼ同様であり、異なる撮影箇所に撮影部11を移動させる代わりに、それぞれの撮影箇所に撮影部11を配置すればよい。例えば図2に示した例であれば、撮影箇所Aと撮影箇所Bにそれぞれ撮影部11−aと撮影部11−bを設置して、それぞれの撮影部11−a,bで撮影した映像をもとに測定対象光源32の位置を特定すればよい。図4に示した例も同様であるし、そのほかの用途についても同様である。   The operation of the second embodiment is almost the same as that of the first embodiment described above. Instead of moving the photographing unit 11 to a different photographing location, the photographing unit 11 is arranged at each photographing location. Good. For example, in the example shown in FIG. 2, the photographing unit 11-a and the photographing unit 11-b are installed in the photographing part A and the photographing part B, respectively, and images photographed by the photographing parts 11-a and b are provided. The position of the measurement target light source 32 may be specified based on the original. The example shown in FIG. 4 is the same, and the same applies to other applications.

この第2の実施の形態では、それぞれの撮影箇所で撮影する際に撮影部を移動させる必要がないことから、各撮影部11−a,bを動かないようにしておいて、測定対象光源32の位置を反復して測定することができる。すなわち、各撮影部11−a,bを設置したら、初回は基準光源位置取得部13及び撮影位置特定部14を動作させて各撮影部11−a,bの位置及び撮影時の姿勢を特定した後に測定対象光源32の位置を対象位置特定部15で特定する。その後は、初回で特定した各撮影部11−a,bの位置及び撮影時の姿勢の情報を使用して、測定対象光源32の位置を対象位置特定部15で特定することができる。   In the second embodiment, since it is not necessary to move the photographing unit when photographing at each photographing location, the photographing units 11-a and 11b are not moved, and the measurement target light source 32 is used. Can be measured repeatedly. That is, when each photographing unit 11-a, b is installed, the reference light source position obtaining unit 13 and the photographing position specifying unit 14 are operated for the first time to specify the position of each photographing unit 11-a, b and the posture at the time of photographing. Later, the position of the measurement target light source 32 is specified by the target position specifying unit 15. After that, the position of the measurement target light source 32 can be specified by the target position specifying unit 15 using the information of the positions of the shooting units 11-a and b specified at the first time and the posture at the time of shooting.

例えば図2に示した橋梁の例では、時々刻々と変化する橋梁部分のたわみの変化などを監視することができる。ビルなどの建物などでも、温度変化や風の影響、地震などの影響による柱や梁、壁面などにおけるたわみなどの変化についても同様に監視することができる。また、図4に示したトンネルの例では、切削面の変化を常に監視し、崩壊などの危険を察知することができる。同様に、傾斜地などに設置すれば、地滑りなどの崩落を監視することができる。これらの監視は、測定対象光源32が発光源であることから、夜間や地下などの暗い場所でも行うことができる。また、対象位置特定部15で測定対象光源32の位置を特定する間隔は、各光源からのデータ転送速度や処理速度にもよるが、数秒以下の短時間間隔から数分や1時間以上などの長時間間隔で行うことができる。   For example, in the example of the bridge shown in FIG. 2, it is possible to monitor a change in the deflection of the bridge portion that changes every moment. Even in a building such as a building, it is possible to similarly monitor changes in deflection in columns, beams, wall surfaces, etc. due to temperature changes, wind effects, earthquakes, and the like. Further, in the example of the tunnel shown in FIG. 4, it is possible to constantly monitor the change of the cutting surface and detect danger such as collapse. Similarly, if it is installed on an inclined land or the like, it is possible to monitor a collapse such as a landslide. Such monitoring can be performed in a dark place such as at night or underground because the measurement target light source 32 is a light emission source. Further, the interval for specifying the position of the measurement target light source 32 by the target position specifying unit 15 depends on the data transfer speed and processing speed from each light source, but from a short interval of several seconds or less to several minutes or one hour or more. Can be done at long intervals.

本発明の第1の実施の形態を示すブロック図である。It is a block diagram which shows the 1st Embodiment of this invention. 本発明の第1の実施の形態における使用例の説明図である。It is explanatory drawing of the usage example in the 1st Embodiment of this invention. 各光源から送られてくるデータの受信処理の一例の説明図である。It is explanatory drawing of an example of the reception process of the data sent from each light source. 本発明の第1の実施の形態における別の使用例の説明図である。It is explanatory drawing of another usage example in the 1st Embodiment of this invention. 本発明の第2の実施の形態を示すブロック図である。It is a block diagram which shows the 2nd Embodiment of this invention. 前方交会法及び後方交会法の説明図である。It is explanatory drawing of the front dating method and the back dating method.

符号の説明Explanation of symbols

11,11−a,b…撮影部、12,12−a,b…映像処理部、13…基準光源位置取得部、14…撮影位置特定部、15…対象位置特定部、21…記憶部、22…通信部、31…基準光源、32…測定対象光源。   DESCRIPTION OF SYMBOLS 11,11-a, b ... Imaging | photography part, 12,12-a, b ... Video processing part, 13 ... Reference light source position acquisition part, 14 ... Shooting position specification part, 15 ... Target position specification part, 21 ... Storage part, 22 ... Communication unit, 31 ... Reference light source, 32 ... Measurement target light source.

Claims (8)

1ないし複数の測定対象光源から放射される光の像を含む映像を撮影する撮影手段と、前記撮影手段で撮影された映像から該映像中の前記測定対象光源の像の点滅あるいは光量変動をもとに前記測定対象光源が光により送信したデータを復調するとともに前記測定対象光源の像の前記映像中の位置を特定する映像処理手段と、前記複数箇所のそれぞれで前記撮影手段により撮影された映像をもとに前記映像処理手段で復調されたデータおよび特定された前記測定対象光源の像の前記映像中の位置をもとに前記測定対象光源の位置を特定する対象位置特定手段を有し、前記対象位置特定手段は、前記映像処理手段で復調されたデータをもとにそれぞれの箇所で撮影された前記映像に含まれる同じ前記測定対象光源の像を対応づけ、それぞれの撮影箇所における対応づけられた前記測定対象光源の像の前記映像中の位置及び各撮影箇所の位置および撮影時の前記撮影手段の姿勢から、前記測定対象光源の位置を特定することを特徴とする位置測定装置。   An imaging unit that captures an image including an image of light emitted from one or a plurality of measurement target light sources, and blinking or light amount fluctuation of the image of the measurement target light source in the image from the video captured by the imaging unit. And a video processing means for demodulating the data transmitted by the measurement target light source by light and specifying a position in the video of the image of the measurement target light source, and a video photographed by the photographing means at each of the plurality of locations. Target position specifying means for specifying the position of the measurement target light source based on the data demodulated by the video processing means and the position of the specified image of the measurement target light source in the video, The target position specifying means associates the same image of the measurement target light source included in the video captured at each location based on the data demodulated by the video processing means, and A position for identifying the position of the measurement target light source from the position in the video of the image of the measurement target light source associated with the position, the position of each shooting position, and the attitude of the photographing means at the time of shooting measuring device. 異なる複数箇所に設けられ2次元の映像を撮影する複数の撮影手段と、各撮影手段で撮影された映像から該映像中の測定対象光源の点滅あるいは光量変動をもとに前記測定対象光源が光により送信したデータを復調するとともに前記測定対象光源の像の前記映像中の位置を特定する1ないし複数の映像処理手段と、複数の前記撮影手段により撮影された映像をもとに前記映像手段で復調されたデータおよび特定された前記測定対象光源の像の前記映像中の位置をもとに前記測定対象光源の位置を特定する対象位置特定手段を有し、前記対象位置特定手段は、前記映像処理手段で復調されたデータをもとにそれぞれの前記撮影手段で撮影された前記映像に含まれている同じ前記測定対象光源の像を対応付け、それぞれの前記撮影手段で撮影された映像における対応づけられた前記測定対象光源の像の前記映像中の位置及び前記撮影手段の位置および姿勢から、前記測定対象光源の位置を特定することを特徴とする位置測定装置。   A plurality of photographing means for photographing a two-dimensional image provided at a plurality of different locations, and the measurement target light source emits light from the video photographed by each photographing means based on blinking of the measurement target light source or light quantity fluctuation in the video. 1 to a plurality of video processing means for demodulating the data transmitted by the above and specifying the position of the image of the light source to be measured in the video, and the video means based on the video shot by the plurality of the imaging means Target position specifying means for specifying the position of the measurement target light source based on the demodulated data and the position of the specified image of the measurement target light source in the video, and the target position specifying means includes the video Based on the data demodulated by the processing means, the same image of the light source to be measured included in the video photographed by each of the photographing means is associated and photographed by each of the photographing means. Position measuring apparatus characterized by specifying the position and orientation of the position and the photographing means in the video image of the correspondence obtained the measurement target light source, the position of the measurement target light source in the image. 既知の位置に設置された基準光源からもデータにより変調された光が放射されており、前記撮影手段は、前記測定対象光源の像とともに前記基準光源の像も前記映像に含まれるように撮影し、また前記映像処理手段は、前記基準光源から送られてきたデータも復調するとともに前記基準光源の像の映像中の位置を特定し、さらに、前記映像処理手段で復調されたデータをもとに前記基準光源を特定するとともに該基準光源の位置を取得する基準光源位置取得手段と、前記映像処理手段で特定した前記基準光源の像の前記映像中の位置および前記基準光源位置取得手段で取得した前記既知光源の位置を用いて前記撮影手段の位置および姿勢を求める撮影位置特定手段を有し、前記対象位置特定手段は、複数の箇所で前記撮影位置特定手段で求めた前記撮影手段の位置及び姿勢をさらに用いて前記測定対象光源の位置を特定することを特徴とする請求項1または請求項2に記載の位置測定装置。   Light modulated by data is also emitted from a reference light source installed at a known position, and the photographing unit photographs the image of the reference light source together with the image of the light source to be measured. The video processing means also demodulates the data sent from the reference light source, specifies the position in the video of the image of the reference light source, and further, based on the data demodulated by the video processing means The reference light source position acquisition means for specifying the reference light source and acquiring the position of the reference light source, and the position of the image of the reference light source specified by the video processing means and the reference light source position acquisition means It has a photographing position specifying means for obtaining the position and orientation of the photographing means using the position of the known light source, and the target position specifying means is obtained by the photographing position specifying means at a plurality of locations. Position measuring device according to claim 1 or claim 2, characterized in that locating the measurement target light source further using the position and orientation of the imaging means. さらに、通信路を通じて外部装置との通信を行う通信手段を有し、前記基準光源位置取得手段は、前記映像処理手段で復調して得たデータにより前記通信手段を通じて問い合わせを行い、前記データに対応する位置情報を取得して前記基準光源の位置とすることを特徴とする請求項3に記載の位置測定装置。   Furthermore, it has a communication means which communicates with an external device through a communication path, and the reference light source position acquisition means makes an inquiry through the communication means with data obtained by demodulating by the video processing means, and corresponds to the data The position measuring device according to claim 3, wherein position information to be acquired is obtained and set as a position of the reference light source. さらに、前記基準光源が送信するデータと位置情報を対応づけて記憶する記憶手段を有し、前記基準光源位置取得手段は、前記映像処理手段で復調して得たデータに対応づけて記憶されている位置情報を前記記憶手段より取得して前記基準光源の位置とすることを特徴とする請求項3に記載の位置測定装置。   Furthermore, it has a memory | storage means which matches and memorize | stores the data and position information which the said reference light source transmits, and the said reference light source position acquisition means is matched and memorize | stored corresponding to the data obtained by the said image processing means. The position measurement apparatus according to claim 3, wherein position information obtained from the storage unit is acquired as the position of the reference light source. 前記基準光源は、該基準光源の位置をデータとして光により送信するものであり、前記基準光源位置取得手段は、前記映像処理手段で復調して得た前記基準光源からのデータを該基準光源の位置とすることを特徴とする請求項3に記載の位置測定装置。   The reference light source transmits the position of the reference light source as data, and the reference light source position acquisition means receives data from the reference light source demodulated by the video processing means of the reference light source. The position measuring apparatus according to claim 3, wherein the position measuring apparatus is a position. 前記撮影位置特定手段は、後方交会法により前記撮影手段の位置及び姿勢を求めることを特徴とする請求項3ないし請求項6のいずれか1項に記載の位置測定装置。   The position measuring device according to any one of claims 3 to 6, wherein the photographing position specifying means obtains the position and orientation of the photographing means by a backward intersection method. 前記対象位置特定手段は、前方交会法により前記測定対象光源の位置を特定することを特徴とする請求項1ないし請求項7のいずれか1項に記載の位置測定装置。   The position measuring device according to claim 1, wherein the target position specifying unit specifies a position of the measurement target light source by a forward intersection method.
JP2007197530A 2007-07-30 2007-07-30 Position measuring device Pending JP2009031206A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007197530A JP2009031206A (en) 2007-07-30 2007-07-30 Position measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007197530A JP2009031206A (en) 2007-07-30 2007-07-30 Position measuring device

Publications (1)

Publication Number Publication Date
JP2009031206A true JP2009031206A (en) 2009-02-12

Family

ID=40401855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007197530A Pending JP2009031206A (en) 2007-07-30 2007-07-30 Position measuring device

Country Status (1)

Country Link
JP (1) JP2009031206A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175855A1 (en) * 2012-05-21 2013-11-28 株式会社豊田自動織機 Position detecting system
JP2015203685A (en) * 2014-04-16 2015-11-16 富士通株式会社 Environment monitoring system and environment monitoring method
JP2019143995A (en) * 2018-02-16 2019-08-29 株式会社神戸製鋼所 Construction machine position estimation device
JP2021042978A (en) * 2019-09-06 2021-03-18 日本電気株式会社 Measuring device and measuring method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07139942A (en) * 1993-11-12 1995-06-02 Wacom Co Ltd Surveying apparatus
JP2001159519A (en) * 1999-12-02 2001-06-12 Hitachi Plant Eng & Constr Co Ltd Target device for image recognition
JP2002202124A (en) * 2000-12-28 2002-07-19 Kajima Corp Image measuring method and recording medium with recorded image measuring program
JP2002314994A (en) * 2001-04-13 2002-10-25 Matsushita Electric Ind Co Ltd System and method for estimating camera position
JP2003254716A (en) * 2002-03-04 2003-09-10 Sony Corp Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07139942A (en) * 1993-11-12 1995-06-02 Wacom Co Ltd Surveying apparatus
JP2001159519A (en) * 1999-12-02 2001-06-12 Hitachi Plant Eng & Constr Co Ltd Target device for image recognition
JP2002202124A (en) * 2000-12-28 2002-07-19 Kajima Corp Image measuring method and recording medium with recorded image measuring program
JP2002314994A (en) * 2001-04-13 2002-10-25 Matsushita Electric Ind Co Ltd System and method for estimating camera position
JP2003254716A (en) * 2002-03-04 2003-09-10 Sony Corp Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175855A1 (en) * 2012-05-21 2013-11-28 株式会社豊田自動織機 Position detecting system
JP2015203685A (en) * 2014-04-16 2015-11-16 富士通株式会社 Environment monitoring system and environment monitoring method
JP2019143995A (en) * 2018-02-16 2019-08-29 株式会社神戸製鋼所 Construction machine position estimation device
JP2021042978A (en) * 2019-09-06 2021-03-18 日本電気株式会社 Measuring device and measuring method
JP7363225B2 (en) 2019-09-06 2023-10-18 日本電気株式会社 Measuring device, measuring system, measuring method and program

Similar Documents

Publication Publication Date Title
US10373035B2 (en) Method and system for determining spatial characteristics of a camera
US7733342B2 (en) Method of extracting 3D building information using shadow analysis
US11796682B2 (en) Methods for geospatial positioning and portable positioning devices thereof
CN106408601B (en) A kind of binocular fusion localization method and device based on GPS
JP6574845B2 (en) Drawing creating apparatus and drawing creating method
JPWO2005017644A1 (en) Three-dimensional survey device and electronic storage medium
KR20170094030A (en) System and Method for providing mapping of indoor navigation and panorama pictures
JP2006003132A (en) Three-dimensional surveying apparatus and electronic storage medium
JP5749319B2 (en) Portable terminal for sensor alignment
JP2005017262A (en) Three-dimensional surveying system and three-dimensional space object restoring method
US20090008554A1 (en) Method for infrared imaging of living or non-living objects including terrains that are either natural or manmade
JP6383439B2 (en) Method and system for calibrating a sensor using a recognized object
JP4077385B2 (en) Global coordinate acquisition device using image processing
JP2005077385A (en) Image correlation method, survey method and measuring system using them
KR101296601B1 (en) The camera control system and method for producing the panorama of map information
JP2019039851A (en) Photogrammetry system and photogrammetry method
KR100679864B1 (en) Cellular phone capable of displaying geographic information and a method thereof
JP2009031206A (en) Position measuring device
WO2019188961A1 (en) Target device and surveying system
JP2001317915A (en) Three-dimensional measurement apparatus
JP2006170688A (en) Stereo image formation method and three-dimensional data preparation device
JP2010043961A (en) Three-dimensional image measuring system
JP2007093479A (en) Three-dimensional coordinate measuring method
JP6610741B2 (en) Image display system, image display apparatus, image display method, and program
KR101195134B1 (en) Numerical map system offering omnidirectional incline image and offering method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121024