JP2009031206A - Position measuring device - Google Patents
Position measuring device Download PDFInfo
- Publication number
- JP2009031206A JP2009031206A JP2007197530A JP2007197530A JP2009031206A JP 2009031206 A JP2009031206 A JP 2009031206A JP 2007197530 A JP2007197530 A JP 2007197530A JP 2007197530 A JP2007197530 A JP 2007197530A JP 2009031206 A JP2009031206 A JP 2009031206A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- video
- image
- reference light
- measurement target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、位置を測定する位置測定技術に関するものである。 The present invention relates to a position measurement technique for measuring a position.
橋やビルの建設など、様々な建設の現場では位置を正確に測定することが重要である。位置を測定する代表的な方法として、旧来は三角法により測量している。しかし三角法は人間が目視で測定する必要があるので、人間による測定誤差などが生じてしまう問題があり、また夜間に測定することが困難であるという問題もある。 It is important to measure the position accurately at various construction sites such as bridges and buildings. Traditionally, triangulation is used as a representative method for measuring position. However, since the trigonometric method needs to be measured by human eyes, there is a problem that human measurement errors occur, and there is also a problem that it is difficult to measure at night.
近年、GPS衛星を用いた測定方法も利用されるようになってきた。この方法では、数ミリから数センチの精度で位置測定が可能である。しかし、その精度を得るには1時間以上の時間が必要である。また、測定器は安定した場所に確実に固定し、長時間、その位置が変わらないことを前提としており、使い勝手の悪いものである。また、GPS衛星からの電波が届かないトンネルや地下ではこの方法は使用できないという欠点もある。 In recent years, measurement methods using GPS satellites have also been used. In this method, position measurement is possible with an accuracy of several millimeters to several centimeters. However, one hour or more is required to obtain the accuracy. In addition, the measuring instrument is fixed in a stable place, and it is assumed that its position does not change for a long time, which is inconvenient. Another disadvantage is that this method cannot be used in tunnels and underground where radio waves from GPS satellites do not reach.
また別の方法として、画像解析による位置測定方法も考えられている。例えば特許文献1においては、トンネル内にターゲットと呼ばれる光反射部材を配置し、カメラで撮影した画像を用いてトンネルの形状を測定している。この特許文献1の場合には、所定の間隔で配置された基準となるターゲットを同じ画像中に写し込むことにより画像上の長さと実際の長さとを対応付け、これをもとにして各ターゲットの2次元平面上の位置を割り出している。この特許文献1では、ある2次元平面での位置しかわからない。
As another method, a position measuring method by image analysis is also considered. For example, in
画像を用いて3次元の位置を計測する方法も開発されている。例えば、既知の複数の位置から写真撮影を行い、得られた複数の写真から位置を求めるステレオ方式が使用されてきた。近年ではデジタルカメラなど、画像をコンピュータ処理できるようになり、位置計測もコンピュータ化されるようになってきている。 A method for measuring a three-dimensional position using an image has also been developed. For example, a stereo method has been used in which a photograph is taken from a plurality of known positions and the position is obtained from the plurality of obtained photographs. In recent years, images such as digital cameras can be computer-processed, and position measurement has also been computerized.
ある未知の点の正確な位置を測定する手法の一つとして、後方交会法と前方交会法がある。図6は、前方交会法及び後方交会法の説明図である。後方交会法は、座標が予めわかっている複数の基準点からカメラの座標及び姿勢を求めるものである。図6(A)に示すように、点Oをカメラの原点とし、基準点Rがカメラの撮像面上の像として点rの位置に投影される。実際のカメラでは像はカメラの原点の後方に投影されるが、ここでは説明のためカメラの原点の前方に結像するものとして示している。 One method for measuring the exact position of an unknown point is the backward intersection method and the forward intersection method. FIG. 6 is an explanatory diagram of the forward intersection method and the backward intersection method. In the backward intersection method, the coordinates and orientation of the camera are obtained from a plurality of reference points whose coordinates are known in advance. As shown in FIG. 6A, the point O is the origin of the camera, and the reference point R is projected as an image on the imaging surface of the camera at the position of the point r. In an actual camera, the image is projected behind the camera origin, but here it is shown as an image formed in front of the camera origin for the sake of explanation.
複数の基準点Rの3次元空間における位置と、その投影点rの撮像面上での位置(2次元)をもとに、カメラの原点Oの3次元空間における座標を求める。なお、カメラの原点と撮像面との距離は、実際のカメラではレンズの焦点距離などで得られ、この値を含めて投影点rはカメラ座標系における3次元の位置が求められることになる。 Based on the positions of the plurality of reference points R in the three-dimensional space and the positions (two dimensions) of the projected points r on the imaging surface, the coordinates of the camera origin O in the three-dimensional space are obtained. Note that the distance between the camera origin and the imaging surface is obtained from the focal length of the lens in an actual camera, and the projection point r is obtained as a three-dimensional position in the camera coordinate system including this value.
ここで、カメラの座標系はカメラの姿勢により回転しており、従って撮像面も回転している。そのため、カメラの原点Oの位置とともに、カメラの姿勢についても求める必要がある。カメラの姿勢は、3軸方向の角度を求めればよい。このように後方交会法では、カメラの位置として3変数、カメラの姿勢として3変数の合計6変数を特定することになる。そのためには、基準点は3点以上、望ましくは6点以上あればよく、基準点が多ければ精度を高められる。 Here, the camera coordinate system is rotated according to the posture of the camera, and therefore the imaging surface is also rotated. For this reason, it is necessary to obtain the posture of the camera as well as the position of the origin O of the camera. What is necessary is just to obtain | require the angle of a triaxial direction for the attitude | position of a camera. As described above, in the backward intersection method, a total of six variables, that is, three variables as the camera position and three variables as the camera posture are specified. For that purpose, the reference points should be 3 points or more, preferably 6 points or more, and if there are many reference points, the accuracy can be improved.
また前方交会法は、上述の後方交会法とは逆に、複数の既知の撮影位置から測定対象点を撮影し、測定対象点の座標を求めるものである。図6(B)に示すように、カメラが点O1および点O2にあるときに測定対象点Pを撮影したものとする。このとき、測定対象点Pは撮像面上の点p1、点p2の位置に投影されたとする。得られた撮像面上での点p1、点p2の位置(2次元)と、カメラの3次元空間における位置(点O1,点O2)およびそれぞれの撮影位置におけるカメラの姿勢(3軸方向の回転角)、カメラの原点と撮像面との距離などから、測定対象点Pの3次元空間における位置を求めればよい。なお、前方交会法ではそれぞれの測定位置及びカメラの姿勢は既知のものとしている。 In contrast to the backward intersection method described above, the forward intersection method captures the measurement target point from a plurality of known imaging positions and obtains the coordinates of the measurement target point. As shown in FIG. 6B, it is assumed that the measurement target point P is photographed when the camera is at the point O1 and the point O2. At this time, it is assumed that the measurement target point P is projected at the positions of the points p1 and p2 on the imaging surface. The positions (two-dimensional) of the points p1 and p2 on the obtained imaging surface, the positions (points O1 and O2) of the camera in the three-dimensional space, and the postures of the cameras at the respective photographing positions (rotation in the three-axis directions) Angle), the distance between the origin of the camera and the imaging surface, and the like, the position of the measurement target point P in the three-dimensional space may be obtained. In the forward intersection method, each measurement position and camera posture are known.
このような後方交会法と前方交会法を組み合わせ、複数の箇所において基準点および測定対象点の撮影を行い、基準点から後方交会法により各撮影位置とカメラの姿勢を求め、それぞれの撮影位置およびカメラの姿勢をもとに前方交会法により測定対象点の位置を求めることができる。 Combining such backward intersection method and forward intersection method, the reference points and measurement target points are photographed at a plurality of locations, and the respective photographing positions and camera postures are obtained from the reference points by the backward intersection method. The position of the measurement target point can be obtained by the forward intersection method based on the camera posture.
後方交会法によりカメラの位置および姿勢を求めるにしても、前方交会法により複数の測定対象点の位置を求めるにしても、複数の基準点あるいは測定対象点を同時に撮影するため、撮影された像がどの点のものであるかを特定する必要がある。この作業は、人手により行うことが考えられるが、点の数が多いと作業は繁雑であるし、また錯誤により異なる点を対応づけてしまうなど、問題も多い。 Regardless of whether the position and orientation of the camera is determined by the backward intersection method or the positions of the plurality of measurement target points are determined by the forward intersection method, a plurality of reference points or measurement target points are photographed simultaneously. It is necessary to specify what point is. Although it is conceivable that this work is performed manually, the work is complicated when the number of points is large, and there are many problems such as different points being associated with each other by mistakes.
別の方法として、画像解析により各点の対応を図る方法もある。例えば基準点を特定のパターンにより構成しておき、その特定のパターンを検出して基準点の対応付けを行い、未知点については基準点との位置関係から対応づけることが考えられる。しかし、カメラの姿勢により特定のパターンの像は回転、変形しているため、特定のパターンを検出する処理は膨大な処理が必要となる。また、撮影状態によっては未知点の対応付けが正確に行われない場合もあった。そもそも、この方法では特定のパターンが必要であるという問題があった。 As another method, there is a method of trying to correspond each point by image analysis. For example, it is conceivable that the reference point is constituted by a specific pattern, the specific pattern is detected to associate the reference point, and the unknown point is associated from the positional relationship with the reference point. However, since the image of the specific pattern is rotated and deformed depending on the posture of the camera, the processing for detecting the specific pattern requires enormous processing. In addition, unknown points may not be accurately associated depending on the shooting state. In the first place, this method has a problem that a specific pattern is required.
本発明は、上述した事情に鑑みてなされたもので、人手による各点の対応付けや特定のパターンの解析が不要であり、簡単に測定対象点の位置を正確に検出することができる位置測定装置を提供することを目的とするものである。 The present invention has been made in view of the circumstances described above, and does not require manual association of points or analysis of a specific pattern, and can easily detect the position of a measurement target point accurately. The object is to provide an apparatus.
本発明は、1ないし複数の測定対象光源あるいはさらに複数の基準光源の光を複数の箇所で撮影し、あるいは複数台の撮影手段で撮影し、測定対象光源の位置を特定する位置測定装置である。測定対象光源および基準光源は、それぞれ異なるデータにより変調された光を放射しており、映像処理手段は、それぞれの測定対象光源および基準光源から放射される光を撮影した映像からデータを復調するとともに、測定対象光源の像の映像中の位置を特定する。この復調したデータをもとに、複数の箇所で撮影した映像に映っている各光源の像を対応づける。これにより、それぞれの光源について各映像中の位置がわかる。撮影手段の位置及び姿勢がわかっていれば、例えば前方交会法などにより各測定対象光源の各映像中の位置をもとに各測定対象光源の位置を特定することができる。また、各基準光源の既知の位置と、基準光源の映像中の位置とから、例えば後方交会法などにより撮影手段の位置及び姿勢を求めることができ、さらに上述のようにして測定対象光源の位置を特定することができる。 The present invention is a position measurement device that captures light from one or more measurement target light sources or a plurality of reference light sources at a plurality of locations or by a plurality of imaging means to identify the position of the measurement target light source. . The measurement target light source and the reference light source emit light modulated by different data, and the image processing means demodulates the data from the images obtained by photographing the light emitted from the measurement target light source and the reference light source. The position in the image of the image of the light source to be measured is specified. Based on the demodulated data, the image of each light source reflected in the video taken at a plurality of locations is associated. Thereby, the position in each image | video can be known about each light source. If the position and orientation of the imaging means are known, the position of each measurement target light source can be specified based on the position of each measurement target light source in each image by, for example, the forward intersection method. Further, from the known position of each reference light source and the position of the reference light source in the image, the position and orientation of the photographing means can be obtained by, for example, the backward intersection method, and the position of the light source to be measured as described above. Can be specified.
なお、基準光源の位置は、例えば通信手段を介して外部から取得したり、あるいは予め記憶手段に各基準光源の位置を記憶させておいて、復調したデータに対応する位置情報を取得したり、または、基準光源から送信するデータとして位置情報を送信するように構成することができる。 The position of the reference light source is acquired from the outside via, for example, communication means, or the position of each reference light source is stored in advance in the storage means, and position information corresponding to the demodulated data is acquired, Alternatively, the position information can be transmitted as data transmitted from the reference light source.
本発明によれば、各測定対象光源あるいはさらに各基準光源からデータを送信し、そのデータにより複数の映像間の光源の像の対応付けを行うので、人手による対応付けは不要であるとともに、パターン解析などの映像の処理が格段に簡単になり、高速かつ高精度で測定対象光源の位置を特定することができるという効果がある。 According to the present invention, data is transmitted from each measurement target light source or each reference light source, and the image of the light source between the plurality of images is associated with the data. The processing of the image such as analysis is remarkably simplified, and there is an effect that the position of the light source to be measured can be specified with high speed and high accuracy.
図1は、本発明の第1の実施の形態を示すブロック図である。図中、11は撮影部、12は映像処理部、13は基準光源位置取得部、14は撮影位置特定部、15は対象位置特定部、21は記憶部、22は通信部、31は基準光源、32は測定対象光源である。基準光源31は、既知の位置に設置された光源である。この基準光源31は、少なくとも3個、望ましくは6個以上設置される。また、測定対象光源32は、特定すべき位置に設置された光源である。基準光源31及び測定対象光源32は、それぞれ異なるデータにより変調された光を放射し、この光によりデータを送信している。例えば、それぞれ異なるIDを送信することができる。また基準光源31については、例えば既知の位置情報そのものを光により送信してもよい。変調方法は、後述の映像処理部12で復調できる方式であるものとする。光源としては、変調により点滅あるいは光量変化の応答が速い光源を用いるとよく、例えば可視光LEDや赤外光LEDを用いることができる。もちろん、他の発光源を用いてもよい。なお、後述のように複数の異なる撮影箇所で映像を撮影するが、撮影箇所の位置が既知であれば基準光源31及び基準光源位置取得部13、撮影位置特定部14などを設けずに構成してもよいが、ここでは撮影箇所の位置が既知でないものとして説明してゆく。
FIG. 1 is a block diagram showing a first embodiment of the present invention. In the figure, 11 is a photographing unit, 12 is a video processing unit, 13 is a reference light source position acquisition unit, 14 is a photographing position specifying unit, 15 is a target position specifying unit, 21 is a storage unit, 22 is a communication unit, and 31 is a reference light source. , 32 are measurement target light sources. The
撮影部11は、2次元受光素子及びその2次元受光素子に結像するための光学系などを有し、映像を撮影する。特にここでは、基準光源31及び測定対象光源32を含む映像を撮影する。なお、測定対象光源32の位置を特定するため、複数の異なる箇所において撮影する。
The photographing
映像処理部12は、撮影部11で撮影された映像から、その映像中の基準光源31の像及び測定対象光源32の像の点滅あるいは光量変動をもとに、基準光源31及び測定対象光源32が光により送信したデータをそれぞれ復調する。それとともに、基準光源31の像および測定対象光源32の像の映像中の位置を特定する。この各光源の像の映像中の位置は、撮影部11における2次元受光素子上の受光位置に相当するものである。
The
基準光源位置取得部13は、映像処理部12で復調されたデータをもとに基準光源31を特定するとともに、基準光源31の3次元空間中の位置を取得する。基準光源31の位置は既知であるが、映像中には複数の基準光源31の像が含まれており、どの像がどの位置であるかを対応づける必要がある。本発明では基準光源31からデータが送られてきており、そのデータを映像処理部12で復調して得ているので、このデータをもとに既知の位置との対応付けを行う。
The reference light source
例えばデータとして光源のIDを送信している場合には、予め基準光源31として設定されているIDとの照合を行うことにより基準光源31を特定することができる。あるいは、データ中に基準光源である旨の情報を含ませておいてもよい。また、基準光源31の位置の取得は、例えば基準光源31からデータとして送られてきたIDをもとに通信部22を通じて外部へ問い合わせを行い、IDに対応する位置情報を取得して基準光源31の位置とすればよい。あるいは、基準光源31のIDと位置情報とを対応づけて記憶部21に予め記憶させておき、復調したデータ中のIDに対応付けて記憶されている位置情報を記憶部21から取得して基準光源31の位置とすればよい。または、基準光源31から位置情報がデータとして送信されている場合には、復調されたデータ中から位置情報を取り出して、それぞれの基準光源31の位置としてもよい。
For example, when the ID of the light source is transmitted as data, the
撮影位置特定部14は、映像処理部12で取得した複数の基準光源31の像の映像中の位置、および、基準光源位置取得部13で取得した基準光源31の3次元空間中の位置を用いて、撮影部11が撮影を行った箇所の3次元空間中の位置および撮影時の撮影部11の姿勢を求める。上述のように基準光源31の像の映像中の位置は、撮影部11における2次元受光素子上の位置に対応するものであり、3次元空間中の撮影位置及び姿勢は、例えば図6(A)で説明した後方交会法により求めることができる。
The shooting
対象位置特定部15は、複数箇所のそれぞれで撮影部11により撮影された映像をもとに映像処理部12で復調したデータおよび特定された測定対象光源の像の映像中の位置と、撮影位置特定部14により特定された撮影箇所の位置および撮影時の姿勢をもとに、測定対象光源の位置を特定する。まず、それぞれの箇所で撮影された映像に含まれている同じ測定対象光源の像の対応づけを行う。すなわち、ある映像中の測定対象光源32の像が、他の映像中のどの測定対象光源32の像に対応するのかを特定し、対応づける。この対応付けは、映像処理部12で復調されたデータをもとにして、複数の映像において同じデータが得られた像を、同じ測定対象光源32のものであるとして対応づければよい。
The target
それぞれの映像に含まれる測定対象光源32の像がどの測定対象光源32のものであるかが特定できたら、各測定対象光源32について映像処理部12で求めた各映像中の位置と、撮影位置特定部14で求めた各撮影箇所の3次元空間中の位置及び姿勢から、例えば前方交会法により測定対象光源32の3次元空間中の位置を特定すればよい。
When it is possible to identify which measurement
記憶部21は、装置内で記憶しておく必要がある種々の情報を記憶しておくことができ、適宜設ければよい。ここでは、予め設定されている基準光源31の3次元空間中の位置を記憶しておく場合に設けられ、基準光源31が送信するデータと各基準光源31の位置情報を対応づけて記憶する。
The memory |
通信部22は、通信路を通じて外部装置との通信を行うものであり、適宜設ければよい。ここでは、基準光源31の位置情報を外部装置から受け取る場合に設けられ、基準光源31から送られてきたデータをもとに外部装置へ問い合わせを行い、その問い合わせの結果を外部装置から受け取る。
The
図2は、本発明の第1の実施の形態における使用例の説明図である。図2においては、橋梁の各点において位置を計測する場合の一例を示している。測定対象の橋梁に測定対象光源32を複数配置している。また、橋梁を架設する際に基準としたポイントなど、位置が既知であって変化しない場所に基準光源31を設置する。各基準光源31及び測定対象光源32は、それぞれ発光光を異なるデータにより変調し、光によりデータを送信している。なお、基準光源31の位置は予め設定しておく。ここでは一例として、基準光源31が送信するデータ(ID)とその基準光源31の位置とを対応づけて外部装置が保持しているものとする。
FIG. 2 is an explanatory diagram of a usage example in the first embodiment of the present invention. FIG. 2 shows an example in which the position is measured at each point of the bridge. A plurality of measurement target
図2に示す例では、撮影箇所Aと撮影箇所Bで基準光源31及び測定対象光源32を含む映像を撮影する。図示の都合上、撮影部11のみを示し、また撮影された映像の1コマを示している。まず、撮影箇所Aにおいて基準光源31及び測定対象光源32を含む映像を撮影部11が撮影する。映像処理部12は、撮影した映像をもとに、その映像に含まれる基準光源31及び測定対象光源32から送られてきたデータを復調するとともに、基準光源31及び測定対象光源32の像の映像中の位置を特定する。
In the example illustrated in FIG. 2, an image including the
図3は、各光源から送られてくるデータの受信処理の一例の説明図である。ここでは1つの光源について着目して示している。上述のように、各光源はデータにより光の点滅や光量を変化させ、変調された光を放出している。例えば、変調方式としてOOK(On−Off Keying)を用いると、データが1の時に発光し、データが0の時に消灯する。すなわち光の点滅によりデータが送信される。そのため、撮影部11で撮影した映像においては、光源の像が現れたり消滅したりすることになる。この様子を図3に示しており、映像の各フレームを順に参照し、例えば順にフレーム間の相関を取ることにより、光源の点滅や光量変動を抽出することができる。図3に示す例では、データとして1,0,1,…が得られる。なお、データの送受信方法については既存の技術を適用することができる。例えば変調方式としてはOOKに限らず、PPM(Pulse Position Modulation)など、あらゆる強度変調方式を用いることができる。また、データフォーマットなどについても任意に設計することができる。
FIG. 3 is an explanatory diagram of an example of a reception process of data transmitted from each light source. Here, one light source is shown with attention. As described above, each light source emits modulated light by changing blinking or light amount of light according to data. For example, when OOK (On-Off Keying) is used as the modulation method, light is emitted when the data is 1, and the light is turned off when the data is 0. That is, data is transmitted by flashing light. Therefore, the image of the light source appears or disappears in the video imaged by the
撮影した映像中には複数の光源の像が含まれているが、これらそれぞれの光源の像について、図3で説明したようにしてデータを取得すればよい。また、1つのフレームのみを参照すると消灯中の光源については存在が確認できないが、複数のフレームを参照することによって映像中に存在している光源の像を抽出することができる。なお、例えば基準光源31及び測定対象光源32以外の他の光源からの光の写り込みや、これらの光源からの光が金属面などの鏡面で反射して写り込む場合もあるが、これらの像についてはデータが取得できないので、基準光源31や測定対象光源32と区別することができる。
The captured video includes a plurality of light source images, and data may be acquired for each of the light source images as described with reference to FIG. In addition, referring to only one frame, the presence of a light source that is turned off cannot be confirmed, but an image of a light source that is present in a video can be extracted by referring to a plurality of frames. Note that, for example, there may be reflections of light from other light sources other than the
基準光源31及び測定対象光源32からのデータが取得できたら、基準光源位置取得部13は、基準光源31から送られてきたデータをもとに通信部22を通じて外部装置へ問い合わせを行い、予め設定されている各基準光源31の位置を取得する。基準光源31の位置は、例えば緯度および経度や、ある基準点からの東西および南北方向の距離と高度などが考えられるが、任意に設定した3次元空間における位置であってもよい。
When the data from the
そして、取得した各基準光源31の予め設定されている位置と、各基準光源31の映像上の位置とから、撮影位置特定部14は例えば図6(A)に示した後方交会法などにより撮影箇所Aの3次元空間中の位置及び撮影時の姿勢を特定する。従来は基準光源31と測定対象光源32を映像上で分離するため、基準光源31を特定の形状に配置するなど、基準光源31の配置が制約されていたが、本発明ではそれぞれの基準光源31から送られてくるデータにより識別するため、形状などで制約を受けることはない。また、従来は特定の形状を映像から抽出しなければならなかったが、本発明ではそのような処理は不要であり、簡単に各基準光源31を特定し、また対応づけられている位置情報を取得することができる。
Then, from the acquired preset position of each
なお、この時点では1カ所からしか撮影していないので対象位置特定部15は測定対象光源32の位置を特定することができないが、例えば、映像処理部12で得られた撮影箇所Aでの各測定対象光源32の像の映像中の位置と、各測定対象光源32から送られてきて復調したデータを対応づけて、例えば記憶部21などに記憶しておくとよい。
At this time, since only one place is taken, the target
次に、図2に示す撮影箇所Bにおいて撮影部11により撮影を行う。この撮影箇所Bにおいても、撮影箇所Aの場合と同様に処理を進める。映像処理部12において、撮影部11で撮影した映像中に含まれる基準光源31及び測定対象光源32から送られてきたデータを映像処理部12で復調し、また、基準光源31及び測定対象光源32の像の映像中の位置を特定する。そして、基準光源31から送られてきたデータをもとに通信部22を通じて外部装置へ問い合わせて各基準光源31の位置情報を基準光源位置取得部13が取得し、取得した各基準光源31の位置情報と、各基準光源31の映像中の位置とから、撮影位置特定部14は撮影箇所Bの3次元空間中の位置及び撮影時の姿勢を特定する。
Next, imaging is performed by the
対象位置特定部15は、撮影箇所Bにおいて撮影された映像に含まれている測定対象光源32の像の映像中の位置を求め、それぞれの測定対象光源32から送られてきたデータと対応づける。
The target
少なくとも2カ所で撮影が行われると、測定対象光源32の位置を特定することができる。ここまでで撮影箇所Aにおける測定対象光源32の映像中の位置とデータ、および、撮影箇所Bにおける測定対象光源32の映像中の位置とデータが得られている。同じデータを得た測定対象光源32の像の撮影箇所Aで撮影した映像中の位置と,撮影箇所Bで撮影した映像中の位置とを用い、撮影位置特定部14で特定した撮影箇所A,Bの位置及び撮影時の姿勢から、例えば図6(B)に示した前方交会法などによって、測定対象光源32の3次元空間中の位置を特定することができる。
When photographing is performed at at least two locations, the position of the measurement
この測定対象光源32の3次元空間中の位置の特定の際に、上述のように2カ所で撮影した映像中の光源の像の対応付けを行う。この対応付けは、従来は特定の形状で配置された基準光源からの相対位置などで判断していたが、本発明ではそのような特定の形状などは不要であり、それぞれの測定対象光源32から送られてくるデータの一致を判断すれば簡単に対応付けを行うことができる。
When the position of the measurement
また、最終的に測定対象光源の位置を特定するまでに要する時間は、従来のGPSを利用する場合には数時間を要していたのに比べると、光による通信速度にもよるが、数秒以下から長くても数分程度であり、従来に比べて格段に速く位置を測定することができる。 In addition, the time required to finally determine the position of the light source to be measured is several seconds, although it depends on the communication speed by light compared to the time required when using the conventional GPS several hours. It is about several minutes at most from the following, and the position can be measured much faster than in the past.
なお、ここでは2カ所で撮影して測定対象光源32の位置を特定するものとしたが、例えば3カ所以上で撮影を行い、精度を向上させることもできる。また、各撮影箇所で位置を固定したままで姿勢を変更でき、しかもその姿勢を計測できる場合には、例えば基準光源31の撮影と測定対象光源32の撮影を別々に行ってもよい。この場合、基準光源31の撮影時と測定対象光源32の撮影時とで撮影倍率を変更することもでき、それぞれ倍率を上げて撮影することにより測定精度を向上させることができる。
Here, it is assumed that the position of the
さらに、各撮影箇所における位置及び撮影時の姿勢が分かる場合には、基準光源31及び基準光源位置取得部13、撮影位置特定部14を設けずに構成してもよい。
Further, when the position at each photographing location and the posture at the time of photographing are known, the
図4は、本発明の第1の実施の形態における別の使用例の説明図である。図4においては、トンネル内の計測に利用した例を示している。特に図4に示した例では、既に掘削して計測が済んでいる壁面に基準光源31を設け、また測定対象光源32を切削面に設ける。
FIG. 4 is an explanatory diagram of another example of use in the first embodiment of the present invention. In FIG. 4, the example utilized for the measurement in a tunnel is shown. In particular, in the example shown in FIG. 4, the
この例の場合にも上述の図2に示した例と同様に、異なる複数の箇所で基準光源31および測定対象光源32を含む映像を撮影部11で撮影し、測定対象光源32の位置を特定すればよい。本発明の方法では、光源を用いているため、この例のような暗いトンネル内であっても簡単に、しかも正確に測定対象光源32の位置を求めることができる。
In the case of this example as well, as in the example shown in FIG. 2 described above, images including the
このような切削面における位置計測を反復して行うことにより、切削面の変異を検出することができる。切削面は崩壊するおそれがあるため、切削面の微少な変異を検出することにより事故防止に役立てることができる。また、この例では切削面に測定対象光源32を設けた例を示したが、切削後の壁面に設けて、切削寸法を計測することもできる。
By repeatedly performing such position measurement on the cutting surface, the variation of the cutting surface can be detected. Since the cutting surface may collapse, it can be useful for preventing accidents by detecting slight variations in the cutting surface. Moreover, although the example which provided the measuring object
本発明の第1の実施の形態の構成は、上述のような橋梁やトンネルなどへの応用に限られるものではなく、様々な用途について測定対象光源32あるいはさらに基準光源31を設けて測定対象光源32の位置を特定することができる。
The configuration of the first embodiment of the present invention is not limited to the application to the bridges and tunnels as described above, and the measurement
図5は、本発明の第2の実施の形態を示すブロック図である。図中の符号は図1と同様であり、重複する説明を省略する。上述の第1の実施の形態では、対象位置特定部15で測定対象光源32の位置を特定するため、撮影部11を移動させて異なる箇所で撮影を行うことになるが、この第2の実施の形態では、複数の撮影部11−a,bを設け、それぞれの撮影部11−a,bで映像を撮影する場合の構成例を示している。なお、図5では撮影部を2つ設けた例を示しているが、3以上設けてもよい。
FIG. 5 is a block diagram showing a second embodiment of the present invention. The reference numerals in the figure are the same as those in FIG. In the first embodiment described above, since the position of the measurement
さらに図5に示した例では、それぞれの撮影部11−a,bに対応する映像処理部12−a,bを設けている。映像処理部12−aは、撮影部11−aで撮影された映像から基準光源31及び測定対象光源32が光により送信したデータをそれぞれ復調するとともに、基準光源31の像および測定対象光源32の像の映像中の位置を特定する。同様に映像処理部12−bは、撮影部11−bで撮影された映像から基準光源31及び測定対象光源32が光により送信したデータをそれぞれ復調するとともに、基準光源31の像および測定対象光源32の像の映像中の位置を特定する。このようにそれぞれの撮影部11−a,bに対応する映像処理部12−a,bを設けておけば、異なる箇所における映像の撮影を同時に行うことができる。
Further, in the example shown in FIG. 5, video processing units 12-a and b corresponding to the photographing units 11-a and b are provided. The video processing unit 12-a demodulates the data transmitted by the
なお、映像処理部12を共用する構成とし、撮影部11−a,bを1つずつ動作させて映像を撮影するように構成してもよい。撮影部11−a,bを同時に動作させて映像を記憶させておき、映像処理部12で1つずつ処理してゆくことも考えられるが、撮影時に映像処理部12で処理を行っておけば、保存すべき情報量を格段に減少させることができる。
Note that the
基準光源位置取得部13は、映像処理部12−a,bで復調されたデータをもとに基準光源31を特定するとともに、基準光源31の3次元空間中の位置を取得する。また撮影位置特定部14は、映像処理部12−a,bで取得した複数の基準光源31の像の映像中の位置、および、基準光源位置取得部13で取得した基準光源31の3次元空間中の位置を用いて、撮影部11−a,bの3次元空間中の位置および撮影部11−a,bの撮影時の姿勢を求める。なお、この基準光源位置取得部13および撮影位置特定部14についても撮影部11−a,bごとに設け、それぞれ対応する撮影部の位置および姿勢を特定するように構成してもよい。
The reference light source
対象位置特定部15は、映像処理部12−a,bで復調したデータおよび特定された測定対象光源の像の映像中の位置と、基準光源位置取得部13で取得した撮影部11−a,bの位置および撮影時の姿勢をもとに、測定対象光源の位置を特定する。
The target
この第2の実施の形態の動作は、上述の第1の実施の形態とほぼ同様であり、異なる撮影箇所に撮影部11を移動させる代わりに、それぞれの撮影箇所に撮影部11を配置すればよい。例えば図2に示した例であれば、撮影箇所Aと撮影箇所Bにそれぞれ撮影部11−aと撮影部11−bを設置して、それぞれの撮影部11−a,bで撮影した映像をもとに測定対象光源32の位置を特定すればよい。図4に示した例も同様であるし、そのほかの用途についても同様である。
The operation of the second embodiment is almost the same as that of the first embodiment described above. Instead of moving the photographing
この第2の実施の形態では、それぞれの撮影箇所で撮影する際に撮影部を移動させる必要がないことから、各撮影部11−a,bを動かないようにしておいて、測定対象光源32の位置を反復して測定することができる。すなわち、各撮影部11−a,bを設置したら、初回は基準光源位置取得部13及び撮影位置特定部14を動作させて各撮影部11−a,bの位置及び撮影時の姿勢を特定した後に測定対象光源32の位置を対象位置特定部15で特定する。その後は、初回で特定した各撮影部11−a,bの位置及び撮影時の姿勢の情報を使用して、測定対象光源32の位置を対象位置特定部15で特定することができる。
In the second embodiment, since it is not necessary to move the photographing unit when photographing at each photographing location, the photographing units 11-a and 11b are not moved, and the measurement
例えば図2に示した橋梁の例では、時々刻々と変化する橋梁部分のたわみの変化などを監視することができる。ビルなどの建物などでも、温度変化や風の影響、地震などの影響による柱や梁、壁面などにおけるたわみなどの変化についても同様に監視することができる。また、図4に示したトンネルの例では、切削面の変化を常に監視し、崩壊などの危険を察知することができる。同様に、傾斜地などに設置すれば、地滑りなどの崩落を監視することができる。これらの監視は、測定対象光源32が発光源であることから、夜間や地下などの暗い場所でも行うことができる。また、対象位置特定部15で測定対象光源32の位置を特定する間隔は、各光源からのデータ転送速度や処理速度にもよるが、数秒以下の短時間間隔から数分や1時間以上などの長時間間隔で行うことができる。
For example, in the example of the bridge shown in FIG. 2, it is possible to monitor a change in the deflection of the bridge portion that changes every moment. Even in a building such as a building, it is possible to similarly monitor changes in deflection in columns, beams, wall surfaces, etc. due to temperature changes, wind effects, earthquakes, and the like. Further, in the example of the tunnel shown in FIG. 4, it is possible to constantly monitor the change of the cutting surface and detect danger such as collapse. Similarly, if it is installed on an inclined land or the like, it is possible to monitor a collapse such as a landslide. Such monitoring can be performed in a dark place such as at night or underground because the measurement
11,11−a,b…撮影部、12,12−a,b…映像処理部、13…基準光源位置取得部、14…撮影位置特定部、15…対象位置特定部、21…記憶部、22…通信部、31…基準光源、32…測定対象光源。
DESCRIPTION OF
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007197530A JP2009031206A (en) | 2007-07-30 | 2007-07-30 | Position measuring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007197530A JP2009031206A (en) | 2007-07-30 | 2007-07-30 | Position measuring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009031206A true JP2009031206A (en) | 2009-02-12 |
Family
ID=40401855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007197530A Pending JP2009031206A (en) | 2007-07-30 | 2007-07-30 | Position measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009031206A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013175855A1 (en) * | 2012-05-21 | 2013-11-28 | 株式会社豊田自動織機 | Position detecting system |
JP2015203685A (en) * | 2014-04-16 | 2015-11-16 | 富士通株式会社 | Environment monitoring system and environment monitoring method |
JP2019143995A (en) * | 2018-02-16 | 2019-08-29 | 株式会社神戸製鋼所 | Construction machine position estimation device |
JP2021042978A (en) * | 2019-09-06 | 2021-03-18 | 日本電気株式会社 | Measuring device and measuring method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07139942A (en) * | 1993-11-12 | 1995-06-02 | Wacom Co Ltd | Surveying apparatus |
JP2001159519A (en) * | 1999-12-02 | 2001-06-12 | Hitachi Plant Eng & Constr Co Ltd | Target device for image recognition |
JP2002202124A (en) * | 2000-12-28 | 2002-07-19 | Kajima Corp | Image measuring method and recording medium with recorded image measuring program |
JP2002314994A (en) * | 2001-04-13 | 2002-10-25 | Matsushita Electric Ind Co Ltd | System and method for estimating camera position |
JP2003254716A (en) * | 2002-03-04 | 2003-09-10 | Sony Corp | Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program |
-
2007
- 2007-07-30 JP JP2007197530A patent/JP2009031206A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07139942A (en) * | 1993-11-12 | 1995-06-02 | Wacom Co Ltd | Surveying apparatus |
JP2001159519A (en) * | 1999-12-02 | 2001-06-12 | Hitachi Plant Eng & Constr Co Ltd | Target device for image recognition |
JP2002202124A (en) * | 2000-12-28 | 2002-07-19 | Kajima Corp | Image measuring method and recording medium with recorded image measuring program |
JP2002314994A (en) * | 2001-04-13 | 2002-10-25 | Matsushita Electric Ind Co Ltd | System and method for estimating camera position |
JP2003254716A (en) * | 2002-03-04 | 2003-09-10 | Sony Corp | Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013175855A1 (en) * | 2012-05-21 | 2013-11-28 | 株式会社豊田自動織機 | Position detecting system |
JP2015203685A (en) * | 2014-04-16 | 2015-11-16 | 富士通株式会社 | Environment monitoring system and environment monitoring method |
JP2019143995A (en) * | 2018-02-16 | 2019-08-29 | 株式会社神戸製鋼所 | Construction machine position estimation device |
JP2021042978A (en) * | 2019-09-06 | 2021-03-18 | 日本電気株式会社 | Measuring device and measuring method |
JP7363225B2 (en) | 2019-09-06 | 2023-10-18 | 日本電気株式会社 | Measuring device, measuring system, measuring method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10373035B2 (en) | Method and system for determining spatial characteristics of a camera | |
US7733342B2 (en) | Method of extracting 3D building information using shadow analysis | |
US11796682B2 (en) | Methods for geospatial positioning and portable positioning devices thereof | |
CN106408601B (en) | A kind of binocular fusion localization method and device based on GPS | |
JP6574845B2 (en) | Drawing creating apparatus and drawing creating method | |
JPWO2005017644A1 (en) | Three-dimensional survey device and electronic storage medium | |
KR20170094030A (en) | System and Method for providing mapping of indoor navigation and panorama pictures | |
JP2006003132A (en) | Three-dimensional surveying apparatus and electronic storage medium | |
JP5749319B2 (en) | Portable terminal for sensor alignment | |
JP2005017262A (en) | Three-dimensional surveying system and three-dimensional space object restoring method | |
US20090008554A1 (en) | Method for infrared imaging of living or non-living objects including terrains that are either natural or manmade | |
JP6383439B2 (en) | Method and system for calibrating a sensor using a recognized object | |
JP4077385B2 (en) | Global coordinate acquisition device using image processing | |
JP2005077385A (en) | Image correlation method, survey method and measuring system using them | |
KR101296601B1 (en) | The camera control system and method for producing the panorama of map information | |
JP2019039851A (en) | Photogrammetry system and photogrammetry method | |
KR100679864B1 (en) | Cellular phone capable of displaying geographic information and a method thereof | |
JP2009031206A (en) | Position measuring device | |
WO2019188961A1 (en) | Target device and surveying system | |
JP2001317915A (en) | Three-dimensional measurement apparatus | |
JP2006170688A (en) | Stereo image formation method and three-dimensional data preparation device | |
JP2010043961A (en) | Three-dimensional image measuring system | |
JP2007093479A (en) | Three-dimensional coordinate measuring method | |
JP6610741B2 (en) | Image display system, image display apparatus, image display method, and program | |
KR101195134B1 (en) | Numerical map system offering omnidirectional incline image and offering method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100625 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120425 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120621 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121024 |