JP2006194705A - Surface profile measurement method under liquid and its system - Google Patents

Surface profile measurement method under liquid and its system Download PDF

Info

Publication number
JP2006194705A
JP2006194705A JP2005005824A JP2005005824A JP2006194705A JP 2006194705 A JP2006194705 A JP 2006194705A JP 2005005824 A JP2005005824 A JP 2005005824A JP 2005005824 A JP2005005824 A JP 2005005824A JP 2006194705 A JP2006194705 A JP 2006194705A
Authority
JP
Japan
Prior art keywords
dimensional
liquid
value
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005005824A
Other languages
Japanese (ja)
Other versions
JP4729694B2 (en
Inventor
Hiroya Yamano
博哉 山野
Yasuhiro Suzuki
康弘 鈴木
Akimi Murase
暁美 村瀬
Yoshiko Miyashita
由子 宮下
Naoto Okawa
直人 大川
Tomoyoshi Tani
朋美 谷
Yoshio Tanaka
美穂 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Environmental Studies
Original Assignee
National Institute for Environmental Studies
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Environmental Studies filed Critical National Institute for Environmental Studies
Priority to JP2005005824A priority Critical patent/JP4729694B2/en
Publication of JP2006194705A publication Critical patent/JP2006194705A/en
Application granted granted Critical
Publication of JP4729694B2 publication Critical patent/JP4729694B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a surface profile measurement method under liquid and its system in which compensation for determining the depth from a liquid surface to an object is considered by photographing position information for an image and the refractive index of the liquid. <P>SOLUTION: The surface profile measurement method under liquid comprises a data creation section 1 which performs digital mapping on a stereoscopic image using a digital mapping device and creates data on position information 2 of an image photographing device A placed on the left, position information 3 of an image photographing device B placed on the right, and a DEM value 4 and a computer 10 comprising a refractive index value input section 11, a calculation section 12 for calculating lateral liquid surface reaching coordinates, a lateral incident angle, and a lateral refraction angle, a two-dimension/three-dimension decision section 13, a two-dimensional true value calculation section 14, a decision section 15 for the three-dimensional incident angles of the two image photographing devices, a calculation section 16 for the case in which the three-dimensional incident angles are the same, a calculation section 17 for the case in which the three-dimensional incident angles are different, a creation section 18 for creating the surface profile of the object under liquid on the basis of the calculated two-dimensional and three-dimensional true values, and a storage section 19 for storing information of above-described sections. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ステレオ画像を用いて、液体下の物体表面の形状を計測することのできる液体下の表面形状測定方法及びそのシステムに関するものである。   The present invention relates to a method for measuring a surface shape under a liquid and a system thereof capable of measuring the shape of the surface of an object under the liquid using a stereo image.

物体の表面の形状を計測するには、レーザー光を用いる方法や、超音波を用いる方法があるが、特にステレオ画像を用いる方法は、物体形状を平面的に手軽に把握できる方法として盛んに用いられている。   To measure the shape of the surface of an object, there are a method using a laser beam and a method using an ultrasonic wave, but a method using a stereo image is particularly popular as a method for easily grasping the shape of an object in a plane. It has been.

ステレオ画像の最も効果的な使用法の一つは、デジタル写真測量であり、ステレオペアの空中写真をデジタル図化機を用いて図化することにより陸上の地形図が作成されてきた(下記特許文献1,2参照)。また、地形図作成以外にも、ステレオペアの画像は距離の計測(下記特許文献3参照)や、眼底3次元データの取得(下記特許文献4参照)などに用いられている。
特開平8−210851号公報 特開平9−069148号公報 特開2000−356514号公報 特開平8−000567号公報
One of the most effective uses of stereo images is digital photogrammetry, and land topographic maps have been created by mapping stereo pairs of aerial photographs using a digital mapper (see the following patents). References 1 and 2). In addition to creating topographic maps, stereo pair images are used for distance measurement (see Patent Document 3 below), fundus three-dimensional data acquisition (see Patent Document 4 below), and the like.
Japanese Patent Laid-Open No. 8-210851 JP-A-9-069148 JP 2000-356514 A JP-A-8-000567

しかしながら、空中から撮影されたステレオ画像によって海底面など液体下の物体の表面形状を計測するためには、液体の屈折効果によって浅く見えている割合を補正する必要がある。   However, in order to measure the surface shape of an object under the liquid such as the sea bottom using a stereo image taken from the air, it is necessary to correct the ratio of being viewed shallow by the refraction effect of the liquid.

本発明は、上記状況に鑑みて、画像の撮影位置情報と液体の屈折率を用いて、液体表面から物体までの深度を求めるための補正を考慮した液体下の表面形状測定方法及びそのシステムを提供することを目的とする。   In view of the above situation, the present invention provides a surface shape measurement method and system under liquid that takes into account correction for determining the depth from the surface of the liquid to the object using image position information and the refractive index of the liquid. The purpose is to provide.

本発明は、上記目的を達成するために、
〔1〕ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状測定方法であって、前記ステレオ画像をデジタル化する工程と、解析範囲に所定の配列で基準地点群を設定して各々の基準地点の平面座標値を記憶する工程と、前記解析範囲において基準地点群の位置及び標高値を用いて各々の画素の標高を測定して計算する工程と、液体の屈折率と画像撮影位置情報により浅く見えている割合を補正する補正係数を算出する工程と、前記補正係数を用いて液体下の物体の真の深度を得る工程とを有することを特徴とする。
In order to achieve the above object, the present invention provides
[1] A method for measuring a surface shape under a liquid in which digital mapping is performed on a stereo image using a digital plotter, the step of digitizing the stereo image, and a reference point in a predetermined arrangement in an analysis range Setting a group and storing a plane coordinate value of each reference point; measuring and calculating an elevation of each pixel using the position and elevation value of the reference point group in the analysis range; and The method includes a step of calculating a correction coefficient that corrects a ratio of being viewed shallow by the refractive index and the image photographing position information, and a step of obtaining a true depth of an object under the liquid using the correction coefficient.

〔2〕ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状計測システムであって、ステレオ画像に対してデジタル図化機を用いてデジタルマッピングを行い、左側に位置する画像撮影装置Aの位置情報、右側に位置する画像撮影装置Bの位置情報、DEM値のそれぞれのデータを生成するデータ生成部と、左右水面到達座標、左右入射角、左右屈折角の演算を行う演算部と、撮影位置の判別部と、屈折率の入力を行う屈折率値の入力部と、画像撮影装置2機の真下の点を結ぶ直線上に対象点がある時を2次元、それ以外の時を3次元としたときの2次元・3次元の判別部と、2次元の真値を演算する演算部と、3次元である場合に画像撮影装置2機の入射角の異同を判別する判別部と、該判別部により入射角が等しいと判別された場合の真値を演算する演算部と、前記入射角が異なると判別された場合の真値を演算する演算部と、前記演算された2次元、3次元の真値に基づいて、液体下の物体の表面形状を生成する生成部と、上記した各部の情報を記憶する記憶部とを有するコンピュータとを具備することを特徴とする。   [2] A surface shape measurement system under a liquid that performs digital mapping on a stereo image using a digital plotter, and performs digital mapping on the stereo image using a digital plotter on the left side. The position information of the image capturing device A located, the position information of the image capturing device B positioned on the right side, the data generator for generating each data of the DEM value, the calculation of the left and right water surface arrival coordinates, the left and right incident angles, and the left and right refraction angles Two-dimensional when the target point is on a straight line connecting the point directly below the two image capturing devices, a calculating unit for performing the imaging, a determining unit for the photographing position, an input unit for the refractive index value for inputting the refractive index, The difference between the incident angles of the two image capturing devices in the case of 3D, and the 2D / 3D discriminator when the other times are 3D, the arithmetic unit for calculating the 2D true value, A discriminator for discriminating the discriminator and An arithmetic unit that calculates a true value when the incident angles are determined to be equal, an arithmetic unit that calculates a true value when the incident angles are determined to be different, and the calculated two-dimensional and three-dimensional true values The computer includes a generation unit that generates the surface shape of the object under the liquid based on the value, and a storage unit that stores information on each unit described above.

〔3〕上記〔2〕記載の液体下の表面形状計測システムにおいて、計測された前記液体下の物体の表面形状の情報を画面に表示する出力部を具備することを特徴とする。   [3] The surface shape measurement system under the liquid as described in [2] above, further comprising an output unit that displays information on the measured surface shape of the object under the liquid on a screen.

本発明によれば、海底の地形図をはじめ、液体下にある物体の表面形状データの作成を正確に、しかも安価かつ手軽に行い、液体下にある物体の表面形状の測定を行うことができる。   According to the present invention, it is possible to accurately and inexpensively and easily create surface shape data of an object under a liquid, such as a topographic map of the seabed, and measure the surface shape of the object under the liquid. .

ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状測定方法であって、前記ステレオ画像をデジタル化する工程と、解析範囲に所定の配列で基準地点群を設定して各々の基準地点の平面座標値を記憶する工程と、前記解析範囲において基準地点群の位置及び標高値を用いて各々の画素の標高を測定して計算する工程と、液体の屈折率と画像撮影位置情報により浅く見えている割合を補正する補正係数を算出する工程と、前記補正係数を用いて液体下の物体の真の深度を得る工程とを有する。よって、液体下にある物体の表面形状データの作成を正確に、しかも安価かつ手軽に行い、正確な液体下にある物体の表面形状の測定を行うことができる。   A surface shape measurement method under a liquid in which digital mapping is performed on a stereo image using a digital plotter, the step of digitizing the stereo image, and setting a reference point group in a predetermined arrangement in the analysis range Storing the plane coordinate value of each reference point, measuring and calculating the altitude of each pixel using the position and altitude value of the reference point group in the analysis range, and the refractive index of the liquid, A step of calculating a correction coefficient that corrects a ratio of the image captured by the image capturing position information, and a step of obtaining a true depth of an object under the liquid using the correction coefficient. Therefore, it is possible to accurately and inexpensively and easily create the surface shape data of the object under the liquid, and to accurately measure the surface shape of the object under the liquid.

以下、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail.

ここでは、例として、対象を浅海域とし、航空写真を用いた水深図の作成を、本発明の最も効果的な利用方法の一つとして述べる。   Here, as an example, the creation of a water depth map using an aerial photograph with a target as a shallow sea area will be described as one of the most effective usage methods of the present invention.

以下、本発明の液体下の表面形状データ作成方法について詳細に説明する。   Hereinafter, a method for creating surface shape data under a liquid according to the present invention will be described in detail.

従来、2枚のステレオペアの空中写真を利用し、立体視(ステレオマッチング)を行うことによりデジタル標高図(Digital Elevation Model:DEM)が作成されてきた。標高図の作成には市販のデジタルステレオ図化機(Digital Photogrammetry Workstation:DPW)が広く用いられている。サンゴ礁など海水の透明度の高い浅海域では、海底の様子を空中写真から判別できるため、地表面と同様にステレオマッチングを用いてDEMを作成できることが期待される。しかしながら、DPWのステレオマッチングによって算出されるDEM値は、水面での光の屈折効果によって実際の水深よりも浅い値を示すため、その補正が必要不可欠である。しかし、これまで、航空写真の主点と観測点との位置関係によって、どのくらいの割合で水深が浅く見えるのかということの理論的解明は行われていなかった。   Conventionally, a digital elevation model (DEM) has been created by performing stereoscopic viewing (stereo matching) using aerial photographs of two stereo pairs. Commercially available digital stereo plotting machines (Digital Photoworking Workstations: DPW) are widely used for creating elevation maps. In shallow water areas with high transparency of seawater such as coral reefs, the state of the seabed can be distinguished from aerial photographs, so it is expected that DEM can be created using stereo matching in the same way as the ground surface. However, since the DEM value calculated by DPW stereo matching shows a value shallower than the actual water depth due to the refraction effect of light on the water surface, correction thereof is indispensable. However, until now, there has not been a theoretical clarification of how much the depth of water looks shallow depending on the positional relationship between the main points and observation points of aerial photographs.

本発明では、これを理論的に明らかにし、光の屈折効果を補正するコンピュータプログラムを開発した。そして、その水深補正プログラムによってDPWによるDEM値を実際の水深に近い値に補正する。実際に、航空写真(沖縄県石垣島白保サンゴ礁の1995年撮影の1万分の1写真)から得られたDEMを、その水深補正プログラムによって補正した。そして、補正前後のDEMをそれぞれ実測水深と比較し、誤差の平均を算出することで精度検証を行った。   In the present invention, this has been theoretically clarified and a computer program for correcting the light refraction effect has been developed. And the DEM value by DPW is corrected to a value close to the actual water depth by the water depth correction program. Actually, a DEM obtained from an aerial photograph (1 / 10,000 photographs taken in 1995 of Shiraho Coral Reef, Ishigaki Island, Okinawa Prefecture) was corrected by the depth correction program. Then, the accuracy was verified by comparing the DEM before and after correction with the actually measured water depth and calculating the average of the errors.

まず、光の屈折効果及び水深補正の理論を画像撮影装置2機の真下の点を結ぶ直線上に対象点がある場合(2次元)とそれ以外の場合(3次元)に分けて解説する。そして、実際の水深よりどのくらい浅く見えているのか考察し、その浅く見えている割合を算出する。また、その理論の精度を実際の航空写真によるDEM値を用いて検証する。   First, the theory of light refraction effect and water depth correction will be explained separately for cases where the target point is on a straight line connecting the points directly under the two image capturing devices (two dimensions) and other cases (three dimensions). Then, it is considered how shallow it looks from the actual water depth, and the ratio of the shallow water is calculated. In addition, the accuracy of the theory is verified using DEM values obtained from actual aerial photographs.

〔1〕光の屈折
水中では物体や水底が実際より浮き上がって(浅く)見えるという現象が起こる。これは光の屈折によるものである。
[1] Refraction of light Underwater, a phenomenon occurs in which an object and the bottom of the water appear to float (shallow). This is due to light refraction.

図1はその原理を示す図である。   FIG. 1 is a diagram illustrating the principle.

水中の物体(ここでは水底)がどう見えるかを幾何学的に考えるには、屈折した光がどのように像を結ぶかを考えなければならない。   In order to think geometrically about how an underwater object (here, the bottom of the water) looks, you must consider how the refracted light forms an image.

図1において、水底A1から真上に向かって出た光は、A1→P→Rと直進して目に届く。ところが、やや斜め上方に向かった光は、水面Qで屈折してSに届く。しかし、目の網膜(ここでは、航空写真)に映る画像は、この屈折が考慮されないため光が線分SQの延長線上を直進したように結像され、直線A1Rと線分SQの延長線との交点A2に物体(水底)があるように見える。これが浅く見える原理である。   In FIG. 1, the light emitted from the water bottom A <b> 1 directly above reaches the eyes by going straight from A <b> 1 → P → R. However, the light directed slightly upward is refracted on the water surface Q and reaches S. However, the image shown in the retina of the eye (here, an aerial photograph) is imaged as if light travels straight on the extension line of the line segment SQ because this refraction is not considered, and the straight line A1R and the extension line of the line segment SQ It appears that there is an object (water bottom) at the intersection A2. This is the principle that looks shallow.

一般的に空気に対する水の屈折率nは
屈折率n=sinθn/sinθk≒1.33
(θn:入射角,θk:屈折角)
で表される。
In general, the refractive index n of water relative to air is refractive index n = sin θn / sin θk≈1.33.
(Θn: incident angle, θk: refraction angle)
It is represented by

〔2〕水深補正理論
上記したように、サンゴ礁の海底のDEMを航空写真測量により、DPWを用いて作成した場合、光の屈折効果の影響で、実際より浅めの結果となってしまう。そこで、本発明では、浅く見える割合は航空写真の主点と観測点との位置関係によって変わることを理論的に明らかにして補正理論を確立し、この補正理論に基づく補正プログラムによりDPWで作成されたDEM値をより現実の値に近づけることを試みる。
[2] Water depth correction theory As described above, when a DEM of the coral reef seabed is created by aerial photogrammetry using DPW, the result is shallower than the actual result due to the effect of light refraction. Therefore, in the present invention, the correction theory is established by theoretically clarifying that the ratio of the shallow-looking ratio changes depending on the positional relationship between the main point and the observation point of the aerial photograph, and created by DPW by the correction program based on this correction theory. It tries to make the DEM value closer to the actual value.

図2に航空写真測量を例とした鳥瞰図、図3に立体図を示す。   FIG. 2 shows a bird's-eye view of an aerial photogrammetry as an example, and FIG. 3 shows a three-dimensional view.

この図において、2機の飛行機は所定の高度で飛行しつつ、飛行速度に応じた一定の間隔で、写真間のオーバーラップ部分が60%となるように撮影を行う。   In this figure, two airplanes fly at a predetermined altitude, and are photographed so that the overlap portion between photographs is 60% at regular intervals according to the flight speed.

なお、撮影高度は任意に設定することが可能である。空中写真の場合、一般に高度3,000mから10,000mで撮影されたものを用いる。   The photographing altitude can be arbitrarily set. In the case of an aerial photograph, a photograph taken at an altitude of 3,000 m to 10,000 m is generally used.

このようにして取得した空中写真を、スキャナによりデジタルデータに変換する。このとき分解能が10cm程度のものを用いるのが望ましい。   The aerial photograph acquired in this way is converted into digital data by a scanner. At this time, it is desirable to use a resolution of about 10 cm.

図3において、右画像撮影装置座標と左画像撮影装置座標からの光線が、それぞれ右水面到達座標、左水面到達座標を通過し、海底の対象物をとらえている様子を示している。この時、光は水面においてそれぞれ屈折を起こしている。   FIG. 3 shows a state in which light rays from the right image capturing device coordinates and the left image capturing device coordinates pass through the right water surface arrival coordinates and the left water surface arrival coordinates, respectively, and catch an object on the seabed. At this time, the light is refracted on the water surface.

また、図2,図3に示すようにX,Y,Z座標をとり、右画像撮影装置座標を(Xr,Yr,Zr)、左画像撮影装置座標を(Xl,Yl,Zl)、右水面到達座標を(Xwr,Ywr,Zwr)、左水面到達座標を(Xwl,Ywl,Zwl)、DPWによるDEM値を(Xd,Yd,Zd)、真値(理論値)を(Xh,Yh,Zh)とした。   2 and 3, X, Y, and Z coordinates are taken, the right image photographing device coordinates are (Xr, Yr, Zr), the left image photographing device coordinates are (Xl, Yl, Zl), and the right water surface. The arrival coordinates are (Xwr, Ywr, Zwr), the left water surface arrival coordinates are (Xwl, Ywl, Zwl), the DEM value by DPW is (Xd, Yd, Zd), and the true value (theoretical value) is (Xh, Yh, Zh) ).

〔2−1〕画像撮影装置2機の真下の点を結ぶ直線上に対象点がある場合(2次元、図2の直線a上)
この場合、光の軌跡を2次元平面上で考えることができる。この場合は、図4に示すようになる。
[2-1] When the target point is on a straight line connecting the points directly below the two image capturing devices (two-dimensional, on the straight line a in FIG. 2)
In this case, the light trajectory can be considered on a two-dimensional plane. In this case, it becomes as shown in FIG.

図4において、写真取得時の水面の高さ(標高)をZとし、水の空気に対する屈折率をnw(=1.33)とする。また、DPWにより写真標定を終えているので、画像撮影装置座標と撮影高度は既知となり、DEM値も既に計測されているとする。   In FIG. 4, the height (elevation) of the water surface at the time of photo acquisition is Z, and the refractive index of water with respect to air is nw (= 1.33). Further, since the photo orientation is finished by DPW, it is assumed that the image capturing apparatus coordinates and the image capturing altitude are known and the DEM value has already been measured.

はじめに、DEM値と画像撮影装置座標を結ぶ直線と水面Zとの交点により、水面到達座標を求める。   First, the water surface arrival coordinates are obtained from the intersection of the straight line connecting the DEM value and the image capturing device coordinates and the water surface Z.

Xwr=〔(Z−Zd)×(Xr−Xd)〕/〔(Zr−Zd)〕+Xd
Xwl=〔(Z−Zd)×(Xl−Xd)〕/〔(Zl−Zd)〕+Xd
Ywr=〔(Z−Zd)×(Yr−Yd)〕/〔(Zr−Zd)〕+Yd
Ywl=〔(Z−Zd)×(Yl−Yd)〕/〔(Zl−Zd)〕+Yd
Zwr=Z
Zwl=Z
次に、水面到達座標と画像撮影装置座標から、入射角のsinの二乗を求める。
Xwr = [(Z−Zd) × (Xr−Xd)] / [(Zr−Zd)] + Xd
Xwl = [(Z-Zd) * (X1-Xd)] / [(Z1-Zd)] + Xd
Ywr = [(Z−Zd) × (Yr−Yd)] / [(Zr−Zd)] + Yd
Ywl = [(Z-Zd) * (Y1-Yd)] / [(Z1-Zd)] + Yd
Zwr = Z
Zwl = Z
Next, the square of the incident angle sin is obtained from the water surface arrival coordinates and the image capturing apparatus coordinates.

sin2 nr=〔(Yr−Ywr)2 〕/〔(Yr−Ywr)2 +(Zr−Zwr)2 〕 sin2 nl=〔(Yl−Ywl)2 〕/〔(Yl−Ywl)2 +(Zl−Zwl)2 〕 (nr:右画像撮影装置からの入射角,nl:左画像撮影装置からの入射角)
また、屈折率nw=sinθn/sinθkより、屈折角のsinの二乗を求める。
sin 2 nr = [(Yr−Ywr) 2 ] / [(Yr−Ywr) 2 + (Zr−Zwr) 2 ] sin 2 nl = [(Yl−Ywl) 2 ] / [(Yl−Ywl) 2 + ( Zl−Zwl) 2 ] (nr: incident angle from right image photographing device, nl: incident angle from left image photographing device)
Further, the square of the refraction angle sin is obtained from the refractive index nw = sin θn / sin θk.

sin2 kr=sin2 nr/nw2
sin2 kl=sin2 nl/nw2
(kr:右画像撮影装置からの入射角に対する屈折角,kl:左画像撮影装置からの入射角に対する屈折角)
そして、最後に真値と右水面到達座標を通る直線と、真値と左水面到達座標を通る直線の交点から、真値(理論値)を求める。まず、先に求めた屈折角のsinの二乗から、tanの二乗を求める。
sin 2 kr = sin 2 nr / nw 2
sin 2 kl = sin 2 nl / nw 2
(Kr: refraction angle with respect to the incident angle from the right image photographing device, kl: refraction angle with respect to the incident angle from the left image photographing device)
Finally, the true value (theoretical value) is obtained from the intersection of the straight line passing the true value and the right water surface arrival coordinate and the straight line passing the true value and the left water surface arrival coordinate. First, the square of tan is obtained from the square of sin of the refraction angle obtained previously.

tan2 kr=(sin2 kr)/(1−sin2 kr)
tan2 kl=(sin2 kl)/(1−sin2 kl)
これより、図4における真値と水面到達座標を通る二直線の傾きは、それぞれ
tan 2 kr = (sin 2 kr) / (1−sin 2 kr)
tan 2 kl = (sin 2 kl) / (1−sin 2 kl)
From this, the slope of the two straight lines passing through the true value and the water surface arrival coordinates in FIG.

となる(ただし、DEM値の位置座標によって、正・負は変わる)。 (However, positive / negative changes depending on the position coordinates of the DEM value).

よって、真値のYh,Zhは次の2直線の交点として求まる。   Therefore, the true values Yh and Zh are obtained as the intersection of the following two straight lines.

Xhについては、X,Y平面での画像撮影装置2機を結ぶ直線上の点であることから、
Xh=〔(Xr−Xl)/(Yr−Yl)〕(Yh−Yl)+Xl
となる。
Xh is a point on a straight line connecting two image capturing devices on the X and Y planes.
Xh = [(Xr-Xl) / (Yr-Yl)] (Yh-Yl) + Xl
It becomes.

このようにして、真値(Xh,Yh,Zh)を求めることが出来る。   In this way, true values (Xh, Yh, Zh) can be obtained.

ここで、図4からもわかるように、2機の画像撮影装置からの入射角が違う場合、DEM値のY座標(Yd)と真値のY座標(Yh)はずれる。つまり、実際の位置より横にずれて見えるのである。この横ずれ幅を、画像撮影装置高度3000m、水面の高さZ=0.92、右画像撮影装置座標(0,500,3000),左画像撮影装置座標(0,−500,3000)、DEM値水深(Zd)−0.9mとして、検証したものを以下、図5に示す。   Here, as can be seen from FIG. 4, when the incident angles from the two image capturing apparatuses are different, the Y coordinate (Yd) of the DEM value and the Y coordinate (Yh) of the true value deviate. That is, it appears to be shifted laterally from the actual position. This lateral displacement width is the image capturing device height 3000 m, the water surface height Z = 0.92, the right image capturing device coordinates (0,500,3000), the left image capturing device coordinates (0, -500,3000), the DEM value. What was verified as water depth (Zd) -0.9 m is shown in FIG.

ここで、横ずれ幅は、Yd−Yhにより求めた。   Here, the lateral displacement width was determined by Yd−Yh.

図5でY座標幅を−700〜700としているのは、2枚の1万分の1の航空写真(22.8cm×22.8cm,60%オーバーラップ)と仮定したためである。   In FIG. 5, the Y coordinate width is set to −700 to 700 because it is assumed that two aerial photographs of 1 / 10,000 (22.8 cm × 22.8 cm, 60% overlap).

また、図5において、Y座標が−500と500の画像撮影装置の位置で横ずれがないのは、図1のように、左右いずれかの入射角が2次元的に考えて0°になっているからである。   Further, in FIG. 5, there is no lateral shift at the positions of the image capturing apparatuses whose Y coordinates are −500 and 500, as shown in FIG. Because.

この図からわかるように、横ずれ幅は最大で0.004892mであり、誤差は無視できるほど小さいと言える。このことから、Yh≒Ydと近似できる。   As can be seen from this figure, the maximum lateral deviation width is 0.004892 m, and the error can be said to be negligibly small. From this, it can be approximated as Yh≈Yd.

〔2−2〕対象点が画像撮影装置2機の真下を結ぶ直線上以外にある場合(3次元)
上記で、水底がどのように見えるかを幾何学的に考えたときに、屈折した光がどのように像を結ぶかを考えた。3次元においても同じように考えられるが、3次元では2次元と違って、2機の画像撮影装置からの水面への入射角が異なる場合は、図6に示すように、屈折後の光線が一点で交わらない。つまり、DPWもステレオマッチングにより、無理やり像を結んでいたと思われる。
[2-2] When the target point is not on a straight line connecting directly under the two image capturing devices (three-dimensional)
In the above, we considered how the refracted light forms an image when geometrically considering how the bottom of the water looks. Although the same can be considered in three dimensions, unlike in two dimensions, if the incident angles to the water surface from the two image capturing devices are different, as shown in FIG. Do not cross at one point. In other words, the DPW seems to have forcibly formed an image by stereo matching.

(a)2機の画像撮影装置からの入射角が同じ場合(像を結ぶ場合、図2の直線b上)
2機の画像撮影装置から水面への入射角が同じ場合、2機を結んだ2次元の直線の中点を通る垂線上の点に像を結ぶことになる。この点については、2次元における2直線の交点と同様の方法で求まる。この場合、水面到達座標は、
Xwr=〔{(Z−Zd)×(Xr−Xd)}/(Zr−Zd)〕+Xd
Xwl=〔{(Z−Zd)×(Xl−Xd)}/(Zl−Zd)〕+Xd
Ywr=〔{(Z−Zd)×(Yr−Yd)}/(Zr−Zd)〕+Yd
Ywl=〔{(Z−Zd)×(Zl−Zd)}/(Zl−Zd)〕+Yd
Zwr=Z
Zwl=Z
で表され、入射角のsinの二乗は、図3より、
sin2 nr={(Xr−Xwr)2 +(Yr−Ywr)2 }/{(Xr−Xwr)2 +(Yr−Ywr)2 +(Zr−Zwr)2
…(1)
sin2 nl={(Xl−Xwl)2 +(Yl−Ywl)2 }/{(Xl−Xwl)2 +(Yl−Ywl)2 +(Zl−Zwl)2
…(2)
となる。
(A) When incident angles from the two image capturing devices are the same (when connecting images, on the straight line b in FIG. 2)
When the incident angles on the water surface from the two image capturing devices are the same, an image is formed at a point on a perpendicular passing through the midpoint of a two-dimensional straight line connecting the two devices. This point can be obtained by the same method as the intersection of two straight lines in two dimensions. In this case, the water surface arrival coordinates are
Xwr = [{(Z−Zd) × (Xr−Xd)} / (Zr−Zd)] + Xd
Xwl = [{(Z-Zd) * (X1-Xd)} / (Z1-Zd)] + Xd
Ywr = [{(Z−Zd) × (Yr−Yd)} / (Zr−Zd)] + Yd
Ywl = [{(Z−Zd) × (Zl−Zd)} / (Zl−Zd)] + Yd
Zwr = Z
Zwl = Z
3 and the square of the incident angle sin is from FIG.
sin 2 nr = {(Xr−Xwr) 2 + (Yr−Ywr) 2 } / {(Xr−Xwr) 2 + (Yr−Ywr) 2 + (Zr−Zwr) 2 }
... (1)
sin 2 nl = {(Xl−Xwl) 2 + (Yl−Ywl) 2 } / {(Xl−Xwl) 2 + (Yl−Ywl) 2 + (Zl−Zwl) 2 }
... (2)
It becomes.

これにより、2次元同様、傾きを求め、真値を求めることができる。また、この場合、中点であるのでY方向・X方向へのずれは無く、その結果、Xh=Xd,Yh=Ydであり、Zhは、   Thereby, the inclination can be obtained and the true value can be obtained as in the two-dimensional case. In this case, since it is the middle point, there is no shift in the Y direction / X direction. As a result, Xh = Xd, Yh = Yd, and Zh is

で、求められる。 And it is required.

(b)2機の画像撮影装置からの入射角が異なる場合(像を結ばない場合)
次に画像撮影装置2機からの入射角が異なる場合について考える。この場合、屈折後の光線が像を結ばないとされるため、以下のように近似した。
(B) When the incident angles from the two image capturing devices are different (when images are not formed)
Next, consider a case where the incident angles from the two image capturing apparatuses are different. In this case, since it is assumed that the light beam after refraction does not form an image, the following approximation was made.

まず、図3において、屈折角と水面到達座標と真値から以下のような関係式が成り立つ。 sin2 kr={(Xwr−Xh)2 +(Ywr−Yh)2 }/{(Xwr−Xh)2 +(Ywr−Yh)2 +(Zwr−Zh)2
…(3)
sin2 kl={(Xwl−Xh)2 +(Ywl−Yh)2 }/{(Xwl−Xh)2 +(Ywl−Yh)2 +(Zwl−Zh)2
…(4)
また、上記式(1)、(2)から、屈折率nw=sinθn/sinθkより、
sin2 kr=sin2 nr/nw2 …(5)
sin2 kl=sin2 nl/nw2 …(6)
よって、上記した(3)、(5)、(4)、(6)式より以下の方程式が成り立つ。
First, in FIG. 3, the following relational expression is established from the refraction angle, the water surface arrival coordinates, and the true value. sin 2 kr = {(Xwr−Xh) 2 + (Ywr−Yh) 2 } / {(Xwr−Xh) 2 + (Ywr−Yh) 2 + (Zwr−Zh) 2 }
... (3)
sin 2 kl = {(Xwl−Xh) 2 + (Ywl−Yh) 2 } / {(Xwl−Xh) 2 + (Ywl−Yh) 2 + (Zwl−Zh) 2 }
(4)
From the above formulas (1) and (2), the refractive index nw = sin θn / sin θk,
sin 2 kr = sin 2 nr / nw 2 (5)
sin 2 kl = sin 2 nl / nw 2 (6)
Therefore, the following equations are established from the above-described equations (3), (5), (4), and (6).

{(Xwr−Xh)2 +(Ywr−Yh)2 }/{(Xwr−Xh)2 +(Ywr−Yh)2 +(Zwr−Zh)2 }=sin2 nr/nw2
{(Xwl−Xh)2 +(Ywl−Yh)2 }/{(Xwl−Xh)2 +(Ywl−Yh)2 +(Zwl−Zh)2 }=sin2 nl/nw2
ここで、上式において、2次元での横ずれの検証の結果より3次元においても横ずれは少ないと仮定し、Yh≒Ydと近似すると、
{(Xwr−Xh)2 +(Ywr−Yd)2 }/{(Xwr−Xh)2 +(Ywr−Yd)2 +(Zwr−Zh)2 }=sin2 nr/nw2
{(Xwl−Xh)2 +(Ywl−Yd)2 }/{(Xwl−Xh)2 +(Ywl−Yd)2 +(Zwl−Zh)2 }=sin2 nl/nw2
となり、連立方程式が成り立つ。これにより、真値のXh,Zhを求める。
{(Xwr−Xh) 2 + (Ywr−Yh) 2 } / {(Xwr−Xh) 2 + (Ywr−Yh) 2 + (Zwr−Zh) 2 } = sin 2 nr / nw 2
{(Xwl-Xh) 2 + (Ywl-Yh) 2 } / {(Xwl-Xh) 2 + (Ywl-Yh) 2 + (Zwl-Zh) 2 } = sin 2 nl / nw 2
Here, in the above equation, it is assumed that the lateral deviation is smaller in three dimensions than the result of the lateral deviation verification in two dimensions, and approximated as Yh≈Yd,
{(Xwr−Xh) 2 + (Ywr−Yd) 2 } / {(Xwr−Xh) 2 + (Ywr−Yd) 2 + (Zwr−Zh) 2 } = sin 2 nr / nw 2
{(Xwl-Xh) 2 + (Ywl-Yd) 2 } / {(Xwl-Xh) 2 + (Ywl-Yd) 2 + (Zwl-Zh) 2 } = sin 2 nl / nw 2
Thus, simultaneous equations hold. As a result, true values Xh and Zh are obtained.

これらの理論により、2機の画像撮影装置からの2枚の航空写真により得られたDEM値を基にステレオマッチングされた範囲において、水深補正を行うことができる。   Based on these theories, water depth correction can be performed within a range stereo-matched based on DEM values obtained from two aerial photographs from two image capturing apparatuses.

図7は、画像撮影装置高度3000m、平均海面からの水面の高さZ=0.92m、右画像撮影装置座標(0,500,3000),左画像撮影装置座標(0,−500,3000)、平均海面からのDEM値水深−1.0mとし、X,Y平面において、水深の分布を示したものである。   FIG. 7 shows an image taking device altitude of 3000 m, an average water surface height Z = 0.92 m, right image taking device coordinates (0,500,3000), left image taking device coordinates (0, −500,3000). The DEM value depth from the average sea level is -1.0 m, and the water depth distribution is shown in the X and Y planes.

この図より、ステレオ画像の中心(X=Y=0)から離れるほど実際の水深より、浅く見えていることがわかる。   From this figure, it can be seen that the distance from the center (X = Y = 0) of the stereo image appears shallower than the actual water depth.

ステレオ画像の中心で、DEM値は真値(理論値)より水深にして0.6040倍浅く見え、一番浅く見えるところで、0.5582倍浅く見えることがわかった。またこの場合、平均して0.5802倍浅く見えていることになる。   It was found that at the center of the stereo image, the DEM value looks 0.6040 times shallower than the true value (theoretical value) in water depth, and 0.5582 times shallower where it appears shallowest. Further, in this case, it appears to be 0.5802 times shallower on average.

図8は本発明の水深補正プログラムのフローチャートである。   FIG. 8 is a flowchart of the water depth correction program of the present invention.

この図において、まず、画像撮影装置位置及びDEM値を入力する(ステップS1)。次に、水面到達座標、入射角・屈折角の算出を行う(ステップS2)。次に、屈折率を入力する(ステップS3)。次に、2次元か3次元かの判別を行い(ステップS4)、判別の結果、2次元の場合(ステップS5)水深の真値を算出する(ステップS6)。また、3次元の場合(ステップS7)、画像撮影装置からの入射角の判別を行い(ステップS8)、入射角が同じ場合(ステップS9)、入射角が異なる場合(ステップS10)、それぞれにおいて、水深の真値を決定する(ステップS11、ステップS12)。このようにして、いずれの場合にも、水深の真値を決定する(ステップS12)。それらのステップS6,ステップS11,ステップS12の水深の真値に基づいて、液体下の物体の表面形状の生成(真値の決定、ステップS13)を行う。   In this figure, first, an image photographing device position and a DEM value are input (step S1). Next, the water surface arrival coordinates, the incident angle and the refraction angle are calculated (step S2). Next, a refractive index is input (step S3). Next, it is determined whether it is two-dimensional or three-dimensional (step S4). As a result of the determination, in the case of two dimensions (step S5), the true value of the water depth is calculated (step S6). In the case of three dimensions (step S7), the incident angle from the image capturing device is determined (step S8). When the incident angles are the same (step S9) and when the incident angles are different (step S10), The true value of the water depth is determined (step S11, step S12). Thus, in any case, the true value of the water depth is determined (step S12). Based on the true value of the water depth in Step S6, Step S11, and Step S12, the surface shape of the object under the liquid is generated (determination of the true value, Step S13).

以下、本発明のDEMデータによる実証試験について説明する。   Hereinafter, the verification test using the DEM data of the present invention will be described.

図9、図10に沖縄県石垣島白保の1995年撮影の1万分の1航空写真2枚(60%オーバーラップ)を示す。   9 and 10 show two 1 / 10,000 aerial photographs (60% overlap) taken in 1995 by Shiraho Ishigaki, Okinawa.

以下、この2枚の航空写真から得られたDEMデータを用いて、本発明の精度検証を行った。   Hereinafter, the accuracy of the present invention was verified using the DEM data obtained from these two aerial photographs.

ここでは、DEM値を本発明のプログラムによって補正した水深理論値と、白保の水深実測値を比較検証した。この条件で、水深補正を行う前のDEM値と水深補正を行った後の理論値を実測値とそれぞれ比較をした。   Here, the theoretical depth value obtained by correcting the DEM value by the program of the present invention and the actual measured depth value of Shiraho were compared and verified. Under these conditions, the DEM value before the water depth correction and the theoretical value after the water depth correction were compared with the measured values, respectively.

本発明による補正前のDEM値と実測値との比較結果を図11に、本発明による補正後の理論値と実測値との比較結果を図12に示す。   FIG. 11 shows a comparison result between the DEM value before correction according to the present invention and the actual measurement value, and FIG. 12 shows a comparison result between the theoretical value after correction according to the present invention and the actual measurement value.

これらの図において、y(実測値)=x(計算値)の直線を引き、この直線に近いほど、実際値との誤差が少ないということを示す。   In these figures, a straight line y (actual value) = x (calculated value) is drawn, and the closer to this straight line, the smaller the error from the actual value.

図11からわかるように、DEMの値(補正を行う前)は、実測値よりも浅く見えていて、誤差の平均値は0.622528mとなっている。これに対し図12より、本発明による補正を行った後の理論値では、ほぼy=x直線の周りに集中し、、誤差の平均値も0.297963mとなり精度も良くなったことがわかる。   As can be seen from FIG. 11, the DEM value (before correction) appears to be shallower than the actually measured value, and the average value of the error is 0.622528 m. On the other hand, it can be seen from FIG. 12 that the theoretical values after the correction according to the present invention are concentrated around the y = x straight line, and the average error value is 0.297963 m, which improves the accuracy.

これはDPWのDEM値では実測値よりも水深を浅くとっていたものを、理論的に補正することにより、実測値に近い値、つまり水深を深く補正できたためであると思われる。   This is probably because the DPW DEM value, which was shallower than the actually measured value, was theoretically corrected to correct the value close to the actually measured value, that is, the water depth deeply.

また、すべての点がy=x上に乗らなかったのは、DPWのステレオマッチングが上手くできていないこと、画像撮影装置の状態(撮影時の画像撮影装置の傾き、画像撮影装置高度の変動など)を考慮に入れていないことが原因で生じた誤差であると思われる。   Also, all the points were not on y = x because DPW stereo matching was not successful, the state of the image capturing device (tilt of the image capturing device at the time of capturing, fluctuations in the height of the image capturing device, etc.) ) Seems to be an error caused by not taking into account.

本発明における結果を以下のようにまとめた。   The results in the present invention are summarized as follows.

(1)水中において水底や対象物が浅く見える理論を、屈折率を考慮して考えた。   (1) The theory that the bottom of water and objects look shallow in water was considered in consideration of the refractive index.

(2)その理論を基に、水深補正プログラムを完成させた。   (2) Based on the theory, a water depth correction program was completed.

(3)沖縄県石垣島白保のデータを用いてプログラムの精度検証を行った結果、補正前の誤差の平均は0.62258mであったが、本発明の理論による水深補正では0.29796mと精度が良くなった。また、DEM値水深を−1.0mと仮定し、航空写真のステレオ画像の範囲で水深散布図(図7)を作ったところ、DEMデータは実測したデータより水深にして、平均で0.58倍浅く見えていることがわかった。   (3) As a result of verifying the accuracy of the program using the data of Shiraho, Ishigaki Island, Okinawa Prefecture, the average error before correction was 0.62258 m, but the accuracy of the water depth correction by the present invention is 0.29796 m. Improved. Further, assuming that the DEM water depth is -1.0 m and making a water depth scatter diagram (Fig. 7) in the range of the stereo image of the aerial photograph, the DEM data is taken as the water depth from the measured data, and the average is 0.58. I found that it looked twice as shallow.

図13は上記した液体下の物体の真の水深値に基づいて液体下の物体の表面形状を生成させるシステムブロックである。   FIG. 13 is a system block for generating the surface shape of the object under the liquid based on the true water depth value of the object under the liquid.

この図において、1はステレオ画像に対してDPWを用いてデジタルマッピングを行い、データを生成するデータ生成部であり、2は左側に位置する画像撮影装置Aの位置情報、3は右側に位置する画像撮影装置Bの位置情報、4はDEM値、5は屈折率値である。また、10はコンピュータであり、このコンピュータ10には、データ生成部1から左側に位置する画像撮影装置Aの位置情報2、右側に位置する画像撮影装置Bの位置情報3、DEM値4が入力される。コンピュータ10は、屈折率値の入力部11、左右水面到達座標、左右入射角、左右屈折角の演算部12、2次元・3次元の判別部13、2次元の真値の演算部14、3次元における画像撮影装置2機の入射角の判別部15、3次元の入射角が同じ場合の演算部16、3次元の入射角が異なる場合の演算部17、液体下の物体の表面形状の生成部18、各部からの情報を記憶するとともに、各部へ記憶された情報を提供する記憶部19、液体下の物体の表面形状の生成情報を出力する出力部20から構成されている。ここで、真値を求めるフローは、図8に示した通りであり、出力部からの出力例としては、水深散布図(図7参照)を得ることもできる。   In this figure, 1 is a data generation unit that performs digital mapping on a stereo image using DPW to generate data, 2 is position information of the image capturing device A located on the left side, and 3 is located on the right side. Position information of the image capturing apparatus B, 4 is a DEM value, and 5 is a refractive index value. Reference numeral 10 denotes a computer. The computer 10 receives position information 2 of the image capturing apparatus A located on the left side, position information 3 of the image capturing apparatus B located on the right side, and a DEM value 4 from the data generation unit 1. Is done. The computer 10 includes a refractive index value input unit 11, left and right water surface arrival coordinates, left and right incident angles, left and right refraction angle calculation unit 12, two-dimensional / three-dimensional determination unit 13, two-dimensional true value calculation unit 14, 3 Of the angle of incidence of two image capturing devices in two dimensions, a calculating unit 16 when the three-dimensional incident angle is the same, a calculating unit 17 when the three-dimensional incident angle is different, and generation of the surface shape of the object under the liquid The unit 18 includes a storage unit 19 that stores information from each unit, provides information stored in each unit, and an output unit 20 that outputs generation information of the surface shape of the object under the liquid. Here, the flow for obtaining the true value is as shown in FIG. 8, and as an output example from the output unit, a water depth scatter diagram (see FIG. 7) can also be obtained.

本発明においては、
(1)まず、ステレオ画像をデジタル化する。
In the present invention,
(1) First, a stereo image is digitized.

(2)次に、解析範囲に所定の配列で基準地点群を設定して各々の基準地点の平面座標値を記憶する。   (2) Next, a reference point group is set in a predetermined arrangement in the analysis range, and the plane coordinate value of each reference point is stored.

(3)前記解析範囲において基準地点群の位置及び標高値を用いて各々の画素の標高を測定して計算する。   (3) The altitude of each pixel is measured and calculated using the position and altitude value of the reference point group in the analysis range.

ここまでは、デジタル図化機を用いたデジタルマッピングに基づいて作成することができる。   Up to this point, it can be created based on digital mapping using a digital plotter.

(4)次に、液体の屈折率と画像撮影位置情報により浅く見えている割合を補正する補正係数を算出する。   (4) Next, a correction coefficient for correcting the ratio of the image that is viewed shallow is calculated based on the refractive index of the liquid and the image capturing position information.

(5)前記補正係数を用いて液体下の物体の真の深度を得る。   (5) The true depth of the object under the liquid is obtained using the correction coefficient.

上記(4)及び(5)の工程が本発明の重要なプロセスである。   The steps (4) and (5) are important processes of the present invention.

このように、液体下の表面形状生成の生成を、図13を用いて説明すると、
データ生成部1において、ステレオ画像に対してデジタル図化機(先行技術参照)を用いてデジタルマッピングを行い左側に位置する画像撮影装置Aの位置情報2、右側に位置する画像撮影装置Bの位置情報3、DEM値4のそれぞれのデータを生成する。次に、屈折率値5とともにこれらのデータをコンピュータ10に取込み、演算部12において、左右水面到達座標、左右入射角、左右屈折角の演算を行う。その値は記憶部19に記憶する。次に、2次元・3次元の判別部13において、2次元・3次元の判別を行い、その値は記憶部19に記憶する。次に、真値の演算部14において、2次元の真値の演算を行い、その真値は記憶部19に記憶する。また、3次元の場合は入射角の判別部15において、入射角が同じか異なるかの判別を行い、その値は記憶部19に記憶する。次に、真値の演算部16において、入射角が同じ場合の3次元の記憶の真値の演算を行い、その真値は記憶部19に記憶する。次に、真値の演算部17において、入射角が異なる場合の3次元の真値の演算を行い、その真値は記憶部19に記憶する。このようにして求められた2次元、3次元の真値に基づいて、液体下の物体の表面形状の生成部18において、マッピングを行い、液体下の物体の表面形状の生成を行う。
Thus, the generation of the surface shape generation under the liquid will be described with reference to FIG.
In the data generation unit 1, digital mapping is performed on a stereo image using a digital plotter (refer to the prior art), position information 2 of the image capturing apparatus A located on the left side, and position of the image capturing apparatus B located on the right side Each data of information 3 and DEM value 4 is generated. Next, these data together with the refractive index value 5 are taken into the computer 10 and the calculation unit 12 calculates the left and right water surface arrival coordinates, the left and right incident angles, and the left and right refraction angles. The value is stored in the storage unit 19. Next, the two-dimensional / three-dimensional determination unit 13 performs two-dimensional / three-dimensional determination, and stores the value in the storage unit 19. Next, the true value calculation unit 14 performs a two-dimensional true value calculation and stores the true value in the storage unit 19. In the three-dimensional case, the incident angle determination unit 15 determines whether the incident angles are the same or different, and stores the values in the storage unit 19. Next, the true value calculation unit 16 calculates the true value of the three-dimensional storage when the incident angles are the same, and stores the true value in the storage unit 19. Next, the true value calculation unit 17 calculates a three-dimensional true value when the incident angles are different, and stores the true value in the storage unit 19. Based on the two-dimensional and three-dimensional true values obtained in this way, the surface shape of the object under the liquid performs mapping, and the surface shape of the object under the liquid is generated.

なお、本発明は航空写真測量に限らず、画像撮影装置でステレオ撮影したものであれば汎用的に適用することができる。   Note that the present invention is not limited to aerial photogrammetry, and can be applied universally as long as the image is captured by an image capturing apparatus.

また、本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形が可能であり、これらを本発明の範囲から排除するものではない。   Further, the present invention is not limited to the above-described embodiments, and various modifications can be made based on the spirit of the present invention, and these are not excluded from the scope of the present invention.

本発明の液体下の表面形状データ作成方法は、正確な海面下の物体の表面形状を知るための有効なツールとして利用可能性がある。   The liquid surface shape data creation method of the present invention can be used as an effective tool for knowing the accurate surface shape of an object under the sea surface.

光の屈折による液体下での物体の見え方の原理の説明図である。It is explanatory drawing of the principle of the appearance of the object under the liquid by the refraction of light. 本発明にかかる航空写真測量を例とした鳥瞰図である。It is a bird's-eye view which made the aerial photogrammetry concerning this invention an example. 図2の立体図である。FIG. 3 is a three-dimensional view of FIG. 2. 画像撮影装置2機の真下を結ぶ直線上に対象点がある場合の2次元モデル図である。It is a two-dimensional model figure in case an object point exists on the straight line which connects directly under 2 image photographing devices. DEM値と真値のY座標の横ずれ特性を示す図である。It is a figure which shows the lateral shift characteristic of a DEM value and a true Y coordinate. 画像撮影装置2機の真下を結ぶ直線上以外に対象点がある場合(3次元)の、水面での光線の屈折後の様子を示す図である。It is a figure which shows the mode after the refraction | bending of the light ray in the water surface in case there exists an object point other than on the straight line which connects two image photographing devices directly (three dimensions). 飛行機の高度が3,000mで、デジタル写真測量により計測されたみかけの深度が1mの場合の真の深度を示す図である。It is a figure which shows the true depth in case the altitude of an airplane is 3000 m and the apparent depth measured by digital photogrammetry is 1 m. 本発明の水深補正プログラムのフローチャートである。It is a flowchart of the water depth correction program of the present invention. 本発明の実証試験に用いた沖縄県石垣島白保の航空写真(その1)を示す図である。It is a figure which shows the aerial photograph (the 1) of Ishigaki-jima Shiraho of Okinawa used for the verification test of this invention. 本発明の実証試験に用いた沖縄県石垣島白保の航空写真(その2)を示す図である。It is a figure which shows the aerial photograph (the 2) of Ishigakijima Shiraho of Okinawa used for the verification test of this invention. 本発明による補正前のDEM値と実測値との比較を示す図である。It is a figure which shows the comparison with the DEM value before correction | amendment by this invention, and a measured value. 本発明による補正後の理論値と実測値との比較を示す図である。It is a figure which shows the comparison with the theoretical value after correction | amendment by this invention, and a measured value. 本発明の実施例を示す液体下の表面形状測定システムのブロック図である。It is a block diagram of the surface shape measurement system under the liquid which shows the Example of this invention.

符号の説明Explanation of symbols

1 データ生成部
2 左側に位置する画像撮影装置Aの位置情報
3 右側に位置する画像撮影装置Bの位置情報
4 DEM値
5 屈折率値
10 コンピュータ
11 屈折率値の入力部
12 左右水面到達座標、左右入射角、左右屈折角の演算部
13 2次元・3次元の判別部
14 2次元の真値の演算部
15 3次元における画像撮影装置2機の入射角の判別部
16 3次元の入射角が同じ場合の演算部
17 3次元の入射角が異なる場合の演算部
18 液体下の物体の表面形状の生成部
19 各部からの情報を記憶するとともに、各部へ記憶された情報を提供する記憶部
20 液体下の物体の表面形状の生成情報を出力する出力部
DESCRIPTION OF SYMBOLS 1 Data generation part 2 Position information of the imaging device A located in the left side 3 Position information of the imaging device B located in the right side 4 DEM value 5 Refractive index value 10 Computer 11 Refractive index value input part 12 Left and right water surface arrival coordinates, Left / right incidence angle and left / right refraction angle calculation unit 13 Two-dimensional / three-dimensional discrimination unit 14 Two-dimensional true value calculation unit 15 Incidence angle discrimination unit of two image photographing devices in three dimensions 16 Three-dimensional incidence angle is Calculation unit 17 for the same case Calculation unit 18 for different three-dimensional incident angles 18 Surface shape generation unit for object under liquid 19 Storage unit 20 for storing information from each unit and providing information stored for each unit 20 Output unit that outputs generation information of surface shape of object under liquid

Claims (3)

ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状計測方法であって、
前記ステレオ画像をデジタル化する工程と、
解析範囲に所定の配列で基準地点群を設定して各々の基準地点の平面座標値を記憶する工程と、
前記解析範囲において基準地点群の位置及び標高値を用いて各々の画素の標高を測定して計算する工程と、
液体の屈折率と画像撮影位置情報により浅く見えている割合を補正する補正係数を算出する工程と、
前記補正係数を用いて液体下の物体の真の深度を得る工程と、
を有することを特徴とする液体下の表面形状測定方法。
A surface shape measurement method under a liquid that performs digital mapping on a stereo image using a digital plotter,
Digitizing the stereo image;
A step of setting a reference point group in a predetermined arrangement in the analysis range and storing a plane coordinate value of each reference point;
Measuring and calculating the altitude of each pixel using the position and altitude value of the reference point group in the analysis range; and
Calculating a correction coefficient that corrects a ratio of being viewed shallow by the refractive index of the liquid and the image shooting position information;
Obtaining the true depth of the object under the liquid using the correction factor;
A method for measuring a surface shape under a liquid, comprising:
ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状計測システムであって、
(a)ステレオ画像に対してデジタル図化機を用いてデジタルマッピングを行い、左側に位置する画像撮影装置Aの位置情報、右側に位置する画像撮影装置Bの位置情報、DEM値のそれぞれのデータを生成するデータ生成部と、
(b)左右水面到達座標、左右入射角、左右屈折角の演算を行う演算部と、撮影位置の判別部と、屈折率の入力を行う屈折率値の入力部と、画像撮影装置2機の真下の点を結ぶ直線上に対象点がある時を2次元、それ以外の時を3次元としたときの2次元・3次元の判別部と、2次元の真値を演算する演算部と、3次元である場合に画像撮影装置2機の入射角の異同を判別する判別部と、該判別部により入射角が等しいと判別された場合の真値を演算する演算部と、前記入射角が異なると判別された場合の真値を演算する演算部と、前記演算された2次元、3次元の真値に基づいて、液体下の物体の表面形状を生成する生成部と、上記した各部の情報を記憶する記憶部とを有するコンピュータとを具備することを特徴とする液体下の表面形状計測システム。
A surface shape measurement system under a liquid that performs digital mapping on a stereo image using a digital plotter,
(A) Digital mapping is performed on the stereo image using a digital plotter, and the position information of the image photographing device A located on the left side, the position information of the image photographing device B located on the right side, and the DEM value data A data generation unit for generating
(B) a calculation unit that calculates left and right water surface arrival coordinates, left and right incident angles, and left and right refraction angles, a shooting position determination unit, a refractive index value input unit that inputs a refractive index, and two image shooting apparatuses A two-dimensional / three-dimensional discriminating unit when the target point is on a straight line connecting the points immediately below, and a three-dimensional case other than that, and a calculating unit that calculates a two-dimensional true value; A determination unit that determines whether the incident angles of the two image capturing apparatuses are three-dimensional, a calculation unit that calculates a true value when the determination unit determines that the incident angles are equal, and the incident angle is A calculation unit that calculates a true value when it is determined that the two are different from each other, a generation unit that generates a surface shape of an object under the liquid based on the calculated two-dimensional and three-dimensional true values, A surface shape under a liquid, comprising a computer having a storage unit for storing information Measurement system.
請求項2記載の液体下の表面形状計測システムにおいて、計測された前記液体下の物体の表面形状の情報を画面に表示する出力部を具備することを特徴とする液体下の表面形状計測システム。   3. The surface shape measurement system under liquid according to claim 2, further comprising an output unit that displays information on the measured surface shape of the object under the liquid on a screen.
JP2005005824A 2005-01-13 2005-01-13 Method and system for measuring surface shape under liquid Expired - Fee Related JP4729694B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005005824A JP4729694B2 (en) 2005-01-13 2005-01-13 Method and system for measuring surface shape under liquid

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005005824A JP4729694B2 (en) 2005-01-13 2005-01-13 Method and system for measuring surface shape under liquid

Publications (2)

Publication Number Publication Date
JP2006194705A true JP2006194705A (en) 2006-07-27
JP4729694B2 JP4729694B2 (en) 2011-07-20

Family

ID=36800905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005005824A Expired - Fee Related JP4729694B2 (en) 2005-01-13 2005-01-13 Method and system for measuring surface shape under liquid

Country Status (1)

Country Link
JP (1) JP4729694B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089160A (en) * 2012-10-31 2014-05-15 Topcon Corp Aviation photographic measurement method, and aviation photographic measurement system
JP2014514543A (en) * 2011-03-31 2014-06-19 エーティーエス オートメーション ツーリング システムズ インコーポレイテッド Three-dimensional light detection through optical media
JP2015042976A (en) * 2013-07-26 2015-03-05 独立行政法人国立環境研究所 Shadow water area observation system
JP2017113842A (en) * 2015-12-24 2017-06-29 ファナック株式会社 Wire electric discharge system comprising robot
JP2018124224A (en) * 2017-02-03 2018-08-09 大日本印刷株式会社 Three-dimensional shape measuring device and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105716581B (en) * 2016-02-15 2018-08-10 中测新图(北京)遥感技术有限责任公司 Underwater object point coordinate determination method and device based on double medium camera works

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783632A (en) * 1993-09-20 1995-03-28 Nissan Motor Co Ltd Shape measuring apparatus
JPH08210851A (en) * 1995-02-02 1996-08-20 Asia Kosoku Kk Three dimensional digital plotter
JP2000329522A (en) * 1999-05-21 2000-11-30 Hitachi Ltd Image processor and water level measuring system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783632A (en) * 1993-09-20 1995-03-28 Nissan Motor Co Ltd Shape measuring apparatus
JPH08210851A (en) * 1995-02-02 1996-08-20 Asia Kosoku Kk Three dimensional digital plotter
JP2000329522A (en) * 1999-05-21 2000-11-30 Hitachi Ltd Image processor and water level measuring system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014514543A (en) * 2011-03-31 2014-06-19 エーティーエス オートメーション ツーリング システムズ インコーポレイテッド Three-dimensional light detection through optical media
US9551570B2 (en) 2011-03-31 2017-01-24 Ats Automation Tooling Systems Inc. Three dimensional optical sensing through optical media
JP2014089160A (en) * 2012-10-31 2014-05-15 Topcon Corp Aviation photographic measurement method, and aviation photographic measurement system
JP2015042976A (en) * 2013-07-26 2015-03-05 独立行政法人国立環境研究所 Shadow water area observation system
JP2017003593A (en) * 2013-07-26 2017-01-05 国立研究開発法人国立環境研究所 Shallow water area observation system
JP2017113842A (en) * 2015-12-24 2017-06-29 ファナック株式会社 Wire electric discharge system comprising robot
US10289095B2 (en) 2015-12-24 2019-05-14 Fanuc Corporation Wire electric discharge machining system
JP2018124224A (en) * 2017-02-03 2018-08-09 大日本印刷株式会社 Three-dimensional shape measuring device and program

Also Published As

Publication number Publication date
JP4729694B2 (en) 2011-07-20

Similar Documents

Publication Publication Date Title
CN107316325B (en) Airborne laser point cloud and image registration fusion method based on image registration
US7206080B2 (en) Surface shape measurement apparatus, surface shape measurement method, surface state graphic apparatus
ES2693785T3 (en) Procedure and disposition to develop a three-dimensional model of an environment
EP2515274A1 (en) Method for extracting 3-dimensional object information out of a single image without meta information
CN108474658B (en) Ground form detection method and system, unmanned aerial vehicle landing method and unmanned aerial vehicle
CN111563921B (en) Underwater point cloud acquisition method based on binocular camera
JP4729694B2 (en) Method and system for measuring surface shape under liquid
CN106127745A (en) The combined calibrating method of structure light 3 D visual system and line-scan digital camera and device
US11346666B2 (en) System and method for measuring a displacement of a mobile platform
CN103292710A (en) Distance measuring method applying binocular visual parallax error distance-measuring principle
KR20090064679A (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
CN103852060A (en) Visible light image distance measuring method based on monocular vision
CN108399631B (en) Scale invariance oblique image multi-view dense matching method
CN107633532B (en) Point cloud fusion method and system based on white light scanner
JP6534296B2 (en) Three-dimensional model generation device, three-dimensional model generation method, and program
CN102692213A (en) Traffic accident field surveying instrument based on active omnidirectional visual sensor
CN104482921A (en) Water surface target measuring method
CN110415286A (en) A kind of outer ginseng scaling method of more flight time depth camera systems
van der Lucht et al. Structured-light based 3D laser scanning of semi-submerged structures
CN112461204B (en) Method for satellite to dynamic flying target multi-view imaging combined calculation of navigation height
CN105354828B (en) Read and write intelligent identification and the application thereof of reading matter three-dimensional coordinate in scene
JP2006220603A (en) Imaging apparatus
CN111489436A (en) Three-dimensional reconstruction method, device and equipment for weld joint and storage medium
CN114140397A (en) Method and system for correcting gravity near-zone terrain by full-digital ground imaging method
Kattan et al. 3D modelling and visualization of large building using photogrammetric approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4729694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees