JP6205465B2 - Shallow water observation system - Google Patents

Shallow water observation system Download PDF

Info

Publication number
JP6205465B2
JP6205465B2 JP2016137487A JP2016137487A JP6205465B2 JP 6205465 B2 JP6205465 B2 JP 6205465B2 JP 2016137487 A JP2016137487 A JP 2016137487A JP 2016137487 A JP2016137487 A JP 2016137487A JP 6205465 B2 JP6205465 B2 JP 6205465B2
Authority
JP
Japan
Prior art keywords
data
distance
measuring device
water
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016137487A
Other languages
Japanese (ja)
Other versions
JP2017003593A5 (en
JP2017003593A (en
Inventor
宏之 小熊
宏之 小熊
博哉 山野
博哉 山野
研一 渋谷
研一 渋谷
智樹 河端
智樹 河端
稚佳子 江藤
稚佳子 江藤
昌裕 林
昌裕 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Environmental Studies
Original Assignee
National Institute for Environmental Studies
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Environmental Studies filed Critical National Institute for Environmental Studies
Publication of JP2017003593A publication Critical patent/JP2017003593A/en
Publication of JP2017003593A5 publication Critical patent/JP2017003593A5/ja
Application granted granted Critical
Publication of JP6205465B2 publication Critical patent/JP6205465B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Description

本発明は、湖沼や沿岸部の浅水域、たとえば、珊瑚礁を中心とする浅水域などの水底画像情報を取得して、画像処理する浅水域観測システムに関するものである。   The present invention relates to a shallow water observation system for acquiring and processing image information of a bottom of a lake or a shallow water area in a coastal area, for example, a shallow water area centered on a coral reef.

珊瑚礁のような浅水域の生態系は、地球環境の変化を反映する環境指標として重要視されている。   Shallow water ecosystems such as coral reefs are regarded as important environmental indicators that reflect changes in the global environment.

浅水域の生態系の観測方法として、たとえば、特開2003−4845号公報(特許文献1)は、水面を走行移動可能に支持した音響測深機による観測方法を開示しており(特許文献1の図1参照)、かかる観測方法によれば、水深観測による広範囲の海底地形等の地図情報を得ることが可能になる。   As an observation method of an ecosystem in a shallow water area, for example, Japanese Patent Laid-Open No. 2003-4845 (Patent Document 1) discloses an observation method using an acoustic sounding instrument that supports the water surface so as to be able to travel (Patent Document 1). According to such an observation method, it is possible to obtain map information such as a wide range of seabed topography by water depth observation.

また、特許第4173027号公報(特許文献2)は、水中移動可能に曳航支持したビデオカメラによる観測方法を開示しており(特許文献2の図1参照)、かかる観測方法によれば、水中の広範囲にわたって映像観察をすることが可能になる。   Japanese Patent No. 4173027 (Patent Document 2) discloses an observation method using a video camera supported by towing so as to be movable underwater (see FIG. 1 of Patent Document 2). It is possible to observe images over a wide range.

特開2003−4845号公報JP 2003-4845 A 特許第4173027号公報Japanese Patent No. 4173027

しかしながら、音響測深機によって観測する場合に得られる情報は、魚群探知機、シングルビーム、ナローマルチビームなどの超音波反射による水深情報に限られるため、可視光域を含む色彩などの光学的性状に関する情報を反映することができないという問題がある。   However, the information obtained when observing with an acoustic sounding device is limited to water depth information by ultrasonic reflection such as a fish finder, single beam, narrow multi-beam, etc., so it relates to optical properties such as colors including the visible light range. There is a problem that information cannot be reflected.

一方、ビデオカメラによって得られる水中映像は、水中における動的観測により光学的性状を把握することが可能になるが、一過性の映像情報で、地理座標を持たないため、水底の態様に関する光学的性状全般に及ぶ定量解析の基礎となり得ないという問題があった。   On the other hand, underwater images obtained with a video camera can grasp the optical properties by dynamic observation in water, but it is transient image information and does not have geographical coordinates. There was a problem that it could not be the basis of quantitative analysis covering general characteristics.

したがって、本発明は、浅水域の水底情報によって、広範囲の水底態様の光学的性状全般に及ぶ定量解析を可能とする浅水域観測システムを提供することを目的とするものである。 Accordingly, an object of the present invention is to provide a shallow water observation system that enables quantitative analysis over the entire optical properties of a wide range of water bottom modes by using information on the bottom of the shallow water .

本発明のかかる目的は、
観測器材を水上移動可能に搭載支持する移動支持浮体と、
前記移動支持浮体に搭載された可視光を検出する一対の水中カメラと、
水底までの距離を計測可能な測距装置と、
前記複数の水中カメラの姿勢を検出し、前記一対の水中カメラの撮影位置を検出する姿勢/GPSセンサとを備え、
さらに、前記一対の水中カメラによって撮影された撮影画像と前記姿勢/GPSセンサによって検出された前記一対の水中カメラの姿勢および撮影位置とを同期記録する収録手段と、
前記収録手段の記録画像を処理する画像処理部と、
前記測距装置によって生成された距離データを処理する距離データ処理部と
を備えた浅海底観測システムであって、
前記画像処理部が、前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの撮影条件に基づく画像処理によって地理座標を付与されたDSMデータを生成可能であり、
前記距離データ処理部が、前記姿勢/GPSセンサによって測定された姿勢データを用いて、前記距離データ処理部が、前記測距装置によって生成された距離データを水深データに変換し、前記水深データに基づいて、補完用のDSMデータを生成可能であり、
前記画像処理部が、前記一対の水中カメラによって得られる水底表面データの一部が欠損している場合に、前記距離データ処理部によって生成された補完用のDSMデータによって、前記DSMデータを補完することによって、撮影対象の前記浅海底領域のDSMデータを生成し、得られた前記浅海底領域のDSMデータに基づいて、正射投影写真図を作成可能に構成されたことを特徴とする浅水域観測システムによって達成される。
This object of the present invention is to
A moving support floating body that supports the observation equipment so that it can move on the water;
A pair of underwater cameras for detecting visible light mounted on the movable supporting floating body;
A distance measuring device capable of measuring the distance to the bottom of the water,
A posture / GPS sensor for detecting postures of the plurality of underwater cameras and detecting shooting positions of the pair of underwater cameras;
Further, a recording means for recording synchronized with attitude and imaging position of the pair of the pair of underwater camera detected by the images taken the posture / GPS sensor by underwater camera,
An image processing unit for processing a recorded image of the recording means;
A shallow seafloor observation system comprising a distance data processing unit for processing distance data generated by the distance measuring device,
The image processing unit can generate DSM data to which geographical coordinates are given by image processing based on respective imaging conditions for an overlapping range of a plurality of captured images captured by the underwater camera,
The distance data processing unit uses the attitude data measured by the attitude / GPS sensor, the distance data processing unit converts the distance data generated by the distance measuring device into water depth data, and converts the data into the water depth data. Based on this, it is possible to generate complementary DSM data,
The image processing unit supplements the DSM data with the supplemental DSM data generated by the distance data processing unit when a part of the bottom surface data obtained by the pair of underwater cameras is missing. The shallow water area is configured to generate DSM data of the shallow sea bottom region to be imaged and to create an orthographic projection photograph based on the obtained DSM data of the shallow sea bottom area Achieved by observation system.

本明細書において、DSMはDigital Surface Modelの略語であり、数値表層モデルをいう。   In this specification, DSM is an abbreviation for Digital Surface Model and refers to a numerical surface model.

本発明によれば、移動支持浮体は水上移動可能に観測器材を搭載支持し、水中カメラは移動支持浮体に支持されて水底を撮影し、撮影条件検出部材により水中カメラの撮影条件を検出し、収録部材により撮影画像およびの撮影条件を同期して記録し、画像処理部により、撮影画像データの画像処理が実行され、水中カメラによる複数の撮影画像の重複範囲につき、それぞれの撮影条件に基づく正射投影処理をすることによって、正射投影画像が出力され、この正射投影画像によって広範囲の水底態様の光学的性状全般に及ぶ定量解析を可能とし、また、後における同様の対比観測によって得られる同一範囲の正射投影画像との比較による経時的変化を定量的に把握することが可能になる。   According to the present invention, the movable support floating body supports the observation equipment so as to be movable on the water, the underwater camera is supported by the movable support floating body, photographs the bottom of the water, and the photographing condition detection member detects the photographing condition of the underwater camera, The captured image and the shooting conditions are recorded synchronously by the recording member, and the image processing unit executes image processing of the captured image data. The overlapping range of a plurality of captured images by the underwater camera is corrected based on each shooting condition. By performing an orthogonal projection process, an orthographic projection image is output, and this orthographic projection image enables quantitative analysis over the entire optical properties of a wide range of water bottom aspects, and is also obtained by a similar contrast observation later. It becomes possible to quantitatively grasp the temporal change due to comparison with the orthographic projection image in the same range.

さらに、本発明によれば、浅水域観測システムは、可視光を検出する複数の水中カメラに加えて、水底までの距離を計測可能な測距装置を備えているから、水質が汚濁しているために、可視光を検出する水中カメラによって、精度よく、水底表面データを作成することができず、可視光を検出する水中カメラによって得られる水底表面データの一部が欠損している場合や、可視光を検出する水中カメラによって水底を撮影するときに、陰になってしまい、精度よく、水底表面データを作成することができず、可視光を検出する水中カメラによって得られる水底表面データの一部が欠損している場合、太陽光線の陰りや夜明け/薄暮時、あるいは、コントラストがきわめて高く、そのために明るさが不足して十分な露光が得られない部分ができ、水底表面データの一部が欠損している場合、さらには、左右に配置されたビデオカメラによって得られる水底表面画像の結合処理(画像マッチング処理)がうまく出来ずに、水底表面データの一部が欠損している場合にも、レーザや超音波等を利用した測距装置によって水底までの距離を測定し、可視光を検出する水中カメラによって得られる水底表面データの欠損を補完することが可能になる。
Furthermore, according to the present invention, the shallow water observation system includes a distance measuring device capable of measuring the distance to the bottom of the water in addition to the plurality of underwater cameras that detect visible light, so the water quality is contaminated. Therefore, when the underwater camera that detects visible light cannot accurately create the bottom surface data, and some of the bottom surface data obtained by the underwater camera that detects visible light is missing, When the bottom of the water is photographed by an underwater camera that detects visible light, the bottom surface data cannot be created with high accuracy, and one of the bottom surface data obtained by the underwater camera that detects visible light. If the area is missing, the sun will be shaded, at dawn / dusk, or the contrast will be very high. If a part of the bottom surface data is missing, the bottom surface image data obtained by video cameras placed on the left and right cannot be combined well (image matching processing), and a part of the bottom surface data is lost. Even if it is missing, the distance to the bottom of the water can be measured with a distance measuring device using laser, ultrasonic waves, etc., and it is possible to compensate for the lack of bottom surface data obtained by an underwater camera that detects visible light. Become.

本発明の好ましい実施態様においては、前記測距装置が、レーザを用いて、水底までの距離を計測可能なレーザ測距装置によって構成されている。   In a preferred embodiment of the present invention, the distance measuring device is constituted by a laser distance measuring device capable of measuring a distance to the water bottom using a laser.

本発明のさらに好ましい実施態様においては、前記レーザ測距装置が、前記移動支持浮体の下面に取り付けられている。   In a further preferred aspect of the present invention, the laser distance measuring device is attached to the lower surface of the movable support floating body.

本発明のさらに好ましい実施態様においては、可視光を検出する前記複数の水中カメラが前記移動支持浮体の左右の両外側またはその一方に配置されている。   In a further preferred embodiment of the present invention, the plurality of underwater cameras for detecting visible light are arranged on the left and right outer sides or one of the movable support floating bodies.

本発明のこの好ましい実施態様によれば、移動支持浮体の左右の両外側またはその一方に水中カメラを配置することにより、左右または前後の視差画像を収録することができる。   According to this preferred embodiment of the present invention, left and right or front and rear parallax images can be recorded by disposing the underwater cameras on the left and right outer sides of the movable support floating body or on one of them.

本発明のさらに好ましい実施態様においては、記移動支持浮体が、観測器材専用の浮体によって構成されている。   In a further preferred embodiment of the present invention, the movable supporting floating body is constituted by a floating body dedicated to the observation equipment.

本発明によれば、浅水域の水底情報によって、広範囲の水底態様の光学的性状全般に及ぶ定量解析を可能とする浅水域観測システムを提供することが可能になる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the shallow water area observation system which enables the quantitative analysis covering the whole optical property of a wide water bottom aspect with the water bottom information of a shallow water area .

また、本発明によれば、水質が汚濁しているために、可視光を検出する水中カメラによって、精度よく、水底表面データを作成することができず、可視光を検出する水中カメラによって得られる水底表面データの一部が欠損している場合や、可視光を検出する水中カメラによって水底を撮影するときに、陰になってしまい、精度よく、水底表面データを作成することができず、可視光を検出する水中カメラによって得られる水底表面データの一部が欠損している場合、太陽光線の陰りや夜明け/薄暮時、あるいは、コントラストがきわめて高く、そのために明るさが不足して十分な露光が得られない部分ができ、水底表面データの一部が欠損している場合、さらには、左右に配置されたビデオカメラによって得られる水底表面画像の結合処理(画像マッチング処理)がうまく出来ずに、水底表面データの一部が欠損している場合においても、測距装置によって水底までの距離を測定し、可視光を検出する水中カメラによって得られる水底表面データの欠損を補完することが可能になる。   In addition, according to the present invention, since the water quality is contaminated, the underwater camera that detects visible light cannot accurately create the water bottom surface data, and is obtained by the underwater camera that detects visible light. When a part of the water bottom surface data is missing or when the water bottom is photographed by an underwater camera that detects visible light, it becomes shaded and the water bottom surface data cannot be created accurately and is visible. If part of the bottom surface data obtained by an underwater camera that detects light is missing, the exposure will be insufficient due to the lack of brightness due to the extremely high contrast due to the shade of the sun or at dawn / dusk. If there is a part that cannot be obtained, and a part of the bottom surface data is missing, further, the bottom surface image obtained by video cameras placed on the left and right Even if the image matching process is not successful and some of the bottom surface data is missing, the bottom surface data obtained by the underwater camera that detects the visible light by measuring the distance to the bottom with a ranging device. It becomes possible to compensate for deficiencies.

図1は、本発明の好ましい実施態様にかかる浅水域観測システムの機能構成図である。FIG. 1 is a functional configuration diagram of a shallow water observation system according to a preferred embodiment of the present invention. 図2は、図1に示された本発明の好ましい実施態様にかかる浅水域観測システムの構成要素を示すブロックダイアグラムである。FIG. 2 is a block diagram showing components of the shallow water observation system according to the preferred embodiment of the present invention shown in FIG. 図3は、レーザ測距装置のレーザビーム放出部の略斜視図である。FIG. 3 is a schematic perspective view of a laser beam emitting portion of the laser distance measuring device. 図4は、レーザ測距装置のレーザビーム受光部の略斜視図である。FIG. 4 is a schematic perspective view of a laser beam receiving unit of the laser distance measuring device. 図5は、受光センサ47の略縦断面図である。FIG. 5 is a schematic longitudinal sectional view of the light receiving sensor 47. 図6は、レーザ測距装置の制御系および検出系のブロックダイアグラムである。FIG. 6 is a block diagram of a control system and a detection system of the laser distance measuring apparatus. 図7は、図1ないし図6に示された本発明の好ましい実施態様にかかる浅水域観測システムによって、浅海底を観測する処理を示すフローチャートである。FIG. 7 is a flowchart showing a process of observing the shallow seabed by the shallow water area observation system according to the preferred embodiment of the present invention shown in FIGS. 1 to 6.

図1は、本発明の好ましい実施態様にかかる浅水域観測システムの機能構成図である。 FIG. 1 is a functional configuration diagram of a shallow water observation system according to a preferred embodiment of the present invention.

図1に示されるように、本発明の好ましい実施態様にかかる浅水域観測システム1は、水上移動可能に観測器材を搭載支持する移動支持浮体2と、移動支持浮体2に支持されて水底画像を撮影する一対の水中撮影が可能なビデオカメラ3、3と、移動支持浮体2の下面に取り付けられ、海底面をレーザビームによって走査するレーザ測距装置8と、一対のビデオカメラ3、3の撮影位置と撮影時の姿勢を検出する撮影条件検出部材であるGPS/ジャイロ装置(姿勢計測装置)4と、一対のビデオカメラ3、3によって撮影された水底画像および特定された撮影条件を同期して記録するビデオレコーダよりなる収録部5と、収録部5に記録された水底画像および撮影条件に基づいて、移動支持浮体2上でリアルタイムに水底画像を画像処理し、あるいは、撮影作業終了後に水底画像の画像処理をする画像処理部6を備えたパーソナルコンピュータ7を備えている。 As shown in FIG. 1, a shallow water area observation system 1 according to a preferred embodiment of the present invention includes a moving support floating body 2 that supports and supports observation equipment so as to be movable on the water, and a water support image that is supported by the moving support floating body 2. Shooting with a pair of video cameras 3 and 3 capable of underwater shooting, a laser distance measuring device 8 attached to the lower surface of the movable support floating body 2 and scanning the sea bottom with a laser beam, and a pair of video cameras 3 and 3 A GPS / gyro device (posture measuring device) 4 that is a photographing condition detection member that detects a position and a posture at the time of photographing, and a water bottom image photographed by a pair of video cameras 3 and 3 and a specified photographing condition are synchronized. Based on the recording unit 5 composed of a video recorder for recording and the bottom image and photographing conditions recorded in the recording unit 5, the bottom image is processed in real time on the moving support floating body 2. Alternatively, a personal computer 7 having an image processing unit 6 to the image processing underwater image after shooting the end of work.

本実施態様において、移動支持浮体2は、アウトリガータイプの小型ボート、ゴムボート、漁船等の専用または汎用の浮体と、一対のビデオカメラ3、3とGPS/ジャイロ装置(姿勢計測装置)4を支持し、浅海域に幅広く適用でき、かつ、安定撮影を可能とする架台である専用支持体とによって構成されている。移動支持浮体2は、曳航または自走により、計画の撮影行程線に沿って水上移動され、水底観測が行われる。   In this embodiment, the movable supporting floating body 2 supports a dedicated or general-purpose floating body such as an outrigger type small boat, an inflatable boat, a fishing boat, etc., a pair of video cameras 3 and 3, and a GPS / gyro device (attitude measurement device) 4. And a dedicated support that is a gantry that can be widely applied in shallow water and enables stable photographing. The moving support floating body 2 is moved on the water along the planned shooting process line by towing or self-propelled, and water bottom observation is performed.

各ビデオカメラ3としては、ハウジング内に収納され、電子制御可能な高速シャッターを備えた水中撮影可能なビデオカメラが用いられている。ビデオカメラ3としては、それぞれ、10mに満たないような近接距離の水底画像の80%を重ねた撮影を可能とし、波浪による揺れを受けた場合でも、高速シャッターによって鮮明画像を収録可能なものが用いられ、浅海域の移動のために、移動支持浮体2に支持されている。   As each video camera 3, a video camera capable of underwater photography provided with a high-speed shutter that is housed in a housing and can be electronically controlled is used. As the video camera 3, it is possible to shoot 80% of the water bottom images at close distances of less than 10 m, and to record a clear image with a high-speed shutter even when it is shaken by waves. It is used and supported by the moving support floating body 2 for moving in the shallow sea area.

図1において、参照符号52、52で示されているのは、一対のビデオカメラ3、3によって撮影された海底面の撮影領域であり、図1に示されるように、一対のビデオカメラ3、3の撮影領域52、52は、重複領域53において、重複している。   In FIG. 1, what is indicated by reference numerals 52 and 52 is an imaging region of the sea bottom imaged by a pair of video cameras 3 and 3. As shown in FIG. The three shooting areas 52 and 52 overlap in the overlap area 53.

一対のビデオカメラ3、3は、移動支持浮体2の左右両側に配置されている。   The pair of video cameras 3 and 3 are disposed on both the left and right sides of the movable support floating body 2.

GPS/ジャイロ装置(姿勢計測装置)4は、ビデオカメラ3、3の位置とビデオカメラ3、3の光軸方向の姿勢データを検出し、高精度のDGPSを適用可能に構成されている。   The GPS / gyro apparatus (attitude measurement apparatus) 4 is configured to detect the position of the video cameras 3 and 3 and the attitude data of the video cameras 3 and 3 in the optical axis direction and apply high-precision DGPS.

収録部(ビデオレコーダ)5は、各ビデオカメラ3、3によって撮影された水底画像と撮影条件とを同期して記録メディアに収録し、これを移動支持浮体上に搭載されたパーソナルコンピュータ7の画像処理部6に入力し、あるいは、可搬メディアまたは無線伝送によって、地上に位置したパーソナルコンピュータ7の画像処理部6に入力可能に構成されている。   The recording unit (video recorder) 5 records the water bottom image photographed by the video cameras 3 and 3 and the photographing conditions in a recording medium in synchronism, and records this on the image of the personal computer 7 mounted on the movable support floating body. It can be input to the processing unit 6 or input to the image processing unit 6 of the personal computer 7 located on the ground by portable media or wireless transmission.

画像処理部6には、一対のビデオカメラ3、3によって生成された海底の映像データ、一対のビデオカメラ3、3の姿勢データおよび一対のビデオカメラ3、3の位置データが入力され、画像処理部6は、これらのデータに基づいて、ステレオマッチングにより、地理座標上で表現される数値地表モデルであるDSMモデルを作成するように構成されている。   The image processing unit 6 is input with the seafloor video data generated by the pair of video cameras 3, 3, attitude data of the pair of video cameras 3, 3, and position data of the pair of video cameras 3, 3 for image processing. The unit 6 is configured to create a DSM model, which is a numerical ground model represented on geographic coordinates, by stereo matching based on these data.

図2は、図1に示された本発明の好ましい実施態様にかかる浅水域観測システム1におけるDSM作成部と正射写真図作成部のブロックダイアグラムである。 FIG. 2 is a block diagram of a DSM creation unit and an orthographic photograph creation unit in the shallow water observation system 1 according to the preferred embodiment of the present invention shown in FIG.

図2に示されるように、浅水域観測システム20は、パーソナルコンピュータ30と、同期信号発生装置31と、一対のビデオカメラ3、3と、ビデオレコーダ33、33と、ビデオ編集機34、34と、GPS/ジャイロ装置4と、レーザ測距装置8を備えている。 As shown in FIG. 2, the shallow water observation system 20 includes a personal computer 30, a synchronization signal generator 31, a pair of video cameras 3 and 3, video recorders 33 and 33, and video editors 34 and 34. , A GPS / gyro device 4 and a laser distance measuring device 8 are provided.

図2に示されるように、浅水域観測システム20は、さらに、DSMデータを生成するDSMデータ生成部11と、DSMデータに基づいて、正射写真図生成部12を備えている。 As shown in FIG. 2, the shallow water observation system 20 further includes a DSM data generation unit 11 that generates DSM data, and an orthographic photograph generation unit 12 based on the DSM data.

図3は、レーザ測距装置8のレーザビーム放出部の略斜視図である。   FIG. 3 is a schematic perspective view of the laser beam emitting portion of the laser distance measuring device 8.

図3に示されるように、レーザ測距装置8は、レーザビーム40をパルス状に放出するLEDレーザ光源41を備え、LEDレーザ光源41から放出されたレーザビーム40は、コリメータレンズ42に入射して、平行なビームに変換される。コリメータレンズ42によって平行なビームに変換されたレーザビーム40は拡散部材43に入射し、拡散部材43によって、レーザビーム40は多数のレーザビーム45に分割されて、たとえば、128×128のマトリックス状に海底面に照射される。   As shown in FIG. 3, the laser distance measuring device 8 includes an LED laser light source 41 that emits a laser beam 40 in a pulse shape, and the laser beam 40 emitted from the LED laser light source 41 is incident on a collimator lens 42. And converted into a parallel beam. The laser beam 40 converted into a parallel beam by the collimator lens 42 enters the diffusing member 43, and the diffusing member 43 divides the laser beam 40 into a plurality of laser beams 45, for example, in a 128 × 128 matrix form. Irradiates the bottom of the sea.

拡散部材43としては、たとえば、Advanced Scientific Concepts, Inc.によって製造販売されている「3D Flash Lidar」(登録商標)に使われている拡散部材が好ましく使用される。   As the diffusing member 43, for example, a diffusing member used in “3D Flash Lidar” (registered trademark) manufactured and sold by Advanced Scientific Concepts, Inc. is preferably used.

図4は、レーザ測距装置8のレーザビーム受光部の略斜視図である。   FIG. 4 is a schematic perspective view of a laser beam receiving unit of the laser distance measuring device 8.

図4に示されるように、拡散部材43によって分割され、海底面によって反射されたレーザビーム45は、集光レンズ46によって集光されて、受光センサ47によって、光電的に検出される。   As shown in FIG. 4, the laser beam 45 divided by the diffusing member 43 and reflected by the sea bottom is collected by the condenser lens 46 and is photoelectrically detected by the light receiving sensor 47.

図5は、受光センサ47の略縦断面図であり、図5に示されるように、受光センサ47は、海底面によって反射されたレーザビーム45の検出時間を感知するフォトセンサ48と海底面によって反射されたレーザビーム45の強度を検出するCCDセンサ49を備えている。   FIG. 5 is a schematic longitudinal sectional view of the light receiving sensor 47. As shown in FIG. 5, the light receiving sensor 47 includes a photo sensor 48 that senses the detection time of the laser beam 45 reflected by the sea bottom and a sea bottom. A CCD sensor 49 for detecting the intensity of the reflected laser beam 45 is provided.

図6は、レーザ測距装置8の制御系および検出系のブロックダイアグラムである。   FIG. 6 is a block diagram of a control system and a detection system of the laser distance measuring device 8.

図6に示されるように、レーザ測距装置8は、レーザ光源41からパルス状にレーザビーム40を放出した時間と、そのレーザビーム40が海底面によって反射されて生成されたレーザビーム45が、フォトセンサ48によって受光された時間を記憶する第一のメモリ50Aと、レーザ光源41から放出されたレーザビーム40の強度とCCDセンサ49が検出したレーザビーム45の強度を記憶する第二のメモリ領域50Bを備えたRAM50を有している。   As shown in FIG. 6, the laser distance measuring device 8 has a time when a laser beam 40 is emitted in a pulse form from a laser light source 41 and a laser beam 45 generated by reflecting the laser beam 40 by the sea bottom. A first memory 50A for storing the time received by the photosensor 48, and a second memory area for storing the intensity of the laser beam 40 emitted from the laser light source 41 and the intensity of the laser beam 45 detected by the CCD sensor 49. It has a RAM 50 with 50B.

さらに、レーザ測距装置8は、RAM50の第一のメモリ50Aに記憶されたレーザ光源41からレーザビーム40が放出された時間およびフォトセンサ48によって受光された時間と海底面によって反射されたレーザビーム45をフォトセンサ48が受光した時間ならびにレーザ光源41から放出されたレーザビーム40の強度およびCCDセンサ49が検出したレーザビーム45の強度に基づいて、海底面までの距離を算出するコントローラ51を備えている。   Further, the laser distance measuring device 8 includes the time when the laser beam 40 is emitted from the laser light source 41 stored in the first memory 50A of the RAM 50, the time received by the photosensor 48, and the laser beam reflected by the seabed. And a controller 51 for calculating a distance to the sea bottom based on the time when the photosensor 48 receives 45, the intensity of the laser beam 40 emitted from the laser light source 41, and the intensity of the laser beam 45 detected by the CCD sensor 49. ing.

また、図6に示されるように、レーザ測距装置8は、レーザビーム40の照射によって得られたデータを処理するレーザデータ処理部10を備えている。   As shown in FIG. 6, the laser distance measuring device 8 includes a laser data processing unit 10 that processes data obtained by irradiation with the laser beam 40.

レーザビーム40が拡散部材43によって分割されて、128×128のマトリックス状に海底面に照射された場合には、128×128のマトリックスの要素によって反射されたレーザビーム45をフォトセンサ48およびCCDセンサ49により光電検出することによって、その要素とレーザ光源41との距離を正確に算出することができ、したがって、128×128のマトリックスのすべての要素とレーザ光源41との距離を正確に算出することが可能になる。   When the laser beam 40 is divided by the diffusing member 43 and irradiated to the sea bottom in a 128 × 128 matrix, the laser beam 45 reflected by the elements of the 128 × 128 matrix is converted into the photo sensor 48 and the CCD sensor. By performing photoelectric detection by 49, the distance between the element and the laser light source 41 can be accurately calculated. Therefore, the distance between all the elements of the 128 × 128 matrix and the laser light source 41 can be accurately calculated. Is possible.

図7は、図1ないし図6に示された本発明の好ましい実施態様にかかる浅水域観測システム2によって、浅海底を観測する処理を示すフローチャートである。 FIG. 7 is a flowchart showing processing for observing the shallow seabed by the shallow water observation system 2 according to the preferred embodiment of the present invention shown in FIGS. 1 to 6.

オペレータによって、スタート信号がパーソナルコンピュータ30に入力されると、パーソナルコンピュータ30から同期信号タイムコード発生装置31に駆動信号が出力されて、同期信号タイムコード発生装置31から、一対のビデオカメラ3、3と、レーザ測距装置8と、GPS/ジャイロ装置4およびコンバートソフトウエア55に同期信号が出力される。このとき、パーソナルコンピュータ30はレーザ光源41からレーザビーム40が放出された時間をレーザ測距装置8のRAM50内の第一のメモリ領域50A内に格納するとともに、レーザ光源41から放出されたレーザビーム40の強度をレーザ測距装置8のRAM50内の第二のメモリ領域50B内に格納する。   When a start signal is input to the personal computer 30 by an operator, a drive signal is output from the personal computer 30 to the synchronization signal time code generator 31, and the pair of video cameras 3, 3 is output from the synchronization signal time code generator 31. Then, a synchronization signal is output to the laser distance measuring device 8, the GPS / gyro device 4, and the conversion software 55. At this time, the personal computer 30 stores the time when the laser beam 40 is emitted from the laser light source 41 in the first memory area 50 </ b> A in the RAM 50 of the laser distance measuring device 8 and the laser beam emitted from the laser light source 41. The intensity of 40 is stored in the second memory area 50B in the RAM 50 of the laser distance measuring device 8.

同期信号を受けると、一対のビデオカメラ3、3は、撮影を開始し、海底面の撮影領域52、52のカラー画像が撮影される。   When the synchronization signal is received, the pair of video cameras 3 and 3 start photographing, and color images of the photographing areas 52 and 52 on the sea bottom are photographed.

一方、レーザ測距装置8は、レーザ光源41からパルス状にレーザビーム40を放出させ、コリメータレンズ42によって平行なビームに変換した後に、拡散部材43に入射させる。拡散部材43を通過させることによって、レーザビーム40は多数のレーザビーム45、たとえば、128×128に分割されて、一対のビデオカメラ3、3の海底面の撮影領域52、52が重複している重複撮影領域53に照射され、重複撮影領域53内に128×128のマトリックス状照射部53Aが形成される。   On the other hand, the laser distance measuring device 8 emits the laser beam 40 in a pulse form from the laser light source 41, converts the laser beam 40 into a parallel beam by the collimator lens 42, and then makes it incident on the diffusing member 43. By passing through the diffusing member 43, the laser beam 40 is divided into a number of laser beams 45, for example, 128 × 128, and the imaging areas 52, 52 on the bottom surface of the pair of video cameras 3, 3 overlap. The overlapping imaging region 53 is irradiated, and a 128 × 128 matrix irradiation unit 53 </ b> A is formed in the overlapping imaging region 53.

海底面の128×128のマトリックス状照射部53Aの各々によって反射されたレーザビーム45は、集光レンズ46によって集光されて、受光センサ47によって、光電的に検出される。   The laser beam 45 reflected by each of the 128 × 128 matrix irradiation portions 53A on the sea bottom is condensed by the condensing lens 46 and is photoelectrically detected by the light receiving sensor 47.

上述のように、受光センサ47は、海底面によって反射されたレーザビーム45の検出時間を感知するフォトセンサ48と海底面によって反射されたレーザビーム45の強度を検出するCCDセンサ49とによって構成されている。   As described above, the light receiving sensor 47 includes the photo sensor 48 that senses the detection time of the laser beam 45 reflected by the sea bottom and the CCD sensor 49 that detects the intensity of the laser beam 45 reflected by the sea bottom. ing.

フォトセンサ48は、海底面の128×128のマトリックス状照射部53Aの各々によって反射されたレーザビーム45を検出したときに、レーザビーム45を検出した時間をRAM50内の第一のメモリ領域50A内に格納する。ここに、第一のメモリ領域50A内は128×128のマトリックス状照射部53Aに対応して、128×128のマトリックス状メモリ領域に分割されており、フォトセンサ48は、海底面の128×128のマトリックス状照射部53Aの各々によって反射されたレーザビーム45の検出時間を、第一のメモリ領域50A内の対応するマトリックス状メモリ領域内に格納する。   When the photosensor 48 detects the laser beam 45 reflected by each of the 128 × 128 matrix-shaped irradiation portions 53A on the sea bottom, the time when the laser beam 45 is detected is stored in the first memory area 50A in the RAM 50. To store. Here, the first memory area 50A is divided into 128 × 128 matrix memory areas corresponding to the 128 × 128 matrix irradiation unit 53A, and the photosensor 48 is 128 × 128 on the sea bottom. The detection time of the laser beam 45 reflected by each of the matrix irradiation units 53A is stored in the corresponding matrix memory area in the first memory area 50A.

一方、CCDセンサ49は、海底面の128×128のマトリックス状照射部53Aの各々によって反射されたレーザビーム45の強度を検出し、海底面の128×128のマトリックス状照射部53Aの各々によって反射されたレーザビーム45の強度を、第二のメモリ領域50B内の対応するマトリックス状メモリ領域内に格納する。   On the other hand, the CCD sensor 49 detects the intensity of the laser beam 45 reflected by each of the 128 × 128 matrix irradiation units 53A on the sea bottom and reflects by each of the 128 × 128 matrix irradiation units 53A on the sea bottom. The intensity of the laser beam 45 is stored in a corresponding matrix memory area in the second memory area 50B.

次いで、コントローラ51がRAM50にアクセスして、第一のメモリ領域50A内のマトリックス状メモリ領域の各々に記憶されたレーザ光源41からレーザビーム40が放出された時間およびフォトセンサ48によってレーザビーム45が検出された時間、ならびに、第二のメモリ領域50B内のマトリックス状メモリ領域の各々に記憶されたレーザ光源41から放出されたレーザビーム40の強度およびCCDセンサ49が検出したレーザビーム45の強度を読み出し、これらに基づいて、海底面の128×128のマトリックス状照射部53Aの各々の水深データを算出する。   Next, the controller 51 accesses the RAM 50, the time when the laser beam 40 is emitted from the laser light source 41 stored in each of the matrix memory areas in the first memory area 50 </ b> A, and the laser beam 45 by the photo sensor 48. The detected time and the intensity of the laser beam 40 emitted from the laser light source 41 stored in each of the matrix memory areas in the second memory area 50B and the intensity of the laser beam 45 detected by the CCD sensor 49 are shown. Based on the read out data, the water depth data of the 128 × 128 matrix irradiation unit 53A on the sea bottom is calculated.

同期信号に応答して、GPS/ジャイロ装置4は、一対のビデオカメラ3、3の姿勢データを生成し、コンバートソフトウエアが起動し、写真測量における外部評定要素が算出される。   In response to the synchronization signal, the GPS / gyro device 4 generates attitude data of the pair of video cameras 3 and 3, the conversion software is activated, and an external rating element in the photogrammetry is calculated.

同期信号に応答して、一対のビデオカメラ3、3によって撮影された海底面の画像に対応する画像データはビデオレコーダ33、33に出力され、さらに、ビデオ編集機34、34によって、連番画像が生成される。次いで、別途観測したカメラパラメータを用いて、焦点距離・レンズ歪みの補正が行われ、補正済みの連番画像(1/30秒毎のペア画像)が生成される。   In response to the synchronization signal, the image data corresponding to the image of the sea bottom photographed by the pair of video cameras 3 and 3 is output to the video recorders 33 and 33, and further, the video editors 34 and 34 sequentially output the serial number images. Is generated. Next, the focal length and lens distortion are corrected using separately observed camera parameters, and corrected serial images (pair images every 1/30 seconds) are generated.

ここに、カメラパラメータは、別途水槽内に設置したターゲットを水中ビデオカメラ3で撮影し、写真測量式を用いて、焦点距離・レンズ歪みを求めることによって、観測される。   Here, the camera parameters are observed by photographing a target separately installed in the aquarium with the underwater video camera 3 and obtaining a focal length and lens distortion using a photogrammetry formula.

一対のビデオカメラ3、3で撮影された画像から生成された歪み補正済みの連番画像から、まず同連番の左右画像に対し、たとえば、テンプレートマッチングを実行して、横視差を算出する。こうして得られた横視差から水深データが算出され、その水深データをもとに標高値A(x, y, z)が算出される。   For example, template matching is performed on the left and right images having the same sequence number from the sequence-corrected sequence images generated from the images captured by the pair of video cameras 3 and 3 to calculate the lateral parallax. The water depth data is calculated from the lateral parallax thus obtained, and the altitude value A (x, y, z) is calculated based on the water depth data.

次に、一対のビデオカメラ3、3の左右どちらかで得られた歪み補正済みの連番画像は、GPS/ジャイロ装置4によって測定された姿勢データを用いて、横視差が除去される。   Next, the lateral parallax is removed from the distortion-corrected serial number images obtained by either the left or right of the pair of video cameras 3 and 3 using the posture data measured by the GPS / gyro device 4.

横視差が除去された補正済みの連番画像(縦=時間軸)に対して、たとえば、テンプレートマッチングを実行して、縦視差を算出する。   For example, template matching is performed on the corrected sequential image (vertical = time axis) from which the horizontal parallax has been removed to calculate the vertical parallax.

こうして得られた縦視差を利用して、標高値が算出され、水深データが算出され、その水深データをもとに、標高値B(x, y, z)が算出される。   Using the vertical parallax thus obtained, the altitude value is calculated, the water depth data is calculated, and the altitude value B (x, y, z) is calculated based on the water depth data.

このように、標高値A(x, y, z)および標高値B(x, y, z)が算出され、標高値A(x, y, z)および標高値B(x, y, z)を合成した標高値を用いて、DSMデータが作成される。   In this way, the elevation value A (x, y, z) and the elevation value B (x, y, z) are calculated, and the elevation value A (x, y, z) and elevation value B (x, y, z) are calculated. DSM data is created using the altitude value obtained by synthesizing.

一方、レーザ測距装置8によって生成された距離データは、GPS/ジャイロ装置4によって測定された姿勢データを用いて、レーザデータ処理部10において、水深データに変換し、さらに、この水深データをもとに補完用の標高値のDSMデータが生成される。   On the other hand, the distance data generated by the laser distance measuring device 8 is converted into water depth data by the laser data processing unit 10 using the attitude data measured by the GPS / gyro device 4, and this water depth data is also stored. And DSM data of elevation values for complementation are generated.

ここに、レーザ測距装置8によって生成された水深データは、たとえば、128×128のマトリックス状の領域53Aの水深データで、さらに、重複撮影領域53を分割して、256×256のマトリックス状の領域53Aを生成し、それぞれの水深データを求めても、各領域53Aの大きさは、一対のビデオカメラ3、3が撮影した画像の画素に比べて、はるかに大きいので、本実施態様においては、レーザ測距装置8によって生成したマトリックス状の領域53Aの水深データに基づいて、一対のビデオカメラ3、3によって撮影した画像によって生成されるDSMデータを補完するための補完用DSMデータが生成される。   Here, the water depth data generated by the laser distance measuring device 8 is, for example, the water depth data of a 128 × 128 matrix region 53A, and further, the overlapping photographing region 53 is further divided to form a 256 × 256 matrix. Even if the region 53A is generated and the water depth data is obtained, the size of each region 53A is much larger than the pixels of the image captured by the pair of video cameras 3 and 3, and therefore in this embodiment, Based on the water depth data of the matrix-like region 53A generated by the laser distance measuring device 8, complementary DSM data for complementing the DSM data generated by the images photographed by the pair of video cameras 3 and 3 is generated. The

こうして、一対のビデオカメラ3、3が撮影した画像に基づいて生成されたDSMデータおよびレーザ測距装置8により生成された補完用DSMデータによって、撮影対象となる海底領域のDSMデータが生成される。ここに、一対のビデオカメラ3、3によって撮影された画像から正常に生成されたDSMデータがある海底領域に対しては、レーザ測距装置8によって生成した補完用DSMデータは適用されない。   Thus, the DSM data of the seabed region to be imaged is generated by the DSM data generated based on the images captured by the pair of video cameras 3 and 3 and the complementary DSM data generated by the laser distance measuring device 8. . Here, the complementary DSM data generated by the laser distance measuring device 8 is not applied to the seabed area where the DSM data normally generated from the images taken by the pair of video cameras 3 and 3 is present.

一方で、補正済み連番画像がDSMデータ上に重畳して投影される。   On the other hand, the corrected sequential image is projected superimposed on the DSM data.

次いで、オルソ画像作成ソフトウエアを起動させ、こうして得られた画像を、コンバートソフトウェアによって生成された外部評定要素を用いて、正射投影をし、正射投影写真画像データが作成される。   Next, the ortho image creation software is started, and the image thus obtained is orthographically projected using the external rating element generated by the conversion software, and orthographic projection photographic image data is created.

観測は、移動支持浮体2を曳航又は自走によって、観測計画線に沿って移動させつつ、以上のように、一対のビデオカメラ3、3によって水底画像を撮影し、レーザ距離計8によって水底との距離を測定するとともに、GPS/ジャイロ装置4によって一対のビデオカメラ3、3の撮影条件である視点位置と光軸方向を検出し、ビデオレコーダ33、33によって、両者を同期記録することによって実行される。   In observation, while moving the moving support floating body 2 along the observation plan line by towing or self-propelled, the bottom image is taken by the pair of video cameras 3 and 3 as described above, and the bottom of the water is detected by the laser distance meter 8. , And the GPS / gyro device 4 detects the viewpoint position and the optical axis direction, which are the shooting conditions of the pair of video cameras 3 and 3, and the video recorders 33 and 33 record both of them synchronously. Is done.

観測の終了後に、正射投影写真画像データは、移動支持浮体2上に搭載されたパーソナルコンピュータ7の画像処理部6に入力され、あるいは、可搬メディアまたは無線伝送によって、地上に位置したパーソナルコンピュータ7の画像処理部6に入力されて、正射投影画像処理が実行される。   After the observation is finished, the orthographic photographic image data is input to the image processing unit 6 of the personal computer 7 mounted on the moving support floating body 2, or the personal computer located on the ground by portable media or wireless transmission. 7 is input to the image processing unit 6 to execute orthographic projection image processing.

この画像処理出力は、従来の等深線や符号で示されていた浅海域の珊瑚礁や浅瀬をカラーで視覚的に表すことによって、浅海域の珊瑚礁や浅瀬の状況を視覚的に分りやすく示すことができる。   This image processing output can visually indicate the state of shallow water coral reefs and shallow waters by visually expressing the shallow water coral reefs and shallow waters indicated by conventional contour lines and symbols in color. .

したがって、本実施態様によれば、浅海域の珊瑚礁や浅瀬の水中環境をカラーで面的に捉えることができるから、色の違いによる珊瑚礁や浅瀬の植生(藻)の成育状況を把握することが可能となる。   Therefore, according to this embodiment, since the underwater environment of the shallow reefs and shallows can be captured in color, it is possible to grasp the growth of coral reefs and shallow vegetation (algae) due to different colors. It becomes possible.

また、本実施態様によれば、浅水域観測システム20は、可視光を検出する一対のビデオカメラに加えて、水底までの距離を計測可能なレーザ距離計8を備えているから、水質が汚濁しているために、可視光を検出するビデオカメラ3、3よっては、精度よく、水底表面データを作成することができず、可視光を検出するビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合や、可視光を検出するビデオカメラ3、3によって水底を撮影するときに、陰になってしまい、精度よく、水底表面データを作成することができず、可視光を検出する水中カメラによって得られる水底表面データの一部が欠損している場合、太陽光線の陰りや夜明け/薄暮時、あるいは、コントラストがきわめて高く、そのために明るさが不足して十分な露光が得られない部分ができ、水底表面データの一部が欠損している場合、左右に配置された一対のビデオカメラ3、3によって得られる水底表面画像の結合処理(画像マッチング処理)がうまく出来ずに、水底表面データの一部が欠損している場合にも、レーザ距離計8によって水底までの距離を測定し、可視光を検出するビデオカメラ3、3によって得られる水底表面データの欠損を補完することが可能になる。
In addition, according to this embodiment, the shallow water observation system 20 includes the laser rangefinder 8 that can measure the distance to the bottom of the water in addition to the pair of video cameras that detect visible light, so that the water quality is contaminated. Therefore, depending on the video cameras 3 and 3 that detect visible light, the bottom surface data cannot be created with high accuracy, and the bottom surface data obtained by the video cameras 3 and 3 that detect visible light cannot be generated. When a part is missing or when the bottom of the water is photographed by the video cameras 3 and 3 that detect visible light, it becomes shaded and the bottom surface data cannot be created with high accuracy. If a part of the bottom surface data obtained by an underwater camera that detects light is missing, the contrast is extremely high due to the shade of the sun, dawn / dusk, or low brightness. When there is a part where sufficient exposure cannot be obtained and a part of the bottom surface data is missing, the bottom surface image obtained by the pair of video cameras 3 and 3 arranged on the left and right (image matching) The bottom of the water obtained by the video cameras 3 and 3 that detect the visible light by measuring the distance to the bottom of the water by the laser distance meter 8 even when a part of the bottom surface data is missing. It becomes possible to compensate for missing surface data.

本発明は、以上の実施態様に限定されることなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることはいうまでもない。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施態様においては、一対のビデオカメラ3、3が設けられているが、ビデオカメラの数は複数であればよく、2つに限定されるものではない。   For example, in the above embodiment, a pair of video cameras 3 and 3 are provided, but the number of video cameras is not limited to two as long as it is plural.

また、前記実施態様においては、水底までの距離を計測する測距装置8は、レーザビーム40を多数のレーザビーム45に分割する拡散部材43、好ましくは、Advanced Scientific Concepts, Inc.によって製造販売されている「3D Flash Lidar」(登録商標)を備えているが、この種の拡散部材43を備えたレーザ測距装置8を用いることは必ずしも必要ではなく、ファイバー式のレーザ測距装置や走査型のレーザ測距装置などを用いることもでき、さらには、レーザではなく、他の周波数の電磁波や超音波を含む音波などと用いてもよく、海底との距離が計測可能な距離計であれば、とくに限定されるものではない。   In the above embodiment, the distance measuring device 8 that measures the distance to the bottom of the water is manufactured and sold by the diffusion member 43 that splits the laser beam 40 into a number of laser beams 45, preferably Advanced Scientific Concepts, Inc. However, it is not always necessary to use the laser distance measuring device 8 provided with this type of diffusing member 43. A fiber type laser distance measuring device or a scanning type is also necessary. A laser range finder, etc. can be used, and furthermore, not a laser, but may be used with other frequencies such as electromagnetic waves and ultrasonic waves, and any distance meter that can measure the distance to the seabed However, it is not particularly limited.

さらに、前記実施態様においては、CCDセンサ49を用いて、レーザビームの反射強度を測定しているが、CCDセンサ49を用いて、レーザビームの反射強度を測定することは必ずしも必要でなく、受光センサ47がフォトセンサ48のみによって構成されていてもよい。   Further, in the above embodiment, the reflection intensity of the laser beam is measured using the CCD sensor 49. However, it is not always necessary to measure the reflection intensity of the laser beam using the CCD sensor 49. The sensor 47 may be constituted only by the photosensor 48.

また、前記実施態様においては、レーザ測距装置8が移動支持浮体2の下面に取り付けられているが、レーザ測距装置8を移動支持浮体2の下面に取り付けることは必ずしも必要でなく、移動支持浮体2の上面に取り付けられていてもよく、すなわち、レーザ測距装置8は水上または水中に位置するように、移動支持浮体2のみを取り付けることができる。   In the above embodiment, the laser distance measuring device 8 is attached to the lower surface of the movable support floating body 2. However, it is not always necessary to attach the laser distance measuring device 8 to the lower surface of the movable support floating body 2. It may be attached to the upper surface of the floating body 2, that is, only the movable supporting floating body 2 can be attached so that the laser distance measuring device 8 is located on the water or in the water.

また、前記実施態様においては、浅海底が観測されているが、本発明は浅海底の観測に限定されるものではなく、湖沼や沿岸部の浅水域などの観測に広く用いることができる。   In the above embodiment, the shallow seabed is observed. However, the present invention is not limited to the shallow seabed observation, and can be widely used for observing lakes and shallow coastal waters.

1 浅海底観測システム
2 移動支持浮体
3 水中カメラ(ビデオカメラ)
4 GPS/ジャイロ装置
5 収録部(ビデオレコーダ)
6 画像処理部
7 パーソナルコンピュータ
8 レーザ測距装置
10 レーザデータ処理部
11 DSM作成部
12 正射写真図作成部
30 パーソナルコンピュータ
31 同期信号発生装置
33 ビデオレコーダ
34 ビデオ編集機
40 レーザビーム
41 レーザ光源
42 コリメータレンズ
43 拡散部材
45 レーザビーム
46 集光レンズ
47 受光センサ
48 フォトセンサ
49 CCDセンサ
50 RAM
50A 第一のメモリ領域
50B 第二のメモリ領域
51 コントローラ
52 一対のビデオカメラの撮影領域
53 重複撮影領域
53A マトリックス状の領域
55 コンバートソフトウエア
1 Shallow seafloor observation system 2 Mobile support floating body 3 Underwater camera (video camera)
4 GPS / Gyro device 5 Recording unit (video recorder)
6 Image processing unit 7 Personal computer 8 Laser distance measuring device 10 Laser data processing unit 11 DSM creation unit 12 Orthophoto map creation unit 30 Personal computer 31 Sync signal generation device 33 Video recorder 34 Video editor 40 Laser beam 41 Laser light source 42 Collimator lens 43 Diffusing member 45 Laser beam 46 Condensing lens 47 Light receiving sensor 48 Photo sensor 49 CCD sensor 50 RAM
50A First memory area 50B Second memory area 51 Controller 52 Shooting area 53 of a pair of video cameras Overlapping shooting area 53A Matrix area 55 Convert software

Claims (4)

観測器材を水上移動可能に搭載支持する移動支持浮体と、
前記移動支持浮体に搭載された可視光を検出する一対の水中カメラと、
水底までの距離を計測可能な測距装置と、
前記複数の水中カメラの姿勢を検出し、前記一対の水中カメラの撮影位置を検出する姿勢/GPSセンサとを備え、
さらに、前記一対の水中カメラによって撮影された撮影画像と前記姿勢/GPSセンサによって検出された前記一対の水中カメラの姿勢および撮影位置とを同期記録する収録手段と、
前記収録手段の記録画像を処理する画像処理部と、
前記測距装置によって生成された距離データを処理する距離データ処理部と
を備えた浅海底観測システムであって、
前記画像処理部が、前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの撮影条件に基づく画像処理によって地理座標を付与されたDSMデータを生成可能であり、
前記距離データ処理部が、前記姿勢/GPSセンサによって測定された姿勢データを用いて、前記距離データ処理部が、前記測距装置によって生成された距離データを水深データに変換し、前記水深データに基づいて、補完用のDSMデータを生成可能であり、
前記画像処理部が、前記一対の水中カメラによって得られる水底表面データの一部が欠損している場合に、前記距離データ処理部によって生成された補完用のDSMデータによって、前記DSMデータを補完することによって、撮影対象の前記浅海底領域のDSMデータを生成し、得られた前記浅海底領域のDSMデータに基づいて、正射投影写真図を作成可能に構成されたことを特徴とする浅海底観測システム。
A moving support floating body that supports the observation equipment so that it can move on the water;
A pair of underwater cameras for detecting visible light mounted on the movable supporting floating body;
A distance measuring device capable of measuring the distance to the bottom of the water,
A posture / GPS sensor for detecting postures of the plurality of underwater cameras and detecting shooting positions of the pair of underwater cameras;
Further, a recording means for recording synchronized with attitude and imaging position of the pair of the pair of underwater camera detected by the images taken the posture / GPS sensor by underwater camera,
An image processing unit for processing a recorded image of the recording means;
A shallow seafloor observation system comprising a distance data processing unit for processing distance data generated by the distance measuring device,
The image processing unit can generate DSM data to which geographical coordinates are given by image processing based on respective imaging conditions for an overlapping range of a plurality of captured images captured by the underwater camera,
The distance data processing unit uses the attitude data measured by the attitude / GPS sensor, the distance data processing unit converts the distance data generated by the distance measuring device into water depth data, and converts the data into the water depth data. Based on this, it is possible to generate complementary DSM data,
The image processing unit supplements the DSM data with the supplemental DSM data generated by the distance data processing unit when a part of the bottom surface data obtained by the pair of underwater cameras is missing. In this way, DSM data of the shallow seabed region to be imaged is generated, and an orthographic projection photograph can be created based on the obtained DSM data of the shallow seabed region. Observation system.
前記測距装置が、レーザを用いて、水底までの距離を計測可能なレーザ測距装置によって構成されていることを特徴とする請求項1に記載の浅海底観測システム。   2. The shallow sea bottom observation system according to claim 1, wherein the distance measuring device is configured by a laser distance measuring device capable of measuring a distance to a water bottom using a laser. 前記レーザ測距装置が、前記移動支持浮体の下面に取り付けられていることを特徴とする請求項2に記載の浅海底観測システム。   The shallow seafloor observation system according to claim 2, wherein the laser distance measuring device is attached to a lower surface of the movable supporting floating body. 可視光を検出する前記複数の水中カメラが前記移動支持浮体の左右の両外側またはその一方に配置されていることを特徴とする請求項1ないし3のいずれか1項に記載の浅海底観測システム。   The shallow seafloor observation system according to any one of claims 1 to 3, wherein the plurality of underwater cameras that detect visible light are arranged on both the left and right outer sides of the movable supporting floating body or one of them. .
JP2016137487A 2013-07-26 2016-07-12 Shallow water observation system Active JP6205465B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013155686 2013-07-26
JP2013155686 2013-07-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014153239A Division JP5989719B2 (en) 2013-07-26 2014-07-28 Shallow water observation system

Publications (3)

Publication Number Publication Date
JP2017003593A JP2017003593A (en) 2017-01-05
JP2017003593A5 JP2017003593A5 (en) 2017-07-27
JP6205465B2 true JP6205465B2 (en) 2017-09-27

Family

ID=52696548

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014153239A Active JP5989719B2 (en) 2013-07-26 2014-07-28 Shallow water observation system
JP2016137487A Active JP6205465B2 (en) 2013-07-26 2016-07-12 Shallow water observation system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014153239A Active JP5989719B2 (en) 2013-07-26 2014-07-28 Shallow water observation system

Country Status (1)

Country Link
JP (2) JP5989719B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112284337A (en) * 2020-11-25 2021-01-29 武汉大学 River model multi-parameter measuring device and walking control method thereof

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6470658B2 (en) * 2015-08-10 2019-02-13 朝日航洋株式会社 Laser measurement system and laser measurement method
CN106404119B (en) * 2016-11-22 2023-09-26 华南师范大学 Automobile wading depth detection system and method
JP6855651B2 (en) * 2017-05-26 2021-04-07 国立大学法人 東京大学 Water bottom observation system and water bottom observation image processing program
JP2019078732A (en) * 2017-10-19 2019-05-23 株式会社トリマティス Multifunction lidar for underwater topographic survey
USD970065S1 (en) 2019-01-23 2022-11-15 Herbert Waldmann Gmbh & Co. Kg Lamp
JP7336788B2 (en) 2020-03-23 2023-09-01 五洋建設株式会社 Underwater image generation method and program
KR102473039B1 (en) * 2020-12-30 2022-12-02 주식회사 공간정보 water resources investigation system of unmanned aircraft carrier shape
CN113983931B (en) * 2021-11-02 2023-05-23 中国船舶科学研究中心 Underwater positioning device of dredging robot for test pool and use method
CN114636086A (en) * 2022-03-22 2022-06-17 黄扬 Handheld measuring device for engineering surveying and mapping
CN116750170B (en) * 2023-08-24 2023-11-14 山东省科学院海洋仪器仪表研究所 Underwater photogrammetry device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4729694B2 (en) * 2005-01-13 2011-07-20 独立行政法人国立環境研究所 Method and system for measuring surface shape under liquid
JP4852006B2 (en) * 2007-07-27 2012-01-11 株式会社パスコ Spatial information database generation device and spatial information database generation program
WO2011143622A2 (en) * 2010-05-13 2011-11-17 Google Inc. Underwater acquisition of imagery for 3d mapping environments

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112284337A (en) * 2020-11-25 2021-01-29 武汉大学 River model multi-parameter measuring device and walking control method thereof

Also Published As

Publication number Publication date
JP2015042976A (en) 2015-03-05
JP5989719B2 (en) 2016-09-07
JP2017003593A (en) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6205465B2 (en) Shallow water observation system
JP6940843B2 (en) Underwater observation system
EP2909811B1 (en) Improvements in and relating to gathering range and dimensional information underwater surveys
Shortis Camera calibration techniques for accurate measurement underwater
McCarthy et al. Multi-image photogrammetry for underwater archaeological site recording: an accessible, diver-based approach
CA2946801C (en) 3d data in underwater surveys
JP2017003593A5 (en)
CN105654549A (en) Underwater three-dimensional reconstruction device and method based on structured light technology and photometric stereo technology
CN107063117A (en) Underwater laser synchronous scanning range of triangle imaging system and method based on optical field imaging
JP6898396B2 (en) Underwater observation system
JP2002267444A (en) Method of measuring shape of tunnel pit
KR20150055501A (en) Underwater image matching method
JP7165320B2 (en) Image recording method, image recording program, information processing device, and image recording device
JP6605244B2 (en) Overhead wire imaging apparatus and overhead wire imaging method
Runyan Developing a Low-Cost Stereo Imaging System for Quantitative Visual Modeling of Marine Environments
Bodenmann et al. 3D colour reconstruction of a hydrothermally active area using an underwater robot
Šiljeg et al. Mapping of marine litter on the seafloor using WASSP S3 multibeam echo sounder and Chasing M2 ROV
JP2004333261A (en) Underwater observation recording device and method for monitoring information of shoal of fish using device
Bianco et al. Underwater 3D shape reconstruction by fringe projection
Fuchs Multidimensional laser scanning system to test new concepts in underwater imaging
Bodenmann et al. Development of 8m long range imaging technology for generation of wide area colour 3D seafloor reconstructions
SU1290070A1 (en) Method of calibrating photographs
JP2004085371A (en) Non-contact shape measuring arrangement
RU2017100169A (en) A method of creating a digital topographic photo document and a comprehensive tool for implementing this method
BG1633U1 (en) A system of taking digital underwater photogrammetric pictures

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170613

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170613

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170904

R150 Certificate of patent or registration of utility model

Ref document number: 6205465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250