JP2019215364A - Water-bottom observation system - Google Patents

Water-bottom observation system Download PDF

Info

Publication number
JP2019215364A
JP2019215364A JP2019147702A JP2019147702A JP2019215364A JP 2019215364 A JP2019215364 A JP 2019215364A JP 2019147702 A JP2019147702 A JP 2019147702A JP 2019147702 A JP2019147702 A JP 2019147702A JP 2019215364 A JP2019215364 A JP 2019215364A
Authority
JP
Japan
Prior art keywords
data
underwater
water
laser
laser beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019147702A
Other languages
Japanese (ja)
Other versions
JP6898396B2 (en
Inventor
研一 渋谷
Kenichi Shibuya
研一 渋谷
智樹 河端
Tomoki Kawabata
智樹 河端
稚佳子 江藤
Chikako Eto
稚佳子 江藤
昌裕 林
Masahiro Hayashi
昌裕 林
康二 大森
Koji Omori
康二 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aero Asahi Corp
Original Assignee
Aero Asahi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014233868A external-priority patent/JP6940843B2/en
Application filed by Aero Asahi Corp filed Critical Aero Asahi Corp
Priority to JP2019147702A priority Critical patent/JP6898396B2/en
Publication of JP2019215364A publication Critical patent/JP2019215364A/en
Application granted granted Critical
Publication of JP6898396B2 publication Critical patent/JP6898396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide a water-bottom observation system that can highly accurately generate water-bottom surface data even when photographing a water-bottom area a solar light beam does not reach.SOLUTION: A water-bottom observation system 1 comprises: a submarine 2; an underwater video camera 3 that is mounted to the submarine; a laser range-finding device 4 that measures a distance from a laser beam reflected at a seabed face to a sea bottom face; a GNSS/gyro device 5 that detects a three-dimensional location and posture of the underwater video camera 3 and the laser range-finding device 4; and a video recorder that synchronously records photographed photographing image data and location data on the underwater video camera 3 and posture data thereon. The water-bottom observation system is configured so as to be able to, as to an overlapping range of a plurality of photographing images, generate DSM data having a geographic coordinate given by image processing based on respective location data and posture data thereon, and complementary-purpose DSM data capable of generating an orthographic projection photomap, and complementing the DSM data on the basis of measured water depth data and the posture data.SELECTED DRAWING: Figure 1

Description

本発明は、海や湖沼の水底画像情報を取得して、画像処理して、水底を観察する水底観測システムに関するものである。   BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a water bottom observation system that acquires water bottom image information of a sea or a lake, processes the image, and observes the water bottom.

特開2003−4845号公報(特許文献1)は、水面を走行移動可能に支持した音響測深機による観測方法を開示しており(特許文献1の図1参照)、かかる観測方法によれば、水深観測による広範囲の海底地形等の地図情報を得ることが可能になるが、きわめて浅い地域の水深観測に限られており、水深が深い水底を観測することはできない。   Japanese Patent Laying-Open No. 2003-4845 (Patent Literature 1) discloses an observation method using an acoustic sounding device that supports the water surface so that it can travel and move (see FIG. 1 of Patent Literature 1). Although it is possible to obtain map information of a wide range of seafloor topography by water depth observation, it is limited to water depth observation in extremely shallow areas, and it is not possible to observe deep water bottom.

また、特許第4173027号公報(特許文献2)は、水中移動可能に曳航支持したビデオカメラによる観測方法を開示しており(特許文献2の図1参照)、かかる観測方法によれば、水中の広範囲にわたって映像観察をすることが可能になる。   Further, Japanese Patent No. 4173027 (Patent Document 2) discloses an observation method using a video camera supported tow so as to be able to move underwater (see FIG. 1 of Patent Document 2). It is possible to observe images over a wide range.

特開2003−4845号公報JP-A-2003-4845 特許第4173027号公報Japanese Patent No. 4173027

ここに、ビデオカメラによって得られる水中映像は、水中における動的観測により光学的性状を把握することが可能になるが、一過性の映像情報で、地理座標を持たないため、水底の態様に関する光学的性状全般に及ぶ定量解析の基礎となり得ないという問題があった。   Here, the underwater image obtained by the video camera can grasp the optical properties by dynamic observation in the water, but it is transient image information and does not have geographic coordinates, so it relates to the aspect of the water bottom There was a problem that it could not be the basis of quantitative analysis covering the entire optical properties.

さらに、特許文献2においては、ビデオカメラによって水底画像を撮像するように構成されているので、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などには、精度よく、水底表面データを作成することができないという問題があった。   Furthermore, in Japanese Patent Application Laid-Open No. H11-157, the water bottom image is configured to be captured by a video camera. Therefore, when capturing the bottom of the water at dawn / dusk, or when the depth of the water is too deep to reach the sunlight. When imaging a water bottom area, when imaging a water bottom area where water quality is polluted, or when a water bottom area to be imaged is shaded, it is not possible to accurately create water bottom surface data. was there.

したがって、本発明は、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などにおいても、精度よく、地理座標位置とともに、水底表面データを作成することができる水底観測システムを提供することを目的とするものである。   Therefore, the present invention captures an image of a water bottom area where the water quality is polluted when capturing an image of a water bottom area at the time of sunshine or at dawn / dusk, or when imaging a water bottom area where the water depth is deep and the sunlight does not reach. In this case, an object of the present invention is to provide a water bottom observation system capable of accurately generating water bottom surface data together with a geographical coordinate position even when a water bottom area to be imaged is shaded.

本発明のかかる目的は、
水中移動可能な潜水艇と、
前記潜水艇に搭載された可視光を連続的に検出する複数の水中カメラと、
レーザビームを放出し、海底面により反射されたレーザビームを受光して、海底面までの距離を前記複数の水中カメラと同期して連続的に計測可能なレーザ測距装置と、
前記複数の水中カメラおよび前記レーザ測距装置の姿勢を検出する姿勢センサと、
前記複数の水中カメラの撮影位置および前記レーザ測距装置の計測位置を検出するGNSSセンサと、
前記複数の水中カメラによって撮影された撮影画像データと前記姿勢センサによって検出された前記複数の水中カメラの姿勢データおよび前記GNSSセンサによって検出された前記複数の水中カメラの撮影位置データとを同期記録する収録手段と、
前記収録手段の記録画像を処理する画像処理手段を備え、
前記画像処理手段が、前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの姿勢データおよび撮影位置データに基づく画像処理によって地理座標を付与されたDSMデータと、正射投影写真図を作成可能に構成され、前記レーザ測距装置によって計測された水底までの距離を示す水深データと前記姿勢センサによって検出された前記レーザ測距装置の姿勢データとに基づいて、前記DSMデータを補完する補完用DSMデータを作成可能に構成され、
前記レーザ測距装置が、放出するレーザビームの放出時間と強度を記憶する記憶手段を備え、前記海底面によって反射されたレーザビームの検出時間を検出するフォトセンサと、前記海底面によって反射された前記レーザビームの強度を検出するエリアセンサを備えた受光センサを有していることを特徴とする水底観測システム
によって達成される。
Such objects of the present invention are:
A submersible vehicle that can move underwater,
A plurality of underwater cameras that continuously detect visible light mounted on the submersible,
A laser ranging device that emits a laser beam, receives the laser beam reflected by the sea bottom, and can continuously measure the distance to the sea bottom in synchronization with the plurality of underwater cameras,
An attitude sensor that detects the attitude of the plurality of underwater cameras and the laser ranging device,
A GNSS sensor that detects a shooting position of the plurality of underwater cameras and a measurement position of the laser ranging device;
Synchronously recording photographed image data photographed by the plurality of underwater cameras, posture data of the plurality of underwater cameras detected by the posture sensor, and photographing position data of the plurality of underwater cameras detected by the GNSS sensor. Recording means,
An image processing means for processing a recorded image of the recording means,
The image processing means, for an overlapping range of a plurality of captured images captured by the underwater camera, DSM data to which geographic coordinates are given by image processing based on respective attitude data and captured position data; The DSM data is complemented based on water depth data indicating the distance to the bottom of the water measured by the laser ranging device and attitude data of the laser ranging device detected by the attitude sensor. Complementary DSM data can be created,
The laser ranging device includes a storage unit that stores an emission time and an intensity of the emitted laser beam, a photosensor that detects a detection time of the laser beam reflected by the sea bottom, and a photo sensor that is reflected by the sea bottom. The present invention is achieved by a water bottom observation system having a light receiving sensor having an area sensor for detecting the intensity of the laser beam.

本明細書において、DSMはDigital Surface Modelの略語であり、数値表層モデルをいう。   In this specification, DSM is an abbreviation for Digital Surface Model, and refers to a numerical surface model.

本発明によれば、水底観測システムにおいては、可視光を検出する複数の水中カメラが潜水艇に搭載されているから、複数の水中カメラによって水底の画像を撮影し、水底の状況を視覚的に分りやすく示すことができる。   According to the present invention, in the underwater observation system, since a plurality of underwater cameras that detect visible light are mounted on the submersible vehicle, the underwater images are captured by the plurality of underwater cameras, and the state of the underwater is visually observed. It can be shown easily.

また、本発明によれば、水底観測システムは、可視光を検出する複数の水中カメラに加えて、水底までの距離を計測可能なレーザ測距装置を備えているから、水深が深いために、太陽光線が届かず、明るさ不足しているため、可視光を検出する複数の水中カメラよっては、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合や、水質が汚濁しているために、可視光を検出する複数の水中カメラによっては、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、可視光を検出する複数の水中カメラによって水底を撮影するときに、陰になってしまい、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、太陽光線の陰りや夜明け/薄暮時、あるいは、コントラストがきわめて高く、そのために明るさが不足して十分な露光が得られない部分ができ、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、複数の水中カメラによって得られる水底表面画像の結合処理(画像マッチング処理)がうまく出来ずに、水底表面データの一部が欠損している場合にも、レーザ測距装置によって水深までの距離を測定し、可視光を検出する複数の水中カメラによって得られる水底表面データの欠損を補完することが可能になる。   Further, according to the present invention, in addition to a plurality of underwater cameras that detect visible light, the water bottom observation system includes a laser distance measuring device that can measure the distance to the water bottom. Due to lack of sunlight and insufficient brightness, multiple underwater cameras that detect visible light cannot accurately create underwater surface data. If some of the underwater cameras are missing or the water quality is polluted, it may not be possible to accurately create water bottom surface data with multiple underwater cameras that detect visible light. If some of the bottom surface data obtained by the camera is missing, it will be shaded when capturing the bottom with multiple underwater cameras that detect visible light. If some of the underwater surface data obtained by multiple underwater cameras are missing, the sun's shadows, dawn / dusk, or very high contrast may cause a lack of brightness. When a part of the underwater surface data obtained by multiple underwater cameras is missing due to the formation of a part where sufficient exposure is not obtained, and the underwater surface data obtained by multiple underwater cameras is missing (image matching processing) Is difficult to perform, and even if part of the bottom surface data is missing, the distance to the water depth is measured with a laser ranging device, and the bottom surface data obtained by multiple underwater cameras that detect visible light is measured. It becomes possible to supplement the defect.

本発明の好ましい実施態様においては、前記レーザ測距装置が、レーザビームを拡散させて、n×nのマトリックス状に海底面に照射する拡散部材を備えている。   In a preferred embodiment of the present invention, the laser distance measuring device includes a diffusing member for diffusing the laser beam and irradiating the sea bottom with an n × n matrix.

本発明の好ましい実施態様においては、前記水中カメラがシャッター制御可能なビデオカメラであり、前記複数のビデオカメラは左右に配置されている。   In a preferred embodiment of the present invention, the underwater camera is a video camera whose shutter can be controlled, and the plurality of video cameras are arranged on the left and right.

本発明のこの好ましい実施態様によれば、ビデオカメラが左右に配置されているから、水底画像について80%の重複範囲を確保して,効率よく撮影することができ、また、シャッター制御により、波浪による急激な視点変動があっても、明瞭な水底画像を撮影することができるので、画像処理精度の向上を図ることができる。   According to this preferred embodiment of the present invention, since the video cameras are arranged on the left and right sides, it is possible to secure an 80% overlapping range for the water bottom image and efficiently shoot the water bottom image. Even if there is a sudden change in viewpoint due to, a clear water bottom image can be taken, so that the accuracy of image processing can be improved.

本発明の好ましい実施態様においては、前記姿勢センサと前記GNSSセンサが、GNSS/ジャイロ装置によって構成されている。   In a preferred embodiment of the present invention, the attitude sensor and the GNSS sensor are configured by a GNSS / gyro device.

本発明によれば、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などにおいても、精度よく、地理座標位置とともに、水底表面データを作成することができる水底観測システムを提供することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, when imaging a water bottom area | region at the time of the dawn / dusk at the dawn of sunlight, or when imaging the water bottom area where the water depth is deep and sunshine does not reach, the water bottom area where water quality is polluted is imaged. In this case, it is possible to provide a water bottom observation system capable of accurately generating water bottom surface data together with the geographic coordinate position even when the water bottom region to be imaged is shaded.

図1は、本発明の好ましい実施態様にかかる水底観測システムの機能構成図である。FIG. 1 is a functional configuration diagram of a water bottom observation system according to a preferred embodiment of the present invention. 図2は、図1に示された本発明の好ましい実施態様にかかる水底観測システムの構成要素を示すブロックダイアグラムである。FIG. 2 is a block diagram showing components of the underwater observation system according to the preferred embodiment of the present invention shown in FIG. 図3は、レーザ測距装置のレーザビーム放出部の略斜視図である。FIG. 3 is a schematic perspective view of a laser beam emitting unit of the laser distance measuring device. 図4は、レーザ測距装置のレーザビーム受光部の略斜視図である。FIG. 4 is a schematic perspective view of a laser beam receiving unit of the laser distance measuring device. 図5は、受光センサの略縦断面図である。FIG. 5 is a schematic vertical sectional view of the light receiving sensor. 図6は、レーザ測距装置の制御系および検出系のブロックダイアグラムである。FIG. 6 is a block diagram of a control system and a detection system of the laser distance measuring device. 図7は、図1ないし図6に示された本発明の好ましい実施態様にかかる水底観測システムによって、水底を観測する処理を示すフローチャートである。FIG. 7 is a flowchart showing a process of observing the water bottom by the water bottom observation system according to the preferred embodiment of the present invention shown in FIGS. 1 to 6.

図1は、本発明の好ましい実施態様にかかる水底観測システムの機能構成図であり、図2は、図1に示された本発明の好ましい実施態様にかかる水底観測システムの構成要素を示すブロックダイアグラムである。   FIG. 1 is a functional configuration diagram of a water bottom observation system according to a preferred embodiment of the present invention. FIG. 2 is a block diagram showing components of the water bottom observation system according to the preferred embodiment of the present invention shown in FIG. It is.

図1および図2に示されるように、本発明の好ましい実施態様にかかる水底観測システム1は、水中を移動可能な潜水艇2と、潜水艇2に搭載された一対の水中ビデオカメラ3、3(図1においては、一方のみが図示されている)と、潜水艇2に搭載されたレーザ測距装置4と、一対の水中ビデオカメラ3、3の撮影位置およびレーザ測距装置4の測距位置を検出し、一対の水中ビデオカメラ3、3の撮影時の姿勢およびレーザ測距装置4の測距時の姿勢を検出するGNSS/ジャイロ装置5と、一対の水中ビデオカメラ3、3によって撮影された水底画像のデータ、GNSS/ジャイロ装置5によって検出された当該水底画像を撮影したときの一対の水中ビデオカメラ3、3の撮影位置データおよび一対の水中ビデオカメラ3、3の姿勢データを同期して記録するビデオレコーダ7、7と、ビデオレコーダ7、7に記録された水底画像データ、撮影位置データおよび姿勢データに基づいて、潜水艇2上でリアルタイムに水底画像を画像処理し、あるいは、撮影作業終了後に水底画像の画像処理をする画像処理部8を備えたパーソナルコンピュータ9を備えている。   As shown in FIGS. 1 and 2, a water bottom observation system 1 according to a preferred embodiment of the present invention includes a submersible vehicle 2 movable in water, and a pair of underwater video cameras 3, 3 mounted on the submersible vehicle 2. (Only one is shown in FIG. 1), a laser ranging device 4 mounted on the submersible vehicle 2, a shooting position of the pair of underwater video cameras 3, 3, and a ranging of the laser ranging device 4. GNSS / gyro device 5 that detects the position and detects the attitude of the pair of underwater video cameras 3 and 3 during shooting and the attitude of the laser ranging device 4 during ranging, and shooting with the pair of underwater video cameras 3 and 3 Data of the detected underwater image, photographing position data of the pair of underwater video cameras 3, 3 and photographing position data of the pair of underwater video cameras 3, 3 when photographing the underwater image detected by the GNSS / gyro device 5. Video recorders 7 and 7 that record the data in synchronization with each other and image processing of the water bottom images in real time on the submersible vehicle 2 based on the water bottom image data, the photographing position data and the attitude data recorded on the video recorders 7 and 7. Alternatively, a personal computer 9 having an image processing unit 8 for performing image processing of a water bottom image after the photographing operation is completed is provided.

各ビデオカメラ3としては、ハウジング内に収納され、電子制御可能な高速シャッターを備えた水中撮影可能なビデオカメラが用いられている。ビデオカメラ3としては、それぞれ、水底画像の80%を重ねた撮影を可能とし、波浪による揺れを受けた場合でも、高速シャッターによって鮮明画像を収録可能なものが用いられている。   As each video camera 3, a video camera which is housed in a housing and has an electronically controllable high-speed shutter and is capable of underwater photography is used. Each of the video cameras 3 is capable of capturing 80% of the underwater image, and is capable of recording a clear image with a high-speed shutter even when shaken by waves.

図1には一方しか図示されていないが、一対の水中ビデオカメラ3、3は、潜水艇2の左右両側に配置されている。   Although only one of them is shown in FIG. 1, a pair of underwater video cameras 3 and 3 are disposed on both left and right sides of the submersible vehicle 2.

GNSS/ジャイロ装置5は、一対の水中ビデオカメラ3、3の三次元的な撮影位置とレーザ測距装置4の三次元的な測距位置を検出し、高精度のDGNSSを適用可能に構成され、GNSS/ジャイロ装置5は、さらに、一対の水中ビデオカメラ3、3の光軸方向の姿勢データおよびレーザ測距装置4の測距時の姿勢、すなわち、レーザ測距装置4からのレーザビームの放出方向を検出するように構成されている。   The GNSS / gyro device 5 is configured to detect a three-dimensional photographing position of the pair of underwater video cameras 3 and 3 and a three-dimensional distance measuring position of the laser distance measuring device 4 so that a high-precision DGNSS can be applied. , The GNSS / gyro device 5 further includes the attitude data of the pair of underwater video cameras 3 and 3 in the optical axis direction and the attitude of the laser distance measuring device 4 at the time of distance measurement, that is, the laser beam from the laser distance measuring device 4. It is configured to detect the emission direction.

ビデオレコーダ7、7は、各ビデオカメラ3、3によって撮影された水底画像と、GNSS/ジャイロ装置5によって検出された各ビデオカメラ3、3の撮影位置データおよび各ビデオカメラ3、3の姿勢データを同期して記録メディアに収録し、これを潜水艇2に搭載されたパーソナルコンピュータ9の画像処理部8に入力するように構成されている。あるいは、各ビデオカメラ3、3によって撮影された水底画像と、GNSS/ジャイロ装置5によって検出された各ビデオカメラ3、3の撮影位置データおよび各ビデオカメラ3、3の姿勢データが同期して記録された可搬メディアまたはこれらのデータを無線伝送によって、地上に位置したパーソナルコンピュータ(図示せず)の画像処理部(図示せず)に入力可能に構成することもできる。   The video recorders 7, 7 are water bottom images taken by the video cameras 3, 3, shooting position data of the video cameras 3, 3 detected by the GNSS / gyro device 5, and attitude data of the video cameras 3, 3. Is synchronously recorded on a recording medium, and is input to an image processing unit 8 of a personal computer 9 mounted on the submersible vehicle 2. Alternatively, the water bottom image photographed by each video camera 3, 3 is synchronously recorded with the photographing position data of each video camera 3, 3 and the posture data of each video camera 3, 3 detected by the GNSS / gyro device 5. It is also possible to configure so that the portable media or these data can be input by radio transmission to an image processing unit (not shown) of a personal computer (not shown) located on the ground.

画像処理部8には、一対のビデオカメラ3、3によって生成された水底の映像データ、GNSS/ジャイロ装置5によって検出された一対のビデオカメラ3、3の姿勢データおよび一対のビデオカメラ3、3の三次元的な位置データが入力され、パーソナルコンピュータの画像処理部8は、これらのデータに基づいて、ステレオマッチングにより、地理座標上で表現される数値地表モデルであるDSMデータを作成するように構成されている。   The image processing unit 8 includes video data of the water bottom generated by the pair of video cameras 3, 3, the attitude data of the pair of video cameras 3, 3 detected by the GNSS / gyro device 5, and the pair of video cameras 3, 3. Is input, and the image processing unit 8 of the personal computer creates DSM data, which is a numerical ground model represented on geographical coordinates, based on these data by stereo matching. It is configured.

図2に示されるように、水底観測システム1は、さらに、ビデオ編集機12、12と、同期信号を発生する同期信号発生装置14と、DSMデータを生成するDSMデータ生成部15と、DSMデータに基づいて、正射写真を生成する正射写真図生成部16を備えている。   As shown in FIG. 2, the water bottom observation system 1 further includes video editors 12, 12, a synchronization signal generator 14 for generating a synchronization signal, a DSM data generator 15 for generating DSM data, and a DSM data generator. Is provided with an orthophotograph generation unit 16 for generating an orthophoto based on.

図3は、レーザ測距装置4のレーザビーム放出部の略斜視図である。   FIG. 3 is a schematic perspective view of a laser beam emitting unit of the laser distance measuring device 4.

図3に示されるように、レーザ測距装置4は、レーザビーム20をパルス状に放出するLEDレーザ光源21を備え、LEDレーザ光源21から放出されたレーザビーム20は、コリメータレンズ22に入射して、平行なビームに変換される。コリメータレンズ22によって平行なビームに変換されたレーザビーム20は拡散部材23に入射し、レーザビーム20は、拡散部材23によって、多数のレーザビーム25に分割されて、n×nのマトリックス状に、たとえば、128×128のマトリックス状に海底面に照射される。   As shown in FIG. 3, the laser distance measuring device 4 includes an LED laser light source 21 that emits a laser beam 20 in a pulse shape, and the laser beam 20 emitted from the LED laser light source 21 enters a collimator lens 22. And converted into a parallel beam. The laser beam 20 converted into a parallel beam by the collimator lens 22 is incident on the diffusion member 23, and the laser beam 20 is divided into a number of laser beams 25 by the diffusion member 23, and is divided into an n × n matrix. For example, the sea bottom is irradiated in a 128 × 128 matrix.

拡散部材23としては、たとえば、Advanced Scientific Concepts, Inc.によって製造販売されている「3D Flash Lidar」(登録商標)に使われている拡散部材が好ましく使用される。   As the diffusion member 23, for example, a diffusion member used in “3D Flash Lidar” (registered trademark) manufactured and sold by Advanced Scientific Concepts, Inc. is preferably used.

図4は、レーザ測距装置4のレーザビーム受光部の略斜視図である。   FIG. 4 is a schematic perspective view of a laser beam receiving unit of the laser distance measuring device 4.

図4に示されるように、拡散部材23によって分割され、海底面によって反射されたレーザビーム45は、集光レンズ26によって集光されて、受光センサ27によって、光電的に検出される。   As shown in FIG. 4, the laser beam 45 divided by the diffusion member 23 and reflected by the sea bottom is condensed by the condenser lens 26 and is photoelectrically detected by the light receiving sensor 27.

図5は、受光センサ27の略縦断面図であり、図5に示されるように、LEDレーザ光源21から放出されたレーザビーム20が海底面によって反射されて生成されたレーザビーム45を検出するまでの検出時間を感知するフォトセンサ28と海底面によって反射されたレーザビーム45の強度を検出するCCDセンサ29を備えている。   FIG. 5 is a schematic longitudinal sectional view of the light receiving sensor 27. As shown in FIG. 5, the laser beam 20 emitted from the LED laser light source 21 is reflected by the sea bottom to detect a laser beam 45 generated. And a CCD sensor 29 for detecting the intensity of the laser beam 45 reflected by the sea bottom.

図6は、レーザ測距装置4の制御系および検出系のブロックダイアグラムである。   FIG. 6 is a block diagram of a control system and a detection system of the laser distance measuring device 4.

図6に示されるように、レーザ測距装置4は、レーザ光源21からパルス状にレーザビーム20を放出した時間と、そのレーザビーム20が海底面によって反射されて生成されたレーザビーム45が、フォトセンサ28によって受光された時間を記憶する第一のメモリ領域30Aと、レーザ光源21から放出されたレーザビーム20の強度とCCDセンサ29が検出したレーザビーム45の強度を記憶する第二のメモリ領域30Bを備えたRAM30を有している。   As shown in FIG. 6, the laser distance measuring device 4 calculates the time when the laser beam 20 is emitted from the laser light source 21 in a pulsed manner and the laser beam 45 generated by the laser beam 20 being reflected by the sea bottom. A first memory area 30A for storing the time received by the photosensor 28, and a second memory for storing the intensity of the laser beam 20 emitted from the laser light source 21 and the intensity of the laser beam 45 detected by the CCD sensor 29. It has a RAM 30 having an area 30B.

さらに、レーザ測距装置4は、RAM30の第一のメモリ領域30Aに記憶されたレーザ光源21からレーザビーム20が放出された時間および海底面によって反射されたレーザビーム45をフォトセンサ28が受光した時間ならびにレーザ光源21から放出されたレーザビーム20の強度およびCCDセンサ29が検出したレーザビーム45の強度に基づいて、海底面までの距離を算出するコントローラ31を備えている。   Further, in the laser distance measuring device 4, the photo sensor 28 receives the time when the laser beam 20 was emitted from the laser light source 21 stored in the first memory area 30A of the RAM 30 and the laser beam 45 reflected by the sea bottom. A controller 31 is provided for calculating the distance to the sea bottom based on the time, the intensity of the laser beam 20 emitted from the laser light source 21, and the intensity of the laser beam 45 detected by the CCD sensor 29.

また、図6に示されるように、レーザ測距装置4は、レーザビーム20の照射によって得られたデータを処理するレーザデータ処理部10を備えている。   In addition, as shown in FIG. 6, the laser distance measuring device 4 includes a laser data processing unit 10 that processes data obtained by irradiation with the laser beam 20.

レーザビーム20が拡散部材23によって分割されて、n×nのマトリックス状に海底面に照射された場合には、n×nのマトリックスの要素によって反射されたレーザビーム25をフォトセンサ28およびCCDセンサ29により光電検出することによって、その要素とレーザ光源21との距離を正確に算出することができ、したがって、n×nのマトリックスのすべての要素とレーザ光源21との距離を正確に算出することが可能になる。   When the laser beam 20 is split by the diffusing member 23 and irradiates the sea bottom in the form of an nxn matrix, the laser beam 25 reflected by the elements of the nxn matrix is converted into a photo sensor 28 and a CCD sensor. By performing the photoelectric detection by 29, the distance between the element and the laser light source 21 can be accurately calculated. Therefore, the distance between all the elements of the n × n matrix and the laser light source 21 can be accurately calculated. Becomes possible.

図7は、図1ないし図6に示された本発明の好ましい実施態様にかかる水底観測システム1によって、海底を観測する処理を示すフローチャートである。   FIG. 7 is a flowchart showing a process of observing the sea bottom by the water bottom observation system 1 according to the preferred embodiment of the present invention shown in FIGS.

オペレータによって、スタート信号がパーソナルコンピュータ9に入力されると、パーソナルコンピュータ9から同期信号発生装置14に駆動信号が出力されて、同期信号発生装置14から、一対のビデオカメラ3、3と、レーザ測距装置4と、GNSS/ジャイロ装置5と、コンバートソフトウエア35に同期信号が出力される。このとき、パーソナルコンピュータ9はレーザ光源21からレーザビーム20が放出された時間をレーザ測距装置4のRAM30内の第一のメモリ領域30A内に格納するとともに、レーザ光源21から放出されたレーザビーム20の強度をレーザ測距装置7のRAM30内の第二のメモリ領域30B内に格納する。   When a start signal is input to the personal computer 9 by the operator, a drive signal is output from the personal computer 9 to the synchronizing signal generating device 14, and the synchronizing signal generating device 14 outputs a pair of video cameras 3 and 3 and a laser measurement signal. A synchronization signal is output to the distance device 4, the GNSS / gyro device 5, and the conversion software 35. At this time, the personal computer 9 stores the time at which the laser beam 20 was emitted from the laser light source 21 in the first memory area 30A in the RAM 30 of the laser distance measuring device 4, and the laser beam emitted from the laser light source 21 The intensity of 20 is stored in the second memory area 30B in the RAM 30 of the laser distance measuring device 7.

同期信号を受けると、一対のビデオカメラ3、3は、撮影を開始し、海底面の撮影領域32、32のカラー画像が撮影される。   Upon receiving the synchronization signal, the pair of video cameras 3, 3 starts shooting, and a color image of the shooting areas 32, 32 on the sea floor is shot.

一方、レーザ測距装置4は、レーザ光源21からパルス状にレーザビーム20を放出させ、コリメータレンズ22によって平行なビームに変換した後に、拡散部材23に入射させる。拡散部材23を通過させることによって、レーザビーム20は多数のレーザビーム25に、n×nのレーザビーム25、たとえば、128×128のレーザビーム25に分割されて、一対のビデオカメラ3、3の海底面の撮影領域32、32が重複している重複撮影領域33に照射され、重複撮影領域33内にn×nのマトリックス状照射部33Aが形成される。   On the other hand, the laser distance measuring device 4 emits the laser beam 20 in a pulse form from the laser light source 21, converts the laser beam 20 into a parallel beam by the collimator lens 22, and makes the parallel beam enter the diffusion member 23. By passing through the diffusion member 23, the laser beam 20 is divided into a number of laser beams 25, an n × n laser beam 25, for example, a 128 × 128 laser beam 25. Irradiation is performed on the overlapping photographing region 33 where the photographing regions 32 on the sea bottom overlap, and an n × n matrix-shaped irradiation part 33A is formed in the overlapping photographing region 33.

海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45は、集光レンズ26によって集光されて、受光センサ27によって、光電的に検出される。   The laser beam 45 reflected by each of the n × n matrix-shaped irradiation units 33A on the sea bottom is condensed by the condenser lens 26 and is photoelectrically detected by the light receiving sensor 27.

上述のように、受光センサ27は、海底面によって反射されたレーザビーム25の検出時間を検出するフォトセンサ28と海底面によって反射されたレーザビーム25の強度を検出するCCDセンサ29とによって構成されている。   As described above, the light receiving sensor 27 includes the photo sensor 28 that detects the detection time of the laser beam 25 reflected by the sea bottom and the CCD sensor 29 that detects the intensity of the laser beam 25 reflected by the sea bottom. ing.

フォトセンサ28は、海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45を検出したときに、レーザビーム45を検出した時間をRAM30内の第一のメモリ領域30A内に格納する。ここに、第一のメモリ領域30A内はn×nのマトリックス状照射部33Aに対応して、n×nのマトリックス状メモリ領域に分割されており、フォトセンサ28は、海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45の検出時間を、第一のメモリ領域30A内の対応するマトリックス状メモリ領域内に格納する。   When the photo sensor 28 detects the laser beam 45 reflected by each of the n × n matrix-shaped irradiation units 33A on the sea bottom, the photo sensor 28 detects the time when the laser beam 45 is detected in the first memory area 30A in the RAM 30. To be stored. Here, the first memory area 30A is divided into an n × n matrix memory area corresponding to the n × n matrix irradiation section 33A, and the photo sensor 28 The detection time of the laser beam 45 reflected by each of the matrix-shaped irradiation units 33A is stored in the corresponding matrix-shaped memory area in the first memory area 30A.

一方、CCDセンサ29は、海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45の強度を検出し、海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45の強度を、第二のメモリ領域30B内の対応するマトリックス状メモリ領域内に格納する。   On the other hand, the CCD sensor 29 detects the intensity of the laser beam 45 reflected by each of the n × n matrix-shaped irradiation units 33A on the sea bottom, and reflects the intensity by each of the n × n matrix-shaped irradiation units 33A on the sea bottom. The intensity of the obtained laser beam 45 is stored in the corresponding matrix memory area in the second memory area 30B.

次いで、コントローラ31がRAM30にアクセスして、第一のメモリ領域30A内のマトリックス状メモリ領域の各々に記憶されたレーザ光源21からレーザビーム20が放出された時間およびフォトセンサ28によってレーザビーム45が検出された時間、ならびに、第二のメモリ領域30B内のマトリックス状メモリ領域の各々に記憶されたレーザ光源42から放出されたレーザビーム20の強度およびCCDセンサ29が検出したレーザビーム45の強度に基づいて、海底面のn×nのマトリックス状照射部33Aの各々の水深データを算出する。   Next, the controller 31 accesses the RAM 30 to generate the laser beam 45 by the photo sensor 28 and the time when the laser beam 20 is emitted from the laser light source 21 stored in each of the matrix memory areas in the first memory area 30A. The detected time, and the intensity of the laser beam 20 emitted from the laser light source 42 and the intensity of the laser beam 45 detected by the CCD sensor 29 stored in each of the matrix-shaped memory regions in the second memory region 30B. Based on this, the water depth data of each of the n × n matrix-shaped irradiation units 33A on the sea bottom is calculated.

同期信号に応答して、GNSS/ジャイロ装置5は、一対のビデオカメラ3、3の姿勢データと位置データを生成し、コンバートソフトウエア35を起動して、変換済み姿勢データおよび変換済み位置データを算出させる。   In response to the synchronization signal, the GNSS / gyro device 5 generates attitude data and position data of the pair of video cameras 3 and 3, activates the conversion software 35, and converts the converted attitude data and the converted position data. Let it be calculated.

同期信号に応答して、一対のビデオカメラ3、3によって撮影された海底面の画像に対応する画像データはビデオレコーダ7、7に出力され、さらに、ビデオ編集機12、12によって、連番画像が生成される。次いで、別途、観測したカメラパラメータを用いて、焦点距離・レンズ歪みの補正が行われ、補正済みの左右連番画像(1/30秒毎のペア画像)が生成される。   In response to the synchronizing signal, image data corresponding to the image of the sea floor taken by the pair of video cameras 3 and 3 is output to the video recorders 7 and 7. Is generated. Next, the focal length and lens distortion are separately corrected using the observed camera parameters, and a corrected left and right serial number image (pair image every 1/30 second) is generated.

ここに、カメラパラメータは、別途水槽内に設置したターゲットを水中ビデオカメラ3で撮影し、写真測量式を用いて、焦点距離・レンズ歪みを求めることによって、観測される。   Here, the camera parameters are observed by photographing a target separately set in an aquarium with the underwater video camera 3 and calculating the focal length and lens distortion using a photogrammetry formula.

次いで、補正済みの左右連番画像に対し、たとえば、テンプレートマッチングを実行して、横視差を算出する。   Next, for the corrected left and right serial number images, for example, template matching is executed to calculate the horizontal parallax.

こうして算出された横視差と、GNSS/ジャイロ装置5によって測定された位置データおよび姿勢データがコンバートソフトウェア35によって変換された一対のビデオカメラ3、3の変換済み位置データおよび変換済み姿勢データと、レンズの焦点距離とを用いて、標高値が算出され、第一の水深データが算出される。   The lateral parallax calculated in this manner, the converted position data and the converted attitude data of the pair of video cameras 3 and 3 in which the position data and the attitude data measured by the GNSS / gyro device 5 are converted by the conversion software 35, and the lens The altitude value is calculated using the focal length of the first and the second depth data.

次いで、補正済みの左右連番画像のうち、左画像または右画像の時間差を持つ補正済み連番画像(N−1)に、ビデオカメラ3、3の補正済み位置データおよび補正済み姿勢データを用いて、補正済み連番画像Nと同一座標上に幾何補正を行い、幾何補正済み連番画像(N−1)が作成される。   Next, the corrected position data and the corrected attitude data of the video cameras 3 and 3 are used for the corrected serial number image (N-1) having the time difference between the left image and the right image among the corrected left and right serial number images. Then, geometric correction is performed on the same coordinates as the corrected serial number image N, and a geometrically corrected serial number image (N-1) is created.

こうして得られた幾何補正済み連番画像(N−1)と補正済み連番画像Nに対して、たとえば、テンプレートマッチングを実行して、縦視差が算出される。   For example, template matching is performed on the geometrically corrected serial number image (N-1) and the corrected serial number image N thus obtained, and the vertical parallax is calculated.

次いで、こうして算出された縦視差と、GNSS/ジャイロ装置5によって測定された位置データおよび姿勢データがコンバートソフトウェア35によって変換された一対のビデオカメラ3、3の変換済み位置データおよび変換済み姿勢データと、レンズの焦点距離とを用いて、標高値が算出され、第二の水深データが算出される。   Next, the vertical parallax calculated in this manner, the converted position data and the converted attitude data of the pair of video cameras 3 and 3 in which the position data and the attitude data measured by the GNSS / gyro device 5 are converted by the conversion software 35, and , An altitude value is calculated using the focal length of the lens, and second water depth data is calculated.

一方、レーザ測距装置4によって生成された距離データと、レーザ距離装置4の位置データおよび姿勢データと、レンズの焦点距離を用いて、第三の水深データが算出される。   On the other hand, third depth data is calculated using the distance data generated by the laser distance measuring device 4, the position data and the attitude data of the laser distance measuring device 4, and the focal length of the lens.

こうして、第一の水深データ、第二の水深データおよび第三の水深データが算出されると、DSMデータ作成部15によって、DSMデータが作成される。   When the first depth data, the second depth data, and the third depth data are calculated in this way, the DSM data creation unit 15 creates DSM data.

すなわち、一対の水中ビデオカメラ3、3によって撮影した画像データに基づいて算出された第一の水深データおよび第二の水深データを主として用い、その補完用データとして、レーザ測距装置4によって生成された距離データに基づいて算出された第三の水深データを用いて、内挿・外挿計算により、DSMデータが作成される。   That is, the first depth data and the second depth data calculated based on the image data captured by the pair of underwater video cameras 3 and 3 are mainly used, and are generated by the laser ranging device 4 as complementary data. DSM data is created by interpolation / extrapolation calculation using the third water depth data calculated based on the obtained distance data.

DSMデータ作成部15によって作成されたDSMデータは、オルソ画像作成ソフトウエア40により、レンズ歪み補正済み連番画像を、レンズの焦点距離、変換済み位置データおよび変換済み姿勢データを用いて、正射投影され、水中におけるオルソフォトが作成される。   The DSM data created by the DSM data creation unit 15 is orthographically transformed by the orthoimage creation software 40 using the lens distortion corrected serial number image using the focal length of the lens, converted position data, and converted attitude data. Projected to create orthophotos in water.

ここに、レーザ測距装置4によって生成された第三の水深データは、たとえば、n×nのマトリックス状の領域33Aの水深データで、さらに、重複撮影領域33を分割して、2n×2nのマトリックス状の領域33Aを生成し、それぞれの水深データを求めても、各領域33Aの大きさは、一対の水中ビデオカメラ3、3が撮影した画像の画素に比べて、はるかに大きいので、一対のビデオカメラ3、3が撮影した画像に基づいた計測精度に比して、精度が低く、したがって、本実施態様においては、レーザ測距装置4によって生成したマトリックス状の領域33Aの第三の水深データに基づいて、一対の水中ビデオカメラ3、3によって撮影した画像によって生成されるDSMデータを補完するための補完用DSMデータを生成するように構成されている。   Here, the third water depth data generated by the laser distance measuring device 4 is, for example, the water depth data of an n × n matrix-shaped area 33A. Even if a matrix-shaped area 33A is generated and the respective depth data is obtained, the size of each area 33A is much larger than the pixels of the image taken by the pair of underwater video cameras 3, 3, so The accuracy is lower than the measurement accuracy based on the images taken by the video cameras 3 and 3. Therefore, in the present embodiment, the third depth of the matrix-shaped region 33 </ b> A generated by the laser Based on the data, complementary DSM data for complementing DSM data generated by images captured by the pair of underwater video cameras 3 and 3 is generated. It is configured.

こうして、一対の水中ビデオカメラ3、3が撮影した画像に基づいて生成されたDSMデータおよびレーザ測距装置4により生成された補完用DSMデータによって、撮影対象となる海底領域のDSMデータが生成される。本実施態様においては、一対の水中ビデオカメラ3、3によって、深海領域においても、視覚的に水底領域を観測することができる。しかし、水深がきわめて深い深海領域では、太陽光線が届かず、一対の水中ビデオカメラ3、3によって鮮明な水底画像を生成することが困難な場合が多々あるが、本実施態様においては、このように、レーザ測距装置4により、補完用DSMデータを生成しているから、一対の水中ビデオカメラ3、3によっては、鮮明な水底画像を生成することが困難な水深がきわめて深い深海領域においても、所望のように、水底の深さを求め、水底領域を測量し、水底を観測することが可能になる。   Thus, the DSM data of the seabed area to be photographed is generated by the DSM data generated based on the images photographed by the pair of underwater video cameras 3 and 3 and the complementary DSM data generated by the laser distance measuring device 4. You. In the present embodiment, the water bottom area can be visually observed even in the deep sea area by the pair of underwater video cameras 3 and 3. However, in the deep water region where the water depth is extremely deep, the sun rays do not reach, and it is often difficult to generate a clear water bottom image by the pair of underwater video cameras 3 and 3. In addition, since the complementary DSM data is generated by the laser distance measuring device 4, depending on the pair of underwater video cameras 3, 3, it is difficult to generate a clear water bottom image even in a deep sea region where the water depth is extremely deep. It is possible to determine the depth of the water bottom, measure the water bottom area and observe the water bottom as desired.

ここに、一対の水中ビデオカメラ3、3によって撮影された画像から正しく生成されたDSMデータがある海底領域に対しては、レーザ測距装置4によって生成した補完用DSMデータは適用されない。   Here, the supplementary DSM data generated by the laser distance measuring device 4 is not applied to the seabed area where the DSM data correctly generated from the images captured by the pair of underwater video cameras 3 and 3 exists.

一方で、補正済み連番画像がDSMデータ上に重畳して投影される。   On the other hand, the corrected serial number image is superimposed and projected on the DSM data.

次いで、正射投影写真図作成部16は、オルソ画像作成ソフトウエア40を起動させ、こうして得られた画像を、コンバートソフトウエア40によって生成された変換済み位置データおよび変換済み姿勢データを用いて、正射投影をし、正射投影写真画像データが作成される。   Next, the orthographic photograph drawing creating unit 16 activates the ortho image creating software 40, and converts the obtained image using the converted position data and converted posture data generated by the converting software 40, Orthogonal projection is performed to create orthographic photographic image data.

観測は、潜水艇2を観測計画線に沿って移動させつつ、以上のように、一対の水中ビデオカメラ3、3によって水底画像を撮影し、レーザ測距装置4によって水底との距離を測定するとともに、GNSS/ジャイロ装置5によって一対の水中ビデオカメラ3、3の撮影条件である視点位置と光軸方向を検出し、ビデオレコーダ7、7によって、両者を同期記録することによって実行される。   The observation is performed by moving the submersible 2 along the observation plan line, taking an image of the water bottom with the pair of underwater video cameras 3 and 3 as described above, and measuring the distance to the water bottom with the laser distance measuring device 4. At the same time, the GNSS / gyro device 5 detects the viewpoint position and the optical axis direction, which are the shooting conditions of the pair of underwater video cameras 3, 3, and the video recorders 7, 7 record the two in synchronization.

観測の終了後に、正射投影写真画像データは、潜水艇2に搭載されたパーソナルコンピュータ9の画像処理部8に入力され、あるいは、可搬メディアまたは無線伝送によって、地上に位置したパーソナルコンピュータ(図示せず)の画像処理部(図示せず)に入力されて、正射投影画像処理が実行される。   After the observation is completed, the orthographic projection image data is input to the image processing unit 8 of the personal computer 9 mounted on the submersible vehicle 2 or a personal computer (FIG. (Not shown) and an orthographic image processing is executed.

この画像処理出力は、水深が浅い浅海域の場合には、浅海域の珊瑚礁や浅瀬をカラーで視覚的に表すことによって、浅海域の珊瑚礁や浅瀬の状況を視覚的に分りやすく示すことができ、したがって、本実施態様によれば、浅海域の珊瑚礁や浅瀬の水中環境をカラーで面的に捉えることができるから、色の違いによる珊瑚礁や浅瀬の植生(藻)の成育状況を把握することが可能となる。   This image processing output can show the coral reefs and shallows in shallow waters in a shallow water area in a shallow water depth, so that the conditions of the coral reefs and shallows in the shallow waters can be visually understood easily. Therefore, according to the present embodiment, the underwater environment of coral reefs and shallows in shallow waters can be grasped in color, so that the growth status of vegetation (algae) on coral reefs and shallows due to differences in color can be ascertained. Becomes possible.

また、本実施態様によれば、水底観測システム1は、可視光を検出する一対の水中ビデオカメラ3、3に加えて、水底までの距離を計測可能なレーザ測距装置4を備えているから、水深が深いために、太陽光線が届かず、明るさ不足しているため、可視光を検出する水中ビデオカメラ3、3によっては、精度よく、水底表面データを作成することができず、水中ビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合や、水質が汚濁しているために、可視光を検出する水中ビデオカメラ3、3よっては、精度よく、水底表面データを作成することができず、水中ビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合、可視光を検出する水中ビデオカメラ3、3によって水底を撮影するときに、陰になってしまい、精度よく、水底表面データを作成することができず、水中ビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合、太陽光線の陰りや夜明け/薄暮時、あるいは、コントラストがきわめて高く、そのために明るさが不足して十分な露光が得られない部分ができ、水中ビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合、左右に配置された一対の水中ビデオカメラ3、3によって得られる水底表面画像の結合処理(画像マッチング処理)がうまく出来ずに、水底表面データの一部が欠損している場合にも、レーザ測距装置4によって水深までの距離を測定し、可視光を検出する水中ビデオカメラ3、3によって得られる水底表面データの欠損を補完することが可能になる。   Further, according to the present embodiment, the water bottom observation system 1 includes the laser distance measuring device 4 that can measure the distance to the water bottom in addition to the pair of underwater video cameras 3 and 3 that detect visible light. Due to the depth of the water, the sunlight does not reach and the brightness is insufficient. Therefore, depending on the underwater video cameras 3 and 3 that detect the visible light, it is not possible to accurately create the water bottom surface data, When some of the water bottom surface data obtained by the video cameras 3 and 3 is missing or the water quality is polluted, some of the underwater video cameras 3 and 3 that detect visible light have high accuracy. When data cannot be created and part of the underwater surface data obtained by the underwater video cameras 3 and 3 is missing, when the underwater is photographed by the underwater video cameras 3 and 3 that detect visible light. If the underwater surface data obtained by the underwater video cameras 3 and 3 is partially lost, shading of sun rays or dawn / dusk will occur. At the time, or when the contrast is extremely high, there is a part where the brightness is insufficient and a sufficient exposure cannot be obtained, and part of the bottom surface data obtained by the underwater video cameras 3 and 3 is missing, The laser measurement can be performed even when the underwater surface image obtained by the pair of underwater video cameras 3 and 3 is not successfully combined (image matching processing) and a part of the underwater surface data is missing. It is possible to measure the distance to the water depth by the distance measuring device 4 and to compensate for the loss of the water bottom surface data obtained by the underwater video cameras 3 and 3 that detect visible light. .

さらに、本実施態様によれば、一対の水中ビデオカメラ3、3、レーザ測距装置4、GNSS/ジャイロ装置5が潜水艇2に搭載されているから、きわめて水深が深い深海の水底領域においても、一対のビデオカメラ3、3によって、水底画像を生成することができ、したがって、視覚的に水底領域を観測することが可能になる。   Further, according to the present embodiment, since the pair of underwater video cameras 3, 3, the laser ranging device 4, and the GNSS / gyro device 5 are mounted on the submersible vehicle 2, even in the deep sea bottom region where the water depth is extremely deep. , A pair of video cameras 3, 3 can generate a water bottom image, so that it is possible to visually observe the water bottom area.

加えて、きわめて水深が深い深海においては、太陽光線が届かず、明るさ不足しているため、一対の水中ビデオカメラ3、3によっては、鮮明な水底画像を生成することが困難である場合が多いが、本実施態様によれば、レーザ測距装置4によって、補完用のDSMデータが生成されるから、一対の水中ビデオカメラ3、3によっては、鮮明な水底画像を生成することが困難な深海領域においても、所望のように、水底の深さを求め、水底領域を測量し、水底を観測することが可能になる。   In addition, in the deep sea where the water depth is extremely deep, the sun rays do not reach and the brightness is insufficient, so that it may be difficult to generate a clear water bottom image with the pair of underwater video cameras 3 and 3. In many cases, however, according to the present embodiment, the complementary DSM data is generated by the laser distance measuring device 4, so that it is difficult to generate a clear water bottom image by the pair of underwater video cameras 3, 3. Also in the deep sea area, it becomes possible to obtain the depth of the water bottom, measure the water bottom area, and observe the water bottom as desired.

本発明は、以上の実施態様に限定されることなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることはいうまでもない。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施態様においては、一対の水中ビデオカメラが設けられているが、水中ビデオカメラの数は複数であればよく、2つに限定されるものではない。   For example, in the above-described embodiment, a pair of underwater video cameras is provided, but the number of underwater video cameras need only be plural, and is not limited to two.

また、前記実施態様においては、水底までの距離を計測するレーザ測距装置4は、レーザビーム20を多数のレーザビーム25に分割する拡散部材23、好ましくは、Advanced Scientific Concepts, Inc.によって製造販売されている「3D Flash Lidar」(登録商標)に用いられている拡散部材を備えているが、この種の拡散部材23を備えたレーザ測距装置4を用いることは必ずしも必要ではなく、ファイバー式のレーザ測距装置や走査型のレーザ測距装置などを用いることもできる。   Further, in the above embodiment, the laser distance measuring device 4 for measuring the distance to the water bottom is a diffusion member 23 for dividing the laser beam 20 into a number of laser beams 25, preferably manufactured and sold by Advanced Scientific Concepts, Inc. Although a diffusion member used in “3D Flash Lidar” (registered trademark) is used, it is not always necessary to use a laser distance measuring device 4 having this kind of diffusion member 23, and a fiber type Laser distance measuring device, scanning type laser distance measuring device, or the like can also be used.

また、前記実施態様においては、海底が観測されているが、本発明は海底の観測に限定されるものではなく、湖沼などの水底の観測に広く用いることができる。   Further, in the above embodiment, the sea bottom is observed, but the present invention is not limited to observation of the sea bottom, and can be widely used for observation of a water bottom such as a lake.

1 水底観測システム
2 潜水艇
3 水中ビデオカメラ
4 レーザ測距装置
5 GNSS/ジャイロ装置
7 ビデオレコーダ
8 画像処理部
9 パーソナルコンピュータ
10 レーザデータ処理部
11 DSM作成部
12 ビデオ編集機
14 同期信号発生装置
15 DSM作成部
16 正射写真図作成部
18 正射投影画像データ処理部
20 レーザビーム
21 LEDレーザ光源
22 コリメータレンズ
23 拡散部材
25 レーザビーム
26 集光レンズ
27 受光センサ
28 フォトセンサ
29 CCDセンサ
30 RAM
30A 第一のメモリ領域
30B 第二のメモリ領域
31 コントローラ
32 一対のビデオカメラの撮影領域
33 重複撮影領域
33A マトリックス状の領域
35 コンバートソフトウエア
40 オルソ画像作成ソフトウエア
45 レーザビーム
DESCRIPTION OF SYMBOLS 1 Underwater observation system 2 Submersible boat 3 Underwater video camera 4 Laser ranging device 5 GNSS / gyro device 7 Video recorder 8 Image processing unit 9 Personal computer 10 Laser data processing unit 11 DSM creation unit 12 Video editor 14 Synchronization signal generator 15 DSM creating unit 16 orthophotograph creating unit 18 orthographic image data processing unit 20 laser beam 21 LED laser light source 22 collimator lens 23 diffusing member 25 laser beam
26 Condensing lens 27 Light receiving sensor 28 Photo sensor 29 CCD sensor 30 RAM
30A first memory area 30B second memory area 31 controller 32 shooting area 33 of a pair of video cameras 33 overlapping shooting area 33A matrix area 35 converting software 40 orthographic image creation software 45 laser beam

Claims (4)

水中移動可能な潜水艇と、
前記潜水艇に搭載された可視光を連続的に検出する複数の水中カメラと、
レーザビームを放出し、海底面により反射されたレーザビームを受光して、海底面までの距離を前記複数の水中カメラと同期して連続的に計測可能なレーザ測距装置と、
前記複数の水中カメラおよび前記レーザ測距装置の姿勢を検出する姿勢センサと、
前記複数の水中カメラの撮影位置および前記レーザ測距装置の計測位置を検出するGNSSセンサと、
前記複数の水中カメラによって撮影された撮影画像データと前記姿勢センサによって検出された前記複数の水中カメラの姿勢データおよび前記GNSSセンサによって検出された前記複数の水中カメラの撮影位置データとを同期記録する収録手段と、
前記収録手段の記録画像を処理する画像処理手段を備え、
前記画像処理手段が、前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの姿勢データおよび撮影位置データに基づく画像処理によって地理座標を付与されたDSMデータと、正射投影写真図を作成可能に構成され、前記レーザ測距装置によって計測された水底までの距離を示す水深データと前記姿勢センサによって検出された前記レーザ測距装置の姿勢データとに基づいて、前記DSMデータを補完する補完用DSMデータを作成可能に構成され、
前記レーザ測距装置が、放出するレーザビームの放出時間と強度を記憶する記憶手段を備え、前記海底面によって反射されたレーザビームの検出時間を検出するフォトセンサと、前記海底面によって反射された前記レーザビームの強度を検出するエリアセンサを備えた受光センサを有している
ことを特徴とする水底観測システム。
A submersible vehicle that can move underwater,
A plurality of underwater cameras that continuously detect visible light mounted on the submersible,
A laser ranging device that emits a laser beam, receives the laser beam reflected by the sea bottom, and can continuously measure the distance to the sea bottom in synchronization with the plurality of underwater cameras,
An attitude sensor that detects the attitude of the plurality of underwater cameras and the laser ranging device,
A GNSS sensor that detects a shooting position of the plurality of underwater cameras and a measurement position of the laser ranging device;
Synchronously recording photographed image data photographed by the plurality of underwater cameras, posture data of the plurality of underwater cameras detected by the posture sensor, and photographing position data of the plurality of underwater cameras detected by the GNSS sensor. Recording means,
An image processing means for processing a recorded image of the recording means,
The image processing means, for an overlapping range of a plurality of captured images captured by the underwater camera, DSM data to which geographic coordinates are given by image processing based on respective attitude data and captured position data; The DSM data is complemented based on water depth data indicating the distance to the bottom of the water measured by the laser ranging device and attitude data of the laser ranging device detected by the attitude sensor. Complementary DSM data can be created,
The laser ranging device includes a storage unit that stores an emission time and an intensity of the emitted laser beam, a photosensor that detects a detection time of the laser beam reflected by the sea bottom, and a photo sensor that is reflected by the sea bottom. An underwater observation system comprising a light receiving sensor having an area sensor for detecting the intensity of the laser beam.
前記レーザ測距装置が、レーザビームを拡散させて、n×nのマトリックス状に海底面に照射する拡散部材を備えていることを特徴とする請求項1に記載の水底観測システム。   The underwater observation system according to claim 1, wherein the laser distance measuring device includes a diffusion member that diffuses a laser beam and irradiates the sea bottom with an nxn matrix. 前記複数の水中カメラがシャッター制御可能なビデオカメラにより構成され、前記複数のビデオカメラが左右に配置されていることを特徴とする請求項1または2に記載の水底観測システム。   3. The underwater observation system according to claim 1, wherein the plurality of underwater cameras are configured by video cameras that can be controlled by a shutter, and the plurality of video cameras are arranged on the left and right. 4. 前記姿勢センサと前記GNSSセンサが、GNSS/ジャイロ装置によって構成されたことを特徴とする請求項1ないし3のいずれか1項に記載の水底観測システム。
The underwater observation system according to any one of claims 1 to 3, wherein the attitude sensor and the GNSS sensor are configured by a GNSS / gyro device.
JP2019147702A 2014-11-18 2019-08-09 Underwater observation system Active JP6898396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019147702A JP6898396B2 (en) 2014-11-18 2019-08-09 Underwater observation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014233868A JP6940843B2 (en) 2014-11-18 2014-11-18 Underwater observation system
JP2019147702A JP6898396B2 (en) 2014-11-18 2019-08-09 Underwater observation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014233868A Division JP6940843B2 (en) 2014-11-18 2014-11-18 Underwater observation system

Publications (2)

Publication Number Publication Date
JP2019215364A true JP2019215364A (en) 2019-12-19
JP6898396B2 JP6898396B2 (en) 2021-07-07

Family

ID=68918620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019147702A Active JP6898396B2 (en) 2014-11-18 2019-08-09 Underwater observation system

Country Status (1)

Country Link
JP (1) JP6898396B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113655056A (en) * 2021-08-20 2021-11-16 重庆交通大学 Investigation and statistics method for river benthonic animals
CN114322777A (en) * 2022-01-20 2022-04-12 中交第一航务工程局有限公司 Underwater camera measurement and control system and method for mounting immersed tube pipe joint

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002022830A (en) * 2000-07-07 2002-01-23 Omron Corp Apparatus for measuring distance and its method of measuring distance
JP2009047497A (en) * 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
US20120050715A1 (en) * 2010-09-01 2012-03-01 Krainak Michael A Imaging device
WO2012137434A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Stereoscopic imaging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002022830A (en) * 2000-07-07 2002-01-23 Omron Corp Apparatus for measuring distance and its method of measuring distance
JP2009047497A (en) * 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
US20120050715A1 (en) * 2010-09-01 2012-03-01 Krainak Michael A Imaging device
WO2012137434A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Stereoscopic imaging device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小熊 宏之 他: "ボート搭載型の水中カメラを用いた浅海底観測システムの開発", 国立研究開発法人国立環境研究所, JPN6015046270, 6 February 2014 (2014-02-06), ISSN: 0004259350 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113655056A (en) * 2021-08-20 2021-11-16 重庆交通大学 Investigation and statistics method for river benthonic animals
CN113655056B (en) * 2021-08-20 2024-05-03 重庆交通大学 River benthonic animal investigation and statistics method
CN114322777A (en) * 2022-01-20 2022-04-12 中交第一航务工程局有限公司 Underwater camera measurement and control system and method for mounting immersed tube pipe joint
CN114322777B (en) * 2022-01-20 2024-03-26 中交第一航务工程局有限公司 Underwater camera measurement and control system and method for immersed tube joint installation

Also Published As

Publication number Publication date
JP6898396B2 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
JP6940843B2 (en) Underwater observation system
JP6205465B2 (en) Shallow water observation system
EP2909811B1 (en) Improvements in and relating to gathering range and dimensional information underwater surveys
AU2015250748B2 (en) 3D point clouds
KR101652393B1 (en) Apparatus and Method for obtaining 3D image
Shortis Camera calibration techniques for accurate measurement underwater
JP2017003593A5 (en)
CN107063117A (en) Underwater laser synchronous scanning range of triangle imaging system and method based on optical field imaging
Ouyang et al. Visualization and image enhancement for multistatic underwater laser line scan system using image-based rendering
JP6898396B2 (en) Underwater observation system
JP2020194454A (en) Image processing device and image processing method, program, and storage medium
JP6605244B2 (en) Overhead wire imaging apparatus and overhead wire imaging method
Bodenmann et al. 3D colour reconstruction of a hydrothermally active area using an underwater robot
CN105551068B (en) A kind of synthetic method of 3 D laser scanning and optical photograph
Thielemann Optical 3D imaging for subsea and space applications
Bodenmann et al. Development of 8m long range imaging technology for generation of wide area colour 3D seafloor reconstructions
Bianco et al. Underwater 3D shape reconstruction by fringe projection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210610

R150 Certificate of patent or registration of utility model

Ref document number: 6898396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150