JP6898396B2 - Underwater observation system - Google Patents

Underwater observation system Download PDF

Info

Publication number
JP6898396B2
JP6898396B2 JP2019147702A JP2019147702A JP6898396B2 JP 6898396 B2 JP6898396 B2 JP 6898396B2 JP 2019147702 A JP2019147702 A JP 2019147702A JP 2019147702 A JP2019147702 A JP 2019147702A JP 6898396 B2 JP6898396 B2 JP 6898396B2
Authority
JP
Japan
Prior art keywords
data
laser beam
underwater
laser
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019147702A
Other languages
Japanese (ja)
Other versions
JP2019215364A (en
Inventor
研一 渋谷
研一 渋谷
智樹 河端
智樹 河端
稚佳子 江藤
稚佳子 江藤
昌裕 林
昌裕 林
康至 大森
康至 大森
Original Assignee
朝日航洋株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014233868A external-priority patent/JP6940843B2/en
Application filed by 朝日航洋株式会社 filed Critical 朝日航洋株式会社
Priority to JP2019147702A priority Critical patent/JP6898396B2/en
Publication of JP2019215364A publication Critical patent/JP2019215364A/en
Application granted granted Critical
Publication of JP6898396B2 publication Critical patent/JP6898396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、海や湖沼の水底画像情報を取得して、画像処理して、水底を観察する水底観測システムに関するものである。 The present invention relates to a water bottom observation system that acquires water bottom image information of the sea or lake, processes the image, and observes the water bottom.

特開2003−4845号公報(特許文献1)は、水面を走行移動可能に支持した音響測深機による観測方法を開示しており(特許文献1の図1参照)、かかる観測方法によれば、水深観測による広範囲の海底地形等の地図情報を得ることが可能になるが、きわめて浅い地域の水深観測に限られており、水深が深い水底を観測することはできない。 Japanese Unexamined Patent Publication No. 2003-4845 (Patent Document 1) discloses an observation method using an echo sounder that supports the water surface so as to travel and move (see FIG. 1 of Patent Document 1). Although it is possible to obtain map information such as a wide range of seafloor topography by water depth observation, it is limited to water depth observation in extremely shallow areas, and it is not possible to observe deep water bottoms.

また、特許第4173027号公報(特許文献2)は、水中移動可能に曳航支持したビデオカメラによる観測方法を開示しており(特許文献2の図1参照)、かかる観測方法によれば、水中の広範囲にわたって映像観察をすることが可能になる。 Further, Japanese Patent No. 4173027 (Patent Document 2) discloses an observation method using a video camera that is towed and supported in water (see FIG. 1 of Patent Document 2). It is possible to observe images over a wide area.

特開2003−4845号公報Japanese Unexamined Patent Publication No. 2003-4845 特許第4173027号公報Japanese Patent No. 4173027

ここに、ビデオカメラによって得られる水中映像は、水中における動的観測により光学的性状を把握することが可能になるが、一過性の映像情報で、地理座標を持たないため、水底の態様に関する光学的性状全般に及ぶ定量解析の基礎となり得ないという問題があった。 Here, the underwater image obtained by the video camera can grasp the optical properties by dynamic observation in the water, but since it is transient image information and does not have geographic coordinates, it relates to the aspect of the water bottom. There was a problem that it could not be the basis of quantitative analysis covering all optical properties.

さらに、特許文献2においては、ビデオカメラによって水底画像を撮像するように構成されているので、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などには、精度よく、水底表面データを作成することができないという問題があった。 Further, in Patent Document 2, since the water bottom image is captured by a video camera, the water bottom region is imaged in the shadow of the sun's rays or at dawn / twilight, or the water depth is deep and the sun's rays do not reach. The problem is that it is not possible to accurately create bottom surface data when imaging the bottom region, when imaging the bottom region where the water quality is polluted, or when the bottom region to be imaged is in the shade. was there.

したがって、本発明は、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などにおいても、精度よく、地理座標位置とともに、水底表面データを作成することができる水底観測システムを提供することを目的とするものである。 Therefore, the present invention images the bottom region where the water quality is polluted when the bottom region is imaged in the shade of the sun's rays or at dawn / twilight, or when the bottom region is deep and the sun rays do not reach. In this case, it is an object of the present invention to provide a water bottom observation system capable of accurately creating water bottom surface data together with geographic coordinate positions even when the water bottom area to be imaged is shaded.

本発明のかかる目的は、
水中移動可能な潜水艇と、
前記潜水艇に搭載された可視光を連続的に検出する複数の水中カメラと、
レーザビームを放出し、海底面により反射されたレーザビームを受光して、海底面までの距離を前記複数の水中カメラと同期して連続的に計測可能なレーザ測距装置と、
前記複数の水中カメラおよび前記レーザ測距装置の姿勢を検出する姿勢センサと、
前記複数の水中カメラの撮影位置および前記レーザ測距装置の計測位置を検出するGNSSセンサと、
前記複数の水中カメラによって撮影された撮影画像データと前記姿勢センサによって検出された前記複数の水中カメラの姿勢データおよび前記GNSSセンサによって検出された前記複数の水中カメラの撮影位置データとを同期記録する収録手段と、
前記収録手段の記録画像を処理する画像処理手段を備え、
前記画像処理手段が、前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの姿勢データおよび撮影位置データに基づく画像処理によって地理座標を付与された水深データと、前記レーザ測距装置によって計測された水底までの距離を示す距離データと前記姿勢センサによって検出された前記レーザ測距装置の姿勢データとに基づいて作成された補完用データを用いて補完して、DSMデータを作成可能に構成され、
前記レーザ測距装置が、レーザビームを拡散させて、n×n本のレーザビームに分割し、海底面のn×nのマトリックス状領域に照射する拡散部材を備え、さらに、放出するレーザビームの放出時間と強度を記憶する記憶手段、前記海底面の前記マトリックス状領域によって反射されたレーザビームの検出時間を検出するフォトセンサと、前記海底面の前記マトリックス状領域によって反射された前記レーザビームの検出強度を検出するエリアセンサとを備え、前記記憶手段に記憶された前記レーザビームの前記放出時間および前記放出強度と、前記フォトセンサによって検出された前記レーザビームの前記検出時間と、前記エリアセンサによって検出された前記レーザビームとの検出強度に基づいて、前記海底面の前記マトリックス状領域までの距離を算出するように構成された受光センサを有していることを特徴とする水底観測システムによって達成される。
An object of the present invention is
A submersible that can move underwater and
A plurality of underwater cameras mounted on the submersible that continuously detect visible light,
A laser ranging device that emits a laser beam, receives a laser beam reflected by the seafloor, and can continuously measure the distance to the seafloor in synchronization with the plurality of underwater cameras.
A posture sensor that detects the postures of the plurality of underwater cameras and the laser ranging device, and
A GNSS sensor that detects the imaging position of the plurality of underwater cameras and the measurement position of the laser ranging device, and
Synchronized recording of captured image data captured by the plurality of underwater cameras, attitude data of the plurality of underwater cameras detected by the attitude sensor, and imaging position data of the plurality of underwater cameras detected by the GNSS sensor. Recording means and
An image processing means for processing the recorded image of the recording means is provided.
The image processing means obtains water depth data in which geographic coordinates are assigned by image processing based on the respective posture data and shooting position data for an overlapping range of a plurality of shot images taken by the underwater camera, and the laser ranging device. DSM data can be created by complementing using complementary data created based on the distance data indicating the distance to the bottom of the water measured by and the attitude data of the laser ranging device detected by the attitude sensor. Consists of
The laser ranging device includes a diffusing member that diffuses a laser beam, divides the laser beam into n × n laser beams, and irradiates an n × n matrix-like region on the sea surface , and further emits a laser beam. storage means for storing the release time and intensity, and a photo sensor for detecting the detection time of the laser beam reflected by said matrix area of the seafloor, the laser beam reflected by said matrix area of the seafloor The area sensor for detecting the detection intensity of the laser beam is provided, and the emission time and emission intensity of the laser beam stored in the storage means, the detection time of the laser beam detected by the photosensor, and the area. A water bottom observation system characterized by having a light receiving sensor configured to calculate the distance to the matrix-like region of the sea surface based on the detection intensity with the laser beam detected by the sensor. Achieved by.

本明細書において、DSMはDigital Surface Modelの略語であり、数値表層モデルをいう。 In the present specification, DSM is an abbreviation for Digital Surface Model and refers to a digital surface model.

本発明によれば、水底観測システムにおいては、可視光を検出する複数の水中カメラが潜水艇に搭載されているから、複数の水中カメラによって水底の画像を撮影し、水底の状況を視覚的に分りやすく示すことができる。 According to the present invention, in the water bottom observation system, since a plurality of underwater cameras for detecting visible light are mounted on the submersible, images of the water bottom are taken by the plurality of underwater cameras to visually check the condition of the water bottom. It can be shown in an easy-to-understand manner.

また、本発明によれば、水底観測システムは、可視光を検出する複数の水中カメラに加えて、水底までの距離を計測可能なレーザ測距装置を備えているから、水深が深いために、太陽光線が届かず、明るさ不足しているため、可視光を検出する複数の水中カメラよっては、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合や、水質が汚濁しているために、可視光を検出する複数の水中カメラによっては、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、可視光を検出する複数の水中カメラによって水底を撮影するときに、陰になってしまい、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、太陽光線の陰りや夜明け/薄暮時、あるいは、コントラストがきわめて高く、そのために明るさが不足して十分な露光が得られない部分ができ、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、複数の水中カメラによって得られる水底表面画像の結合処理(画像マッチング処理)がうまく出来ずに、水底表面データの一部が欠損している場合にも、レーザ測距装置によって水深までの距離を測定し、可視光を検出する複数の水中カメラによって得られる水底表面データの欠損を補完することが可能になる。 Further, according to the present invention, since the water bottom observation system is provided with a laser ranging device capable of measuring the distance to the water bottom in addition to a plurality of underwater cameras that detect visible light, the water depth is deep. Due to the lack of sunlight and insufficient brightness, it is not possible to accurately create underwater surface data with multiple underwater cameras that detect visible light, and the underwater surface data obtained by multiple underwater cameras. Due to the lack of a part of the water or the pollution of the water quality, it is not possible to accurately create the bottom surface data with multiple underwater cameras that detect visible light, and multiple underwater cameras. If a part of the bottom surface data obtained by is missing, it will be shaded when shooting the bottom with multiple underwater cameras that detect visible light, and it is possible to create the bottom surface data accurately. If this is not possible and some of the underwater surface data obtained by multiple underwater cameras is missing, then the sun's rays are shaded, dawn / twilight, or the contrast is extremely high, which is sufficient for lack of brightness. When there is a part where exposure cannot be obtained and a part of the water bottom surface data obtained by multiple underwater cameras is missing, the combination processing (image matching processing) of the water bottom surface images obtained by multiple underwater cameras can be performed well. Even if part of the bottom surface data is missing, the distance to the water depth is measured by a laser ranging device, and the loss of the bottom surface data obtained by multiple underwater cameras that detect visible light is complemented. It becomes possible to do.

本発明の好ましい実施態様においては、前記レーザ測距装置が、レーザビームを拡散させて、n×nのマトリックス状に海底面に照射する拡散部材を備えている。 In a preferred embodiment of the present invention, the laser ranging device includes a diffusing member that diffuses a laser beam and irradiates the seabed in an n × n matrix.

本発明の好ましい実施態様においては、前記水中カメラがシャッター制御可能なビデオカメラであり、前記複数のビデオカメラは左右に配置されている。 In a preferred embodiment of the present invention, the underwater camera is a video camera capable of shutter control, and the plurality of video cameras are arranged on the left and right sides.

本発明のこの好ましい実施態様によれば、ビデオカメラが左右に配置されているから、水底画像について80%の重複範囲を確保して,効率よく撮影することができ、また、シャッター制御により、波浪による急激な視点変動があっても、明瞭な水底画像を撮影することができるので、画像処理精度の向上を図ることができる。 According to this preferred embodiment of the present invention, since the video cameras are arranged on the left and right sides, it is possible to secure an overlapping range of 80% for the bottom image and efficiently shoot the images, and the shutter control allows waves. Even if there is a sudden change in the viewpoint due to the above, a clear bottom image can be taken, so that the image processing accuracy can be improved.

本発明の好ましい実施態様においては、前記姿勢センサと前記GNSSセンサが、GNSS/ジャイロ装置によって構成されている。 In a preferred embodiment of the present invention, the posture sensor and the GNSS sensor are configured by a GNSS / gyro device.

本発明によれば、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などにおいても、精度よく、地理座標位置とともに、水底表面データを作成することができる水底観測システムを提供することが可能になる。 According to the present invention, when the bottom area is imaged in the shade of the sun's rays or at dawn / twilight, or when the bottom area is deep and the sun rays do not reach, the bottom area where the water quality is polluted is imaged. In this case, it is possible to provide a water bottom observation system that can accurately create water bottom surface data together with geographic coordinate positions even when the water bottom area to be imaged is shaded.

図1は、本発明の好ましい実施態様にかかる水底観測システムの機能構成図である。FIG. 1 is a functional configuration diagram of a water bottom observation system according to a preferred embodiment of the present invention. 図2は、図1に示された本発明の好ましい実施態様にかかる水底観測システムの構成要素を示すブロックダイアグラムである。FIG. 2 is a block diagram showing the components of the bottom observation system according to the preferred embodiment of the present invention shown in FIG. 図3は、レーザ測距装置のレーザビーム放出部の略斜視図である。FIG. 3 is a schematic perspective view of the laser beam emitting portion of the laser ranging device. 図4は、レーザ測距装置のレーザビーム受光部の略斜視図である。FIG. 4 is a schematic perspective view of a laser beam receiving unit of the laser ranging device. 図5は、受光センサの略縦断面図である。FIG. 5 is a substantially vertical cross-sectional view of the light receiving sensor. 図6は、レーザ測距装置の制御系および検出系のブロックダイアグラムである。FIG. 6 is a block diagram of a control system and a detection system of the laser ranging device. 図7は、図1ないし図6に示された本発明の好ましい実施態様にかかる水底観測システムによって、水底を観測する処理を示すフローチャートである。FIG. 7 is a flowchart showing a process of observing the bottom of the water by the bottom observation system according to the preferred embodiment of the present invention shown in FIGS. 1 to 6.

図1は、本発明の好ましい実施態様にかかる水底観測システムの機能構成図であり、図2は、図1に示された本発明の好ましい実施態様にかかる水底観測システムの構成要素を示すブロックダイアグラムである。 FIG. 1 is a functional configuration diagram of the water bottom observation system according to the preferred embodiment of the present invention, and FIG. 2 is a block diagram showing components of the water bottom observation system according to the preferred embodiment of the present invention shown in FIG. Is.

図1および図2に示されるように、本発明の好ましい実施態様にかかる水底観測システム1は、水中を移動可能な潜水艇2と、潜水艇2に搭載された一対の水中ビデオカメラ3、3(図1においては、一方のみが図示されている)と、潜水艇2に搭載されたレーザ測距装置4と、一対の水中ビデオカメラ3、3の撮影位置およびレーザ測距装置4の測距位置を検出し、一対の水中ビデオカメラ3、3の撮影時の姿勢およびレーザ測距装置4の測距時の姿勢を検出するGNSS/ジャイロ装置5と、一対の水中ビデオカメラ3、3によって撮影された水底画像のデータ、GNSS/ジャイロ装置5によって検出された当該水底画像を撮影したときの一対の水中ビデオカメラ3、3の撮影位置データおよび一対の水中ビデオカメラ3、3の姿勢データを同期して記録するビデオレコーダ7、7と、ビデオレコーダ7、7に記録された水底画像データ、撮影位置データおよび姿勢データに基づいて、潜水艇2上でリアルタイムに水底画像を画像処理し、あるいは、撮影作業終了後に水底画像の画像処理をする画像処理部8を備えたパーソナルコンピュータ9を備えている。 As shown in FIGS. 1 and 2, the bottom observation system 1 according to the preferred embodiment of the present invention includes a submersible 2 that can move underwater and a pair of underwater video cameras 3 and 3 mounted on the submersible 2. (In FIG. 1, only one is shown), the laser ranging device 4 mounted on the submersible 2, the imaging positions of the pair of underwater video cameras 3 and 3, and the ranging of the laser ranging device 4. Photographed by a pair of underwater video cameras 3 and 3 and a GNSS / gyro device 5 that detects the position and detects the posture during shooting of the pair of underwater video cameras 3 and 3 and the posture during distance measurement of the laser ranging device 4. Synchronized the data of the bottom image, the shooting position data of the pair of underwater video cameras 3 and 3 when the bottom image detected by the GNSS / gyro device 5 was taken, and the attitude data of the pair of underwater video cameras 3 and 3. Based on the video recorders 7 and 7 recorded in the video recorder 7 and 7 and the bottom image data, shooting position data and attitude data recorded in the video recorders 7 and 7, the bottom image is processed in real time on the submersible boat 2 or the bottom image is processed. A personal computer 9 provided with an image processing unit 8 that processes an image of the bottom of the water after the shooting work is completed is provided.

各ビデオカメラ3としては、ハウジング内に収納され、電子制御可能な高速シャッターを備えた水中撮影可能なビデオカメラが用いられている。ビデオカメラ3としては、それぞれ、水底画像の80%を重ねた撮影を可能とし、波浪による揺れを受けた場合でも、高速シャッターによって鮮明画像を収録可能なものが用いられている。 As each video camera 3, a video camera capable of underwater photography, which is housed in a housing and has an electronically controllable high-speed shutter, is used. As the video camera 3, 80% of the underwater image can be superposed on each other, and a clear image can be recorded by a high-speed shutter even when it is shaken by waves.

図1には一方しか図示されていないが、一対の水中ビデオカメラ3、3は、潜水艇2の左右両側に配置されている。 Although only one is shown in FIG. 1, the pair of underwater video cameras 3 and 3 are arranged on the left and right sides of the submersible 2.

GNSS/ジャイロ装置5は、一対の水中ビデオカメラ3、3の三次元的な撮影位置とレーザ測距装置4の三次元的な測距位置を検出し、高精度のDGNSSを適用可能に構成され、GNSS/ジャイロ装置5は、さらに、一対の水中ビデオカメラ3、3の光軸方向の姿勢データおよびレーザ測距装置4の測距時の姿勢、すなわち、レーザ測距装置4からのレーザビームの放出方向を検出するように構成されている。 The GNSS / gyro device 5 is configured to detect the three-dimensional imaging position of the pair of underwater video cameras 3 and 3 and the three-dimensional ranging position of the laser ranging device 4 so that high-precision DGNSS can be applied. The GNSS / gyro device 5 further provides the attitude data in the optical axis direction of the pair of underwater video cameras 3 and 3 and the attitude of the laser ranging device 4 at the time of ranging, that is, the laser beam from the laser ranging device 4. It is configured to detect the emission direction.

ビデオレコーダ7、7は、各ビデオカメラ3、3によって撮影された水底画像と、GNSS/ジャイロ装置5によって検出された各ビデオカメラ3、3の撮影位置データおよび各ビデオカメラ3、3の姿勢データを同期して記録メディアに収録し、これを潜水艇2に搭載されたパーソナルコンピュータ9の画像処理部8に入力するように構成されている。あるいは、各ビデオカメラ3、3によって撮影された水底画像と、GNSS/ジャイロ装置5によって検出された各ビデオカメラ3、3の撮影位置データおよび各ビデオカメラ3、3の姿勢データが同期して記録された可搬メディアまたはこれらのデータを無線伝送によって、地上に位置したパーソナルコンピュータ(図示せず)の画像処理部(図示せず)に入力可能に構成することもできる。 The video recorders 7 and 7 include the bottom image taken by each video camera 3 and 3, the shooting position data of each video camera 3 and 3 detected by the GNSS / gyro device 5, and the attitude data of each video camera 3 and 3. Are synchronizedly recorded on a recording medium, and this is input to the image processing unit 8 of the personal computer 9 mounted on the submarine 2. Alternatively, the underwater image taken by each video camera 3 or 3 and the shooting position data of each video camera 3 or 3 detected by the GNSS / gyro device 5 and the attitude data of each video camera 3 or 3 are recorded in synchronization with each other. It is also possible to configure the portable media or these data to be input to an image processing unit (not shown) of a personal computer (not shown) located on the ground by wireless transmission.

画像処理部8には、一対のビデオカメラ3、3によって生成された水底の映像データ、GNSS/ジャイロ装置5によって検出された一対のビデオカメラ3、3の姿勢データおよび一対のビデオカメラ3、3の三次元的な位置データが入力され、パーソナルコンピュータの画像処理部8は、これらのデータに基づいて、ステレオマッチングにより、地理座標上で表現される数値地表モデルであるDSMデータを作成するように構成されている。 The image processing unit 8 contains video data on the bottom of the water generated by the pair of video cameras 3 and 3, posture data of the pair of video cameras 3 and 3 detected by the GNSS / gyro device 5, and a pair of video cameras 3 and 3. The three-dimensional position data of the above is input, and the image processing unit 8 of the personal computer creates DSM data which is a numerical ground surface model expressed on geographic coordinates by stereo matching based on these data. It is configured.

図2に示されるように、水底観測システム1は、さらに、ビデオ編集機12、12と、同期信号を発生する同期信号発生装置14と、DSMデータを生成するDSMデータ生成部15と、DSMデータに基づいて、正射写真を生成する正射写真図生成部16を備えている。 As shown in FIG. 2, the water bottom observation system 1 further includes video editing machines 12 and 12, a synchronization signal generator 14 that generates a synchronization signal, a DSM data generation unit 15 that generates DSM data, and DSM data. The orthophotograph generation unit 16 for generating an orthophotograph is provided based on the above.

図3は、レーザ測距装置4のレーザビーム放出部の略斜視図である。 FIG. 3 is a schematic perspective view of the laser beam emitting portion of the laser ranging device 4.

図3に示されるように、レーザ測距装置4は、レーザビーム20をパルス状に放出するLEDレーザ光源21を備え、LEDレーザ光源21から放出されたレーザビーム20は、コリメータレンズ22に入射して、平行なビームに変換される。コリメータレンズ22によって平行なビームに変換されたレーザビーム20は拡散部材23に入射し、レーザビーム20は、拡散部材23によって、多数のレーザビーム25に分割されて、n×nのマトリックス状に、たとえば、128×128のマトリックス状に海底面に照射される。 As shown in FIG. 3, the laser ranging device 4 includes an LED laser light source 21 that emits a laser beam 20 in a pulse shape, and the laser beam 20 emitted from the LED laser light source 21 is incident on the collimator lens 22. Is converted into a parallel beam. The laser beam 20 converted into a parallel beam by the collimator lens 22 is incident on the diffusing member 23, and the laser beam 20 is divided into a large number of laser beams 25 by the diffusing member 23 to form an n × n matrix. For example, the bottom of the sea is irradiated in a matrix of 128 × 128.

拡散部材23としては、たとえば、Advanced Scientific Concepts, Inc.によって製造販売されている「3D Flash Lidar」(登録商標)に使われている拡散部材が好ましく使用される。 As the diffusion member 23, for example, the diffusion member used in "3D Flash Lidar" (registered trademark) manufactured and sold by Advanced Scientific Concepts, Inc. is preferably used.

図4は、レーザ測距装置4のレーザビーム受光部の略斜視図である。 FIG. 4 is a schematic perspective view of the laser beam receiving unit of the laser ranging device 4.

図4に示されるように、拡散部材23によって分割され、海底面によって反射されたレーザビーム45は、集光レンズ26によって集光されて、受光センサ27によって、光電的に検出される。 As shown in FIG. 4, the laser beam 45 divided by the diffusing member 23 and reflected by the seabed is condensed by the condenser lens 26 and photoelectrically detected by the light receiving sensor 27.

図5は、受光センサ27の略縦断面図であり、図5に示されるように、LEDレーザ光源21から放出されたレーザビーム20が海底面によって反射されて生成されたレーザビーム45を検出するまでの検出時間を感知するフォトセンサ28と海底面によって反射されたレーザビーム45の強度を検出するCCDセンサ29を備えている。 FIG. 5 is a schematic vertical sectional view of the light receiving sensor 27, and as shown in FIG. 5, the laser beam 20 emitted from the LED laser light source 21 detects the laser beam 45 generated by being reflected by the sea surface. It includes a photo sensor 28 that detects the detection time up to, and a CCD sensor 29 that detects the intensity of the laser beam 45 reflected by the bottom of the sea.

図6は、レーザ測距装置4の制御系および検出系のブロックダイアグラムである。 FIG. 6 is a block diagram of the control system and the detection system of the laser ranging device 4.

図6に示されるように、レーザ測距装置4は、レーザ光源21からパルス状にレーザビーム20を放出した時間と、そのレーザビーム20が海底面によって反射されて生成されたレーザビーム45が、フォトセンサ28によって受光された時間を記憶する第一のメモリ領域30Aと、レーザ光源21から放出されたレーザビーム20の強度とCCDセンサ29が検出したレーザビーム45の強度を記憶する第二のメモリ領域30Bを備えたRAM30を有している。 As shown in FIG. 6, in the laser ranging device 4, the time when the laser beam 20 is emitted from the laser light source 21 in a pulsed manner and the laser beam 45 generated by the laser beam 20 being reflected by the sea surface are set. A first memory area 30A that stores the time received by the photo sensor 28, and a second memory that stores the intensity of the laser beam 20 emitted from the laser light source 21 and the intensity of the laser beam 45 detected by the CCD sensor 29. It has a RAM 30 having an area 30B.

さらに、レーザ測距装置4は、RAM30の第一のメモリ領域30Aに記憶されたレーザ光源21からレーザビーム20が放出された時間および海底面によって反射されたレーザビーム45をフォトセンサ28が受光した時間ならびにレーザ光源21から放出されたレーザビーム20の強度およびCCDセンサ29が検出したレーザビーム45の強度に基づいて、海底面までの距離を算出するコントローラ31を備えている。 Further, in the laser ranging device 4, the photosensor 28 receives the time when the laser beam 20 is emitted from the laser light source 21 stored in the first memory area 30A of the RAM 30 and the laser beam 45 reflected by the sea surface. The controller 31 calculates the distance to the sea surface based on the time, the intensity of the laser beam 20 emitted from the laser light source 21, and the intensity of the laser beam 45 detected by the CCD sensor 29.

また、図6に示されるように、レーザ測距装置4は、レーザビーム20の照射によって得られたデータを処理するレーザデータ処理部10を備えている。 Further, as shown in FIG. 6, the laser ranging device 4 includes a laser data processing unit 10 that processes data obtained by irradiation of the laser beam 20.

レーザビーム20が拡散部材23によって分割されて、n×nのマトリックス状に海底面に照射された場合には、n×nのマトリックスの要素によって反射されたレーザビーム25をフォトセンサ28およびCCDセンサ29により光電検出することによって、その要素とレーザ光源21との距離を正確に算出することができ、したがって、n×nのマトリックスのすべての要素とレーザ光源21との距離を正確に算出することが可能になる。 When the laser beam 20 is divided by the diffusion member 23 and irradiates the sea surface in an n × n matrix, the laser beam 25 reflected by the n × n matrix elements is used as the photo sensor 28 and the CCD sensor. By photoelectric detection by 29, the distance between the element and the laser light source 21 can be accurately calculated, and therefore, the distance between all the elements of the n × n matrix and the laser light source 21 can be accurately calculated. Becomes possible.

図7は、図1ないし図6に示された本発明の好ましい実施態様にかかる水底観測システム1によって、海底を観測する処理を示すフローチャートである。 FIG. 7 is a flowchart showing a process of observing the seabed by the water bottom observation system 1 according to the preferred embodiment of the present invention shown in FIGS. 1 to 6.

オペレータによって、スタート信号がパーソナルコンピュータ9に入力されると、パーソナルコンピュータ9から同期信号発生装置14に駆動信号が出力されて、同期信号発生装置14から、一対のビデオカメラ3、3と、レーザ測距装置4と、GNSS/ジャイロ装置5と、コンバートソフトウエア35に同期信号が出力される。このとき、パーソナルコンピュータ9はレーザ光源21からレーザビーム20が放出された時間をレーザ測距装置4のRAM30内の第一のメモリ領域30A内に格納するとともに、レーザ光源21から放出されたレーザビーム20の強度をレーザ測距装置7のRAM30内の第二のメモリ領域30B内に格納する。 When the start signal is input to the personal computer 9 by the operator, the drive signal is output from the personal computer 9 to the synchronization signal generator 14, and the synchronization signal generator 14 causes the pair of video cameras 3 and 3 and laser measurement. A synchronization signal is output to the distance device 4, the GNSS / gyro device 5, and the conversion software 35. At this time, the personal computer 9 stores the time when the laser beam 20 is emitted from the laser light source 21 in the first memory area 30A in the RAM 30 of the laser ranging device 4, and the laser beam emitted from the laser light source 21. The intensity of 20 is stored in the second memory area 30B in the RAM 30 of the laser ranging device 7.

同期信号を受けると、一対のビデオカメラ3、3は、撮影を開始し、海底面の撮影領域32、32のカラー画像が撮影される。 Upon receiving the synchronization signal, the pair of video cameras 3 and 3 start shooting, and color images of the shooting areas 32 and 32 on the seabed are shot.

一方、レーザ測距装置4は、レーザ光源21からパルス状にレーザビーム20を放出させ、コリメータレンズ22によって平行なビームに変換した後に、拡散部材23に入射させる。拡散部材23を通過させることによって、レーザビーム20は多数のレーザビーム25に、n×nのレーザビーム25、たとえば、128×128のレーザビーム25に分割されて、一対のビデオカメラ3、3の海底面の撮影領域32、32が重複している重複撮影領域33に照射され、重複撮影領域33内にn×nのマトリックス状照射部33Aが形成される。 On the other hand, the laser ranging device 4 emits the laser beam 20 in a pulse shape from the laser light source 21, converts it into a parallel beam by the collimator lens 22, and then causes the laser beam 20 to enter the diffusion member 23. By passing through the diffuser 23, the laser beam 20 is divided into a large number of laser beams 25 and n × n laser beams 25, for example, 128 × 128 laser beams 25, and the pair of video cameras 3 and 3 The overlapping imaging regions 33 where the imaging regions 32 and 32 on the sea surface overlap are irradiated, and an n × n matrix-like irradiation portion 33A is formed in the overlapping imaging regions 33.

海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45は、集光レンズ26によって集光されて、受光センサ27によって、光電的に検出される。 The laser beam 45 reflected by each of the n × n matrix-like irradiation units 33A on the seabed is focused by the condenser lens 26 and is photoelectrically detected by the light receiving sensor 27.

上述のように、受光センサ27は、海底面によって反射されたレーザビーム25の検出時間を検出するフォトセンサ28と海底面によって反射されたレーザビーム25の強度を検出するCCDセンサ29とによって構成されている。 As described above, the light receiving sensor 27 is composed of a photo sensor 28 that detects the detection time of the laser beam 25 reflected by the sea floor and a CCD sensor 29 that detects the intensity of the laser beam 25 reflected by the sea floor. ing.

フォトセンサ28は、海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45を検出したときに、レーザビーム45を検出した時間をRAM30内の第一のメモリ領域30A内に格納する。ここに、第一のメモリ領域30A内はn×nのマトリックス状照射部33Aに対応して、n×nのマトリックス状メモリ領域に分割されており、フォトセンサ28は、海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45の検出時間を、第一のメモリ領域30A内の対応するマトリックス状メモリ領域内に格納する。 When the photosensor 28 detects the laser beam 45 reflected by each of the n × n matrix-like irradiation units 33A on the seabed, the time during which the laser beam 45 is detected is set in the first memory area 30A in the RAM 30. Store in. Here, the inside of the first memory area 30A is divided into n × n matrix-like memory areas corresponding to the n × n matrix-like irradiation unit 33A, and the photosensor 28 is n × n on the seabed. The detection time of the laser beam 45 reflected by each of the matrix-shaped irradiation units 33A of the above is stored in the corresponding matrix-shaped memory area in the first memory area 30A.

一方、CCDセンサ29は、海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45の強度を検出し、海底面のn×nのマトリックス状照射部33Aの各々によって反射されたレーザビーム45の強度を、第二のメモリ領域30B内の対応するマトリックス状メモリ領域内に格納する。 On the other hand, the CCD sensor 29 detects the intensity of the laser beam 45 reflected by each of the n × n matrix-like irradiation units 33A on the seabed, and is reflected by each of the n × n matrix-like irradiation units 33A on the seabed. The intensity of the laser beam 45 is stored in the corresponding matrix-like memory area in the second memory area 30B.

次いで、コントローラ31がRAM30にアクセスして、第一のメモリ領域30A内のマトリックス状メモリ領域の各々に記憶されたレーザ光源21からレーザビーム20が放出された時間およびフォトセンサ28によってレーザビーム45が検出された時間、ならびに、第二のメモリ領域30B内のマトリックス状メモリ領域の各々に記憶されたレーザ光源42から放出されたレーザビーム20の強度およびCCDセンサ29が検出したレーザビーム45の強度に基づいて、海底面のn×nのマトリックス状照射部33Aの各々の水深データを算出する。 Next, the controller 31 accesses the RAM 30, and the time when the laser beam 20 is emitted from the laser light source 21 stored in each of the matrix-shaped memory areas in the first memory area 30A and the time when the laser beam 20 is emitted by the photosensor 28 and the laser beam 45 are generated by the photosensor 28. The detected time and the intensity of the laser beam 20 emitted from the laser light source 42 stored in each of the matrix-shaped memory areas in the second memory area 30B and the intensity of the laser beam 45 detected by the CCD sensor 29. Based on this, the water depth data of each of the n × n matrix-like irradiation unit 33A on the sea surface is calculated.

同期信号に応答して、GNSS/ジャイロ装置5は、一対のビデオカメラ3、3の姿勢データと位置データを生成し、コンバートソフトウエア35を起動して、変換済み姿勢データおよび変換済み位置データを算出させる。 In response to the synchronization signal, the GNSS / gyro device 5 generates posture data and position data of the pair of video cameras 3 and 3, activates the conversion software 35, and converts the converted posture data and the converted position data. Let me calculate.

同期信号に応答して、一対のビデオカメラ3、3によって撮影された海底面の画像に対応する画像データはビデオレコーダ7、7に出力され、さらに、ビデオ編集機12、12によって、連番画像が生成される。次いで、別途、観測したカメラパラメータを用いて、焦点距離・レンズ歪みの補正が行われ、補正済みの左右連番画像(1/30秒毎のペア画像)が生成される。 In response to the synchronization signal, the image data corresponding to the image of the seabed taken by the pair of video cameras 3 and 3 is output to the video recorders 7 and 7, and further, the serial number images are output by the video editing machines 12 and 12. Is generated. Next, the focal length and lens distortion are separately corrected using the observed camera parameters, and the corrected left and right serial number images (pair images every 1/30 second) are generated.

ここに、カメラパラメータは、別途水槽内に設置したターゲットを水中ビデオカメラ3で撮影し、写真測量式を用いて、焦点距離・レンズ歪みを求めることによって、観測される。 Here, the camera parameters are observed by taking a picture of a target separately installed in the water tank with the underwater video camera 3 and obtaining the focal length and lens distortion using a photogrammetric formula.

次いで、補正済みの左右連番画像に対し、たとえば、テンプレートマッチングを実行して、横視差を算出する。 Next, for example, template matching is executed on the corrected left and right serial number images to calculate the lateral parallax.

こうして算出された横視差と、GNSS/ジャイロ装置5によって測定された位置データおよび姿勢データがコンバートソフトウェア35によって変換された一対のビデオカメラ3、3の変換済み位置データおよび変換済み姿勢データと、レンズの焦点距離とを用いて、標高値が算出され、第一の水深データが算出される。 The lateral perspective calculated in this way, the converted position data and the converted attitude data of the pair of video cameras 3 and 3 in which the position data and the attitude data measured by the GNSS / gyro device 5 are converted by the conversion software 35, and the lens. The altitude value is calculated using the focal length of, and the first water depth data is calculated.

次いで、補正済みの左右連番画像のうち、左画像または右画像の時間差を持つ補正済み連番画像(N−1)に、ビデオカメラ3、3の補正済み位置データおよび補正済み姿勢データを用いて、補正済み連番画像Nと同一座標上に幾何補正を行い、幾何補正済み連番画像(N−1)が作成される。 Next, among the corrected left and right serial number images, the corrected position data and the corrected posture data of the video cameras 3 and 3 are used for the corrected serial number image (N-1) having a time difference between the left image and the right image. Then, geometric correction is performed on the same coordinates as the corrected serial number image N, and the geometrically corrected serial number image (N-1) is created.

こうして得られた幾何補正済み連番画像(N−1)と補正済み連番画像Nに対して、たとえば、テンプレートマッチングを実行して、縦視差が算出される。 For example, template matching is executed on the geometrically corrected serial number image (N-1) and the corrected serial number image N thus obtained, and the vertical parallax is calculated.

次いで、こうして算出された縦視差と、GNSS/ジャイロ装置5によって測定された位置データおよび姿勢データがコンバートソフトウェア35によって変換された一対のビデオカメラ3、3の変換済み位置データおよび変換済み姿勢データと、レンズの焦点距離とを用いて、標高値が算出され、第二の水深データが算出される。 Next, the longitudinal focal length calculated in this way and the converted position data and converted posture data of the pair of video cameras 3 and 3 in which the position data and the posture data measured by the GNSS / gyro device 5 are converted by the conversion software 35. , The focal length of the lens is used to calculate the altitude value, and the second water depth data is calculated.

一方、レーザ測距装置4によって生成された距離データと、レーザ距離装置4の位置データおよび姿勢データと、レンズの焦点距離を用いて、第三の水深データが算出される。 On the other hand, the third water depth data is calculated using the distance data generated by the laser distance measuring device 4, the position data and the attitude data of the laser distance device 4, and the focal length of the lens.

こうして、第一の水深データ、第二の水深データおよび第三の水深データが算出されると、DSMデータ作成部15によって、DSMデータが作成される。 When the first water depth data, the second water depth data, and the third water depth data are calculated in this way, the DSM data creation unit 15 creates the DSM data.

すなわち、一対の水中ビデオカメラ3、3によって撮影した画像データに基づいて算出された第一の水深データおよび第二の水深データを主として用い、その補完用データとして、レーザ測距装置4によって生成された距離データに基づいて算出された第三の水深データを用いて、内挿・外挿計算により、DSMデータが作成される。 That is, the first water depth data and the second water depth data calculated based on the image data taken by the pair of underwater video cameras 3 and 3 are mainly used, and the complementary data is generated by the laser ranging device 4. DSM data is created by interpolation / extrapolation calculation using the third water depth data calculated based on the distance data.

DSMデータ作成部15によって作成されたDSMデータは、オルソ画像作成ソフトウエア40により、レンズ歪み補正済み連番画像を、レンズの焦点距離、変換済み位置データおよび変換済み姿勢データを用いて、正射投影され、水中におけるオルソフォトが作成される。 The DSM data created by the DSM data creation unit 15 is an orthographic image creation software 40 that uses the lens distortion-corrected serial number image to shoot the lens distortion-corrected serial number image using the focal length of the lens, the converted position data, and the converted posture data. It is projected and an orthophoto in water is created.

ここに、レーザ測距装置4によって生成された第三の水深データは、たとえば、n×nのマトリックス状の領域33Aの水深データで、さらに、重複撮影領域33を分割して、2n×2nのマトリックス状の領域33Aを生成し、それぞれの水深データを求めても、各領域33Aの大きさは、一対の水中ビデオカメラ3、3が撮影した画像の画素に比べて、はるかに大きいので、一対のビデオカメラ3、3が撮影した画像に基づいた計測精度に比して、精度が低く、したがって、本実施態様においては、レーザ測距装置4によって生成したマトリックス状の領域33Aの第三の水深データに基づいて、一対の水中ビデオカメラ3、3によって撮影した画像によって生成された第一の水深データおよび第二の水深データを補完するための補完用データを生成するように構成されている。 Here, the third water depth data generated by the laser ranging device 4 is, for example, the water depth data of the n × n matrix-shaped region 33A, and the overlapping imaging region 33 is further divided into 2n × 2n. Even if the matrix-shaped regions 33A are generated and the water depth data of each region is obtained, the size of each region 33A is much larger than the pixels of the images taken by the pair of underwater video cameras 3 and 3, so that the pair The accuracy is lower than the measurement accuracy based on the images taken by the video cameras 3 and 3, and therefore, in this embodiment, the third water depth of the matrix-like region 33A generated by the laser ranging device 4. Based on the data, it is configured to generate complementary data for complementing the first water depth data and the second water depth data generated by the images taken by the pair of underwater video cameras 3 and 3.

こうして、一対の水中ビデオカメラ3、3が撮影した画像に基づいて生成された第一の水深データおよび第二の水深データおよびレーザ測距装置4により生成された補完用データによって、撮影対象となる海底領域のDSMデータが生成される。本実施態様においては、一対の水中ビデオカメラ3、3によって、深海領域においても、視覚的に水底領域を観測することができる。しかし、水深がきわめて深い深海領域では、太陽光線が届かず、一対の水中ビデオカメラ3、3によって鮮明な水底画像を生成することが困難な場合が多々あるが、本実施態様においては、このように、レーザ測距装置4により、補完用データを生成しているから、一対の水中ビデオカメラ3、3によっては、鮮明な水底画像を生成することが困難な水深がきわめて深い深海領域においても、所望のように、水底の深さを求め、水底領域を測量し、水底を観測することが可能になる。 In this way, the first water depth data and the second water depth data generated based on the images captured by the pair of underwater video cameras 3 and 3 and the complementary data generated by the laser ranging device 4 are used as the imaging target. DSM data for the seafloor region is generated. In this embodiment, the underwater video cameras 3 and 3 can visually observe the bottom region even in the deep sea region. However, in a deep sea region where the water depth is extremely deep, it is often difficult for the pair of underwater video cameras 3 and 3 to generate a clear bottom image because the sun's rays do not reach it. In addition, since the laser ranging device 4 generates complementary data, even in a deep sea region where it is difficult to generate a clear bottom image with a pair of underwater video cameras 3 and 3, even in a deep sea region where the water depth is extremely deep. It is possible to determine the depth of the bottom of the water, measure the bottom area, and observe the bottom of the water as desired.

ここに、一対の水中ビデオカメラ3、3によって撮影された画像から正しく生成されたDSMデータがある海底領域に対しては、レーザ測距装置4によって生成した補完用データは適用されない。 Here, the complementary data generated by the laser ranging device 4 is not applied to the seafloor region where the DSM data correctly generated from the images taken by the pair of underwater video cameras 3 and 3 is present.

一方で、補正済み連番画像がDSMデータ上に重畳して投影される。 On the other hand, the corrected serial number image is superimposed and projected on the DSM data.

次いで、正射投影写真図作成部16は、オルソ画像作成ソフトウエア40を起動させ、こうして得られた画像を、コンバートソフトウエア40によって生成された変換済み位置データおよび変換済み姿勢データを用いて、正射投影をし、正射投影写真画像データが作成される。 Next, the orthographic projection photograph creation unit 16 activates the orthographic image creation software 40, and uses the converted position data and the converted posture data generated by the conversion software 40 to obtain the image obtained in this way. Orthographic projection is performed and orthographic projection photographic image data is created.

観測は、潜水艇2を観測計画線に沿って移動させつつ、以上のように、一対の水中ビデオカメラ3、3によって水底画像を撮影し、レーザ測距装置4によって水底との距離を測定するとともに、GNSS/ジャイロ装置5によって一対の水中ビデオカメラ3、3の撮影条件である視点位置と光軸方向を検出し、ビデオレコーダ7、7によって、両者を同期記録することによって実行される。 In the observation, while moving the submarine 2 along the observation plan line, the water bottom image is taken by the pair of underwater video cameras 3 and 3 as described above, and the distance to the water bottom is measured by the laser ranging device 4. At the same time, the GNSS / gyro device 5 detects the viewpoint position and the optical axis direction, which are the shooting conditions of the pair of underwater video cameras 3 and 3, and the video recorders 7 and 7 synchronously record both of them.

観測の終了後に、正射投影写真画像データは、潜水艇2に搭載されたパーソナルコンピュータ9の画像処理部8に入力され、あるいは、可搬メディアまたは無線伝送によって、地上に位置したパーソナルコンピュータ(図示せず)の画像処理部(図示せず)に入力されて、正射投影画像処理が実行される。 After the observation is completed, the orthographic projection photographic image data is input to the image processing unit 8 of the personal computer 9 mounted on the submarine 2, or is a personal computer located on the ground by portable media or wireless transmission (Fig. It is input to the image processing unit (not shown) of (not shown), and the orthogonal projection image processing is executed.

この画像処理出力は、水深が浅い浅海域の場合には、浅海域の珊瑚礁や浅瀬をカラーで視覚的に表すことによって、浅海域の珊瑚礁や浅瀬の状況を視覚的に分りやすく示すことができ、したがって、本実施態様によれば、浅海域の珊瑚礁や浅瀬の水中環境をカラーで面的に捉えることができるから、色の違いによる珊瑚礁や浅瀬の植生(藻)の成育状況を把握することが可能となる。 This image processing output can visually show the situation of coral reefs and shallow waters in shallow waters in an easy-to-understand manner by visually representing the coral reefs and shallow waters in shallow waters in shallow water. Therefore, according to this embodiment, the underwater environment of coral reefs and shallow waters in shallow waters can be grasped in color, so that the growth status of coral reefs and shallow water vegetation (algae) due to different colors can be grasped. Is possible.

また、本実施態様によれば、水底観測システム1は、可視光を検出する一対の水中ビデオカメラ3、3に加えて、水底までの距離を計測可能なレーザ測距装置4を備えているから、水深が深いために、太陽光線が届かず、明るさ不足しているため、可視光を検出する水中ビデオカメラ3、3によっては、精度よく、水底表面データを作成することができず、水中ビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合や、水質が汚濁しているために、可視光を検出する水中ビデオカメラ3、3よっては、精度よく、水底表面データを作成することができず、水中ビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合、可視光を検出する水中ビデオカメラ3、3によって水底を撮影するときに、陰になってしまい、精度よく、水底表面データを作成することができず、水中ビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合、太陽光線の陰りや夜明け/薄暮時、あるいは、コントラストがきわめて高く、そのために明るさが不足して十分な露光が得られない部分ができ、水中ビデオカメラ3、3によって得られる水底表面データの一部が欠損している場合、左右に配置された一対の水中ビデオカメラ3、3によって得られる水底表面画像の結合処理(画像マッチング処理)がうまく出来ずに、水底表面データの一部が欠損している場合にも、レーザ測距装置4によって水深までの距離を測定し、可視光を検出する水中ビデオカメラ3、3によって得られる水底表面データの欠損を補完することが可能になる。 Further, according to the present embodiment, the water bottom observation system 1 includes a pair of underwater video cameras 3 and 3 for detecting visible light, and a laser ranging device 4 capable of measuring the distance to the water bottom. Because the water depth is deep, the sun's rays do not reach and the brightness is insufficient, so some underwater video cameras 3 and 3 that detect visible light cannot accurately create water bottom surface data, and underwater. Underwater video cameras 3 and 3 that detect visible light due to a lack of part of the water bottom surface data obtained by the video cameras 3 and 3 or because the water quality is polluted may be accurate and accurate. When data cannot be created and some of the bottom surface data obtained by the underwater video cameras 3 and 3 is missing, when the water bottom is photographed by the underwater video cameras 3 and 3 that detect visible light, If the bottom surface data cannot be created accurately due to shadowing and part of the bottom surface data obtained by the underwater video cameras 3 and 3 is missing, the sun's rays will be shaded or dawn / twilight. Occasionally, or when the contrast is so high that there are areas where the brightness is insufficient and sufficient exposure cannot be obtained, and some of the water bottom surface data obtained by the underwater video cameras 3 and 3 is missing. Laser measurement even when a part of the bottom surface data is missing due to poor combination processing (image matching processing) of the bottom surface images obtained by the pair of underwater video cameras 3 and 3 arranged on the left and right. The distance device 4 measures the distance to the water depth, and it becomes possible to supplement the loss of the water bottom surface data obtained by the underwater video cameras 3 and 3 that detect the visible light.

さらに、本実施態様によれば、一対の水中ビデオカメラ3、3、レーザ測距装置4、GNSS/ジャイロ装置5が潜水艇2に搭載されているから、きわめて水深が深い深海の水底領域においても、一対のビデオカメラ3、3によって、水底画像を生成することができ、したがって、視覚的に水底領域を観測することが可能になる。 Further, according to the present embodiment, since the pair of underwater video cameras 3, 3 and the laser ranging device 4 and the GNSS / gyro device 5 are mounted on the submersible 2, even in a deep sea bottom region where the water depth is extremely deep. , A pair of video cameras 3 and 3 can generate an underwater image, thus making it possible to visually observe the underwater region.

加えて、きわめて水深が深い深海においては、太陽光線が届かず、明るさ不足しているため、一対の水中ビデオカメラ3、3によっては、鮮明な水底画像を生成することが困難である場合が多いが、本実施態様によれば、レーザ測距装置4によって、補完用のDSMデータが生成されるから、一対の水中ビデオカメラ3、3によっては、鮮明な水底画像を生成することが困難な深海領域においても、所望のように、水底の深さを求め、水底領域を測量し、水底を観測することが可能になる。 In addition, in the deep sea where the water depth is extremely deep, the sun's rays do not reach and the brightness is insufficient, so it may be difficult for a pair of underwater video cameras 3 and 3 to generate a clear bottom image. However, according to the present embodiment, since the laser ranging device 4 generates complementary DSM data, it is difficult for the pair of underwater video cameras 3 and 3 to generate a clear water bottom image. Even in the deep sea region, it is possible to obtain the depth of the water bottom, measure the water bottom region, and observe the water bottom as desired.

本発明は、以上の実施態様に限定されることなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることはいうまでもない。 The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施態様においては、一対の水中ビデオカメラが設けられているが、水中ビデオカメラの数は複数であればよく、2つに限定されるものではない。 For example, in the above embodiment, a pair of underwater video cameras is provided, but the number of underwater video cameras may be a plurality and is not limited to two.

また、前記実施態様においては、水底までの距離を計測するレーザ測距装置4は、レーザビーム20を多数のレーザビーム25に分割する拡散部材23、好ましくは、Advanced Scientific Concepts, Inc.によって製造販売されている「3D Flash Lidar」(登録商標)に用いられている拡散部材を備えているが、この種の拡散部材23を備えたレーザ測距装置4を用いることは必ずしも必要ではなく、ファイバー式のレーザ測距装置や走査型のレーザ測距装置などを用いることもできる。 Further, in the above embodiment, the laser ranging device 4 for measuring the distance to the bottom of the water is manufactured and sold by a diffusion member 23, preferably Advanced Scientific Concepts, Inc., which divides the laser beam 20 into a large number of laser beams 25. Although it is equipped with the diffusing member used in the "3D Flash Lidar" (registered trademark), it is not always necessary to use the laser ranging device 4 provided with this type of diffusing member 23, and it is a fiber type. A laser ranging device or a scanning type laser ranging device can also be used.

また、前記実施態様においては、海底が観測されているが、本発明は海底の観測に限定されるものではなく、湖沼などの水底の観測に広く用いることができる。 Further, in the above embodiment, the seabed is observed, but the present invention is not limited to the observation of the seabed, and can be widely used for the observation of the water bottom such as lakes and marshes.

1 水底観測システム
2 潜水艇
3 水中ビデオカメラ
4 レーザ測距装置
5 GNSS/ジャイロ装置
7 ビデオレコーダ
8 画像処理部
9 パーソナルコンピュータ
10 レーザデータ処理部
11 DSM作成部
12 ビデオ編集機
14 同期信号発生装置
15 DSM作成部
16 正射写真図作成部
18 正射投影画像データ処理部
20 レーザビーム
21 LEDレーザ光源
22 コリメータレンズ
23 拡散部材
25 レーザビーム
26 集光レンズ
27 受光センサ
28 フォトセンサ
29 CCDセンサ
30 RAM
30A 第一のメモリ領域
30B 第二のメモリ領域
31 コントローラ
32 一対のビデオカメラの撮影領域
33 重複撮影領域
33A マトリックス状の領域
35 コンバートソフトウエア
40 オルソ画像作成ソフトウエア
45 レーザビーム
1 Underwater observation system 2 Submersible boat 3 Underwater video camera 4 Laser ranging device 5 GNSS / gyro device 7 Video recorder 8 Image processing unit 9 Personal computer 10 Laser data processing unit 11 DSM creation unit 12 Video editing machine 14 Synchronous signal generator 15 DSM creation unit 16 Orthophotograph creation unit 18 Orthogonal projection image data processing unit 20 Laser beam 21 LED laser light source 22 Collimeter lens 23 Diffusing member 25 Laser beam
26 Condensing lens 27 Light receiving sensor 28 Photo sensor 29 CCD sensor 30 RAM
30A First memory area 30B Second memory area 31 Controller 32 Shooting area of a pair of video cameras 33 Overlapping shooting area 33A Matrix-shaped area 35 Conversion software 40 Ortho image creation software 45 Laser beam

Claims (3)

水中移動可能な潜水艇と、
前記潜水艇に搭載された可視光を連続的に検出する複数の水中カメラと、
レーザビームを放出し、海底面により反射されたレーザビームを受光して、海底面までの距離を前記複数の水中カメラと同期して連続的に計測可能なレーザ測距装置と、
前記複数の水中カメラおよび前記レーザ測距装置の姿勢を検出する姿勢センサと、
前記複数の水中カメラの撮影位置および前記レーザ測距装置の計測位置を検出するGNSSセンサと、
前記複数の水中カメラによって撮影された撮影画像データと前記姿勢センサによって検出された前記複数の水中カメラの姿勢データおよび前記GNSSセンサによって検出された前記複数の水中カメラの撮影位置データとを同期記録する収録手段と、
前記収録手段の記録画像を処理する画像処理手段を備え、
前記画像処理手段が、前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの姿勢データおよび撮影位置データに基づく画像処理によって地理座標を付与された水深データと、前記レーザ測距装置によって計測された水底までの距離を示す距離データと前記姿勢センサによって検出された前記レーザ測距装置の姿勢データとに基づいて作成された補完用データを用いて補完して、DSMデータを作成可能に構成され、
前記レーザ測距装置が、レーザビームを拡散させて、n×n本のレーザビームに分割し、海底面のn×nのマトリックス状領域に照射する拡散部材を備え、さらに、放出するレーザビームの放出時間と強度を記憶する記憶手段、前記海底面の前記マトリックス状領域によって反射されたレーザビームの検出時間を検出するフォトセンサと、前記海底面の前記マトリックス状領域によって反射された前記レーザビームの検出強度を検出するエリアセンサとを備え、前記記憶手段に記憶された前記レーザビームの前記放出時間および前記放出強度と、前記フォトセンサによって検出された前記レーザビームの前記検出時間と、前記エリアセンサによって検出された前記レーザビームとの検出強度に基づいて、前記海底面の前記マトリックス状領域までの距離を算出するように構成された受光センサを有している
ことを特徴とする水底観測システム。
A submersible that can move underwater and
A plurality of underwater cameras mounted on the submersible that continuously detect visible light,
A laser ranging device that emits a laser beam, receives a laser beam reflected by the seafloor, and can continuously measure the distance to the seafloor in synchronization with the plurality of underwater cameras.
A posture sensor that detects the postures of the plurality of underwater cameras and the laser ranging device, and
A GNSS sensor that detects the imaging position of the plurality of underwater cameras and the measurement position of the laser ranging device, and
Synchronized recording of captured image data captured by the plurality of underwater cameras, attitude data of the plurality of underwater cameras detected by the attitude sensor, and imaging position data of the plurality of underwater cameras detected by the GNSS sensor. Recording means and
An image processing means for processing the recorded image of the recording means is provided.
The image processing means obtains water depth data in which geographic coordinates are assigned by image processing based on the respective posture data and shooting position data for an overlapping range of a plurality of shot images taken by the underwater camera, and the laser ranging device. DSM data can be created by complementing using complementary data created based on the distance data indicating the distance to the bottom of the water measured by and the attitude data of the laser ranging device detected by the attitude sensor. Consists of
The laser ranging device includes a diffusing member that diffuses a laser beam, divides the laser beam into n × n laser beams, and irradiates an n × n matrix-like region on the sea surface , and further emits a laser beam. storage means for storing the release time and intensity, and a photo sensor for detecting the detection time of the laser beam reflected by said matrix area of the seafloor, the laser beam reflected by said matrix area of the seafloor The area sensor for detecting the detection intensity of the laser beam is provided, and the emission time and emission intensity of the laser beam stored in the storage means, the detection time of the laser beam detected by the photosensor, and the area. A water bottom observation system characterized by having a light receiving sensor configured to calculate the distance to the matrix-like region of the sea surface based on the detection intensity with the laser beam detected by the sensor. ..
前記複数の水中カメラがシャッター制御可能なビデオカメラにより構成され、前記複数のビデオカメラが左右に配置されていることを特徴とする請求項1に記載の水底観測システム。 The water bottom observation system according to claim 1, wherein the plurality of underwater cameras are composed of video cameras capable of shutter control, and the plurality of video cameras are arranged on the left and right sides. 前記姿勢センサと前記GNSSセンサが、GNSS/ジャイロ装置によって構成されたことを特徴とする請求項1または2のいずれか1項に記載の水底観測システム。 The water bottom observation system according to any one of claims 1 or 2, wherein the posture sensor and the GNSS sensor are configured by a GNSS / gyro device.
JP2019147702A 2014-11-18 2019-08-09 Underwater observation system Active JP6898396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019147702A JP6898396B2 (en) 2014-11-18 2019-08-09 Underwater observation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014233868A JP6940843B2 (en) 2014-11-18 2014-11-18 Underwater observation system
JP2019147702A JP6898396B2 (en) 2014-11-18 2019-08-09 Underwater observation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014233868A Division JP6940843B2 (en) 2014-11-18 2014-11-18 Underwater observation system

Publications (2)

Publication Number Publication Date
JP2019215364A JP2019215364A (en) 2019-12-19
JP6898396B2 true JP6898396B2 (en) 2021-07-07

Family

ID=68918620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019147702A Active JP6898396B2 (en) 2014-11-18 2019-08-09 Underwater observation system

Country Status (1)

Country Link
JP (1) JP6898396B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113655056B (en) * 2021-08-20 2024-05-03 重庆交通大学 River benthonic animal investigation and statistics method
CN114322777B (en) * 2022-01-20 2024-03-26 中交第一航务工程局有限公司 Underwater camera measurement and control system and method for immersed tube joint installation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002022830A (en) * 2000-07-07 2002-01-23 Omron Corp Apparatus for measuring distance and its method of measuring distance
JP2009047497A (en) * 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
US8547531B2 (en) * 2010-09-01 2013-10-01 The United States Of America As Represented By The Administrator Of The National Aeronautics Space Administration Imaging device
JP5979500B2 (en) * 2011-04-07 2016-08-24 パナソニックIpマネジメント株式会社 Stereo imaging device

Also Published As

Publication number Publication date
JP2019215364A (en) 2019-12-19

Similar Documents

Publication Publication Date Title
JP6940843B2 (en) Underwater observation system
JP6205465B2 (en) Shallow water observation system
EP2909811B1 (en) Improvements in and relating to gathering range and dimensional information underwater surveys
US10163213B2 (en) 3D point clouds
KR101652393B1 (en) Apparatus and Method for obtaining 3D image
CN110044300A (en) Amphibious 3D vision detection device and detection method based on laser
JP2017003593A5 (en)
CN107063117A (en) Underwater laser synchronous scanning range of triangle imaging system and method based on optical field imaging
KR20110052993A (en) Method and apparatus for compensating image
KR101554300B1 (en) Underwater image matching method
Ouyang et al. Visualization and image enhancement for multistatic underwater laser line scan system using image-based rendering
JP6898396B2 (en) Underwater observation system
JP7300895B2 (en) Image processing device, image processing method, program, and storage medium
JP2015141147A (en) Charting method by point group image, and charting device by point group image
CN105551068B (en) A kind of synthetic method of 3 D laser scanning and optical photograph
Bianco et al. Underwater 3D shape reconstruction by fringe projection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210610

R150 Certificate of patent or registration of utility model

Ref document number: 6898396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250