JP2018200221A - Water bottom observation system and water bottom observation image processing program - Google Patents

Water bottom observation system and water bottom observation image processing program Download PDF

Info

Publication number
JP2018200221A
JP2018200221A JP2017104797A JP2017104797A JP2018200221A JP 2018200221 A JP2018200221 A JP 2018200221A JP 2017104797 A JP2017104797 A JP 2017104797A JP 2017104797 A JP2017104797 A JP 2017104797A JP 2018200221 A JP2018200221 A JP 2018200221A
Authority
JP
Japan
Prior art keywords
image
blur
still
position information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017104797A
Other languages
Japanese (ja)
Other versions
JP6855651B2 (en
Inventor
勝紀 水野
Masaki Mizuno
勝紀 水野
昭 浅田
Akira Asada
昭 浅田
杉本 憲一
Kenichi Sugimoto
憲一 杉本
年弘 小川
Toshihiro Ogawa
年弘 小川
義徳 松本
Yoshinori Matsumoto
義徳 松本
ヒメネス レア
Jimenez Leia
ヒメネス レア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Windy Network Corp
University of Tokyo NUC
Original Assignee
Windy Network Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Windy Network Corp, University of Tokyo NUC filed Critical Windy Network Corp
Priority to JP2017104797A priority Critical patent/JP6855651B2/en
Publication of JP2018200221A publication Critical patent/JP2018200221A/en
Application granted granted Critical
Publication of JP6855651B2 publication Critical patent/JP6855651B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a water bottom observation system enabling a water bottom to be observed with a relatively simple configuration and a water bottom observation image processing program.SOLUTION: The water bottom observation system comprises: a sequential numbered still image conversion part 81 which converts each of a plurality of image data 11-1 photographed with a plurality of photographing means into a plurality of still images continuing along a time axis; a quantifying part 82 which quantifies a degree of blurring of the converted still-image; a low blurred image selection part 83 selects a low blurred image equal to or less than the predetermined value in degree of blurring from among the still image converted by the continuously numbered still-image conversion part 81 based on a degree of the quantified blurring; and a 3D object generation part 84 which generates a stereoscopic topographical map based on the selected still-image and external orientation data 12.SELECTED DRAWING: Figure 3

Description

本発明は、水底観測システム及び水底観測画像処理プログラムに関し、特に、比較的浅い水域の海底や湖沼等の水底を観測する水底観測システム及び水底観測画像処理プログラムに関する。    The present invention relates to a water bottom observation system and a water bottom observation image processing program, and more particularly, to a water bottom observation system and a water bottom observation image processing program for observing the bottom of a sea such as a seabed or a lake in a relatively shallow water area.

湖沼や沿岸部の浅水域の水底を観測することにより、例えば、珊瑚礁の状態やプラスチックゴミ等の有無など環境の変化を認知することができる。  By observing the bottom of lakes and coastal shallow waters, it is possible to recognize environmental changes such as the state of coral reefs and the presence or absence of plastic debris.

水底を観測する方法としては、水面を走行移動可能に支持した音響測深機による観測方法(例えば、特許文献1参照)や、水中移動可能に曳航支持したビデオカメラによる観測方法(例えば、特許文献2参照)、水底画像情報を取得して画像処理する観測方法(例えば、特許文献3参照)等がある。    As a method of observing the bottom of the water, an observation method using an acoustic sounding instrument that supports the water surface so as to be able to travel and move (see, for example, Patent Document 1), and an observation method using a video camera that supports towing that can move underwater (for example, Patent Document 2) And an observation method (for example, refer to Patent Document 3) for acquiring water bottom image information and performing image processing.

特開2003−4845号公報JP 2003-4845 A 特許第4173027号公報Japanese Patent No. 4173027 特許第5989719号公報Japanese Patent No. 5998719

ところで、水底の観測を行う場合、その観測対象となる水底は様々な場所に存在し、当然のことながら、離島や無人島の周辺の海域や山中の湖底なども含むこととなる。したがって、水底を観測するための観測システムは、運搬や組み立て等を容易に行うことができるものであることが望ましいことは明らかである。    By the way, when observing the bottom of the water, the bottom of the water to be observed exists in various places, and of course, it includes sea areas around remote islands and uninhabited islands and lake bottoms in mountains. Therefore, it is clear that the observation system for observing the bottom of the water is desirably one that can be easily transported and assembled.

そこで、本発明は、比較的簡易な構成で水底の観測を行うことのできる水底観測システム及び水底観測画像処理プログラムを提供することを目的とする。    Therefore, an object of the present invention is to provide a water bottom observation system and a water bottom observation image processing program capable of performing water bottom observation with a relatively simple configuration.

上述した目的を達成するため、請求項1の発明は、水上に浮遊する浮体部と支持部を介して接続され、該支持部により水中の所定の深度に固定されるとともに、前記浮体部の移動に伴って水中を移動して動画像を撮影する複数の撮影手段と、全球測位衛星システムの衛星から受信した信号に基づいて前記撮影手段の位置情報を記録する位置記録手段と、前記撮影手段が撮影した動画像と前記位置記録手段が記録した位置情報とに基づいて立体の地形図を生成する画像処理手段とを具備し、前記画像処理手段は、前記撮影手段が撮影した動画像を時間軸に沿って連続する複数の静止画像に変換する静止画変換手段と、前記静止画変換手段が変換した静止画像のブレの度合いを定量化する画像ブレ定量化手段と、前記画像ブレ定量化手段が定量化したブレの度合いに基づいて前記静止画変換手段が変換した静止画像からブレの度合いが所定の値以下の低ブレ画像を選択する低ブレ画像選択手段と、前記低ブレ画像選択手段が選択した静止画像と前記位置記録手段が記録した位置情報とに基づいて立体の地形図を生成する地形図生成手段とを具備することを特徴とする。    In order to achieve the above-mentioned object, the invention of claim 1 is connected to a floating body part floating on water via a support part, and fixed to a predetermined depth in water by the support part, and the movement of the floating body part A plurality of photographing means for moving in the water to photograph a moving image, a position recording means for recording position information of the photographing means based on a signal received from a satellite of a global positioning satellite system, and the photographing means Image processing means for generating a three-dimensional topographic map based on the captured moving image and the position information recorded by the position recording means, wherein the image processing means takes the moving image taken by the photographing means as a time axis. A still image converting means for converting to a plurality of still images continuous along the image, an image blur quantifying means for quantifying the degree of blurring of the still image converted by the still image converting means, and the image blur quantifying means, Quantification A low-blur image selection unit that selects a low-blur image with a blur degree of a predetermined value or less from the still image converted by the still image conversion unit based on the degree of blurring, and the still-blown image selected by the low-blur image selection unit And a topographic map generating means for generating a three-dimensional topographic map based on the image and the position information recorded by the position recording means.

また、請求項2の発明は、請求項1の発明において、前記撮影手段は、各々全球測位衛星システムの衛星から受信した信号に基づいて位置情報を特定する位置情報特定手段を具備し、該位置情報特定手段で動画像の撮影開始時の位置情報を特定し、該特定した位置情報を該動画像に付加し、前記画像処理手段は、前記動画像に付加された位置情報に基づいて立体の地形図を生成することを特徴とする。    According to a second aspect of the present invention, in the first aspect of the present invention, each of the photographing means includes position information specifying means for specifying position information based on a signal received from a satellite of the global positioning satellite system. The information specifying means specifies position information at the start of shooting a moving image, adds the specified position information to the moving image, and the image processing means adds a three-dimensional image based on the position information added to the moving image. A topographic map is generated.

また、請求項3の発明は、請求項1の発明において、前記撮影手段に撮影の開始を指示する同期信号を生成する同期信号生成手段をさらに具備することを特徴とする。    According to a third aspect of the present invention, in the first aspect of the present invention, the method further comprises a synchronization signal generating means for generating a synchronization signal that instructs the photographing means to start photographing.

また、請求項4の発明は、複数の撮影手段により撮影された複数の動画像の各々を時間軸に沿って連続する複数の静止画像に変換する静止画変換処理と、前記静止画変換処理で変換した静止画像のブレの度合いを定量化する画像ブレ定量化処理と、前記画像ブレ定量化処理で定量化したブレの度合いに基づいて前記静止画変換処理で変換した静止画像からブレの度合いが所定の値以下の低ブレ画像を選択する低ブレ画像選択処理と、前記低ブレ画像選択処理で選択した静止画像と全球測位衛星システムの衛星から受信した信号に基づいて生成された前記撮影手段の位置情報とに基づいて立体の地形図を生成する地形図生成処理とをコンピュータに実行させることを特徴とする。    According to a fourth aspect of the present invention, there is provided still image conversion processing for converting each of a plurality of moving images photographed by a plurality of photographing means into a plurality of still images continuous along a time axis, and the still image conversion processing. An image blur quantification process for quantifying the degree of blur of the converted still image, and a degree of blur from the still image converted by the still image conversion process based on the degree of blur quantified by the image blur quantification process. A low-blur image selection process for selecting a low-blur image of a predetermined value or less, a still image selected by the low-blur image selection process, and a signal received from a satellite of a global positioning satellite system. The computer is caused to execute topographic map generation processing for generating a three-dimensional topographic map based on the position information.

本発明によれば、比較的簡易な構成で水底の観測を行うことが可能となるため、機材の搬入等が困難な地域においても、水底の観測を行うことができる。    According to the present invention, since it is possible to observe the bottom of the water with a relatively simple configuration, it is possible to observe the bottom of the water even in a region where it is difficult to carry in equipment or the like.

水底観測システムの概略構成を示した図である。It is the figure which showed schematic structure of the water bottom observation system. 画像データの生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of image data. 画像処理部8による画像処理を説明するための図である。It is a figure for demonstrating the image processing by the image process part. 静止画像の画像ブレの度合いの定量化の例を説明するための図である。It is a figure for demonstrating the example of quantification of the image blurring degree of a still image. 実施例2における画像データの生成方法を説明するための図である。FIG. 10 is a diagram for explaining a method of generating image data in the second embodiment.

以下、本発明に係る水底観測システム及び水底観測画像処理プログラムの一実施の形態について、添付図面を参照して詳細に説明する。    Hereinafter, an embodiment of a water bottom observation system and a water bottom observation image processing program according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、水底観測システムの概略構成を示した図である。同図に示すように、水底観測システム1は、浮体部2と支持部3、整流部4、撮影部5、曳航部6を含んで構成される。また、図1では省略しているが、水底観測システムは、GPS受信部と画像処理部も含んで構成される。    FIG. 1 is a diagram showing a schematic configuration of a water bottom observation system. As shown in FIG. 1, the water bottom observation system 1 includes a floating body part 2, a support part 3, a rectification part 4, a photographing part 5, and a towing part 6. Although omitted in FIG. 1, the water bottom observation system includes a GPS receiver and an image processor.

浮体部2は、水上に浮かぶもので支持部3を所定の位置に固定するとともに、曳航部6により曳航されて移動するものである。この浮体部2は、専用のものを用いることができるが、サーフボード等の汎用のものを用いることができ、例えば、観測場所の状態に合わせてサーフボードの形状やフィンの種類等を選択することで、観測時の撮影部5の動揺を低減することが可能となる。    The floating part 2 floats on the water and fixes the support part 3 at a predetermined position, and is towed and moved by the towing part 6. The floating body 2 can be a dedicated one, but a general-purpose one such as a surfboard can be used. For example, by selecting the shape of the surfboard and the type of fin according to the state of the observation place It is possible to reduce the shaking of the photographing unit 5 during observation.

支持部3は、浮体部2に接続され、観測時に撮影部5を水中に垂下して固定するもので、例えば、金属や樹脂、木材等で構成されるものである。また、支持部3は、浮体部2に接続された際に垂直方向に位置する部分の長さを可変にするか、異なる長さのものに交換することで、観測時に撮影部5が位置する水深を任意に変更することが可能である。    The support part 3 is connected to the floating body part 2 and hangs the photographing part 5 underwater during observation, and is made of, for example, metal, resin, wood, or the like. Further, when the support unit 3 is connected to the floating body unit 2, the length of the portion positioned in the vertical direction can be made variable or replaced with a different length so that the imaging unit 5 is positioned at the time of observation. It is possible to change the water depth arbitrarily.

整流部4は、布状の繊維等であり、観測時に水流を整流するものであり、観測時の撮影部5の動揺を低減する。    The rectifying unit 4 is a cloth-like fiber or the like, and rectifies the water flow at the time of observation, and reduces the shaking of the photographing unit 5 at the time of observation.

撮影部5は、観測時に水底の動画を撮影して画像データを出力するものであり、例えば、デジタルカメラ等が用いられる。また、撮影部5は、全球測位衛星システム(GNSS:Global Navigation Satellite System)、例えば、GPS(Global Positioning System)衛星からの信号を受信し、撮影場所の位置情報を動画に付加することができるものである。なお、撮影部5は、複数であれば数に制限は無く、複数の撮影部5が支持部3に固定されることで、複数の撮影部5は、観測時に同一方向に略同一深度で移動することとなる。    The imaging unit 5 captures a moving image of the water bottom during observation and outputs image data. For example, a digital camera or the like is used. The photographing unit 5 can receive a signal from a global navigation satellite system (GNSS), for example, a GPS (Global Positioning System) satellite, and add position information of the photographing location to the moving image. It is. Note that the number of the imaging units 5 is not limited as long as it is a plurality, and the plurality of imaging units 5 are fixed to the support unit 3 so that the plurality of imaging units 5 move in the same direction at substantially the same depth during observation. Will be.

曳航部6は、支持部3が接続された浮体部2を曳航するもので、動力を有するボート等を利用することができる。    The towing part 6 tows the floating part 2 to which the support part 3 is connected, and a powered boat or the like can be used.

また、図示しないGPS受信部は、GPS受信装置を含むパーソナルコンピュータやタブレット端末等の汎用のコンピュータを用いて構成される。    A GPS receiver (not shown) is configured using a general-purpose computer such as a personal computer or a tablet terminal including a GPS receiver.

また、図示しない画像処理部は、パーソナルコンピュータ等の汎用のコンピュータを用いて構成されるもので、撮影部5が出力する画像データの処理を行う。画像処理部と撮影部5は、無線または有線による通信を行って画像データの授受を行うようにしてもよく、撮影部5が生成した画像データを記憶媒体等を介して画像処理部に受け渡すようにしてもよい。    An image processing unit (not shown) is configured using a general-purpose computer such as a personal computer, and processes image data output from the photographing unit 5. The image processing unit and the photographing unit 5 may perform image data exchange by performing wireless or wired communication, and transfer the image data generated by the photographing unit 5 to the image processing unit via a storage medium or the like. You may do it.

次に、撮影部5の詳細と撮影部5による画像データの生成について説明する。図2は、画像データの生成方法を説明するための図である。    Next, details of the photographing unit 5 and generation of image data by the photographing unit 5 will be described. FIG. 2 is a diagram for explaining a method of generating image data.

同図に示すように、撮影部5は、GPS受信部51を有しており、動画像を撮影するとともに、GPS信号10に基づいてGPS受信部51が撮影場所を特定し、特定した場所の位置情報を時刻情報とともに撮影した動画像と関連付けてデータ化して、画像データ11(図2においては、撮影部5の数が6であるものとし、同図中では画像データ11−1と画像データ11−6を示し、他を省略している)として出力または記録媒体へ記録する。なお、GPS信号10に基づく位置情報の特定は、動画の撮影開始時に行う。    As shown in the figure, the photographing unit 5 has a GPS receiving unit 51, photographs a moving image, identifies the photographing location based on the GPS signal 10, and the location of the identified location. The position information is converted into data by associating it with the moving image taken together with the time information, and the image data 11 (in FIG. 2, the number of photographing units 5 is six. In FIG. 11-6 is shown, and others are omitted) or recorded on the recording medium. The location information based on the GPS signal 10 is specified at the start of moving image shooting.

また、撮影部5による撮影時には、別途、GPS受信部7がGPS信号10に基づいて撮影場所を特定し、特定した場所の位置情報を時刻情報とともに記録し、外部標定データ12を生成する。なお、GPS受信部7は、支持部3に固定してGPS信号を受信するようにしてもよく、曳航部6に載置してGPS信号を受信するようにしてもよい。    Further, at the time of photographing by the photographing unit 5, the GPS receiving unit 7 separately identifies the photographing location based on the GPS signal 10, records the location information of the identified location together with the time information, and generates the external orientation data 12. The GPS receiving unit 7 may be fixed to the support unit 3 to receive GPS signals, or may be placed on the towing unit 6 to receive GPS signals.

このようにして生成された画像データ11−1等と外部標定データ12は、画像処理部8に入力され、画像処理される。    The image data 11-1 and the like and the external orientation data 12 generated in this way are input to the image processing unit 8 and subjected to image processing.

次に、画像処理部8による画像処理について説明する。図3は、画像処理部8による画像処理を説明するための図である。    Next, image processing by the image processing unit 8 will be described. FIG. 3 is a diagram for explaining image processing by the image processing unit 8.

同図に示すように、画像処理部8は、連番静止画変換部81と、画像ブレ定量化部82、低ブレ画像選択部83、3Dオブジェクト生成部84を有する。このうち、連番静止画変換部81と、画像ブレ定量化部82、低ブレ画像選択部83は、画像処理部8に入力される画像データ11の数、つまり、撮影部5と同数となる複数を有する。なお、連番静止画変換部81と、画像ブレ定量化部82、低ブレ画像選択部83を複数有するのは、複数の画像データ11を並列処理する場合の例であり、複数の画像データ11を順次処理する場合には、連番静止画変換部81と、画像ブレ定量化部82、低ブレ画像選択部83は、複数である必要はない。    As shown in the figure, the image processing unit 8 includes a sequential still image conversion unit 81, an image blur quantification unit 82, a low blur image selection unit 83, and a 3D object generation unit 84. Among these, the serial number still image conversion unit 81, the image blur quantification unit 82, and the low blur image selection unit 83 have the same number as the number of image data 11 input to the image processing unit 8, that is, the number of photographing units 5. Have multiple. Note that the plurality of serial still image conversion units 81, the image blur quantification unit 82, and the low blur image selection unit 83 are examples in the case of processing a plurality of image data 11 in parallel. Are sequentially processed, it is not necessary that the serial number still image conversion unit 81, the image blur quantification unit 82, and the low blur image selection unit 83 are plural.

連番静止画変換部81は、画像データ11−1等の動画像を連続する静止画像に変換する。連続とは、一定の時間間隔で、その時刻順に連続するという意味である。また、変換した最初の静止画像には、変換元の動画像に関連付けられていた位置情報を関連付け、以後変換した各静止画像には、動画像の開始時刻からの経過時刻を関連付ける。    The serial number still image conversion unit 81 converts a moving image such as the image data 11-1 into a continuous still image. The term “continuous” means that it is continuous in the order of time at a constant time interval. In addition, the converted first still image is associated with position information associated with the moving image of the conversion source, and each converted still image is associated with the elapsed time from the start time of the moving image.

画像ブレ定量化部82は、連番静止画変換部81が変換した静止画像の画像ブレの度合いを定量化する。静止画像の画像ブレは、撮影部5の動揺等により生じるものである。静止画像の画像ブレの度合いの定量化は、例えば、静止画像を空間領域から空間周波数領域へ変換し、この変換により得られた空間スペクトルに基づいて行う。    The image blur quantification unit 82 quantifies the degree of image blur of the still image converted by the serial number still image conversion unit 81. The image blur of the still image is caused by the shaking of the photographing unit 5 or the like. For example, the degree of image blurring of a still image is quantified based on the spatial spectrum obtained by converting the still image from the spatial domain to the spatial frequency domain.

静止画像を空間領域から空間周波数領域へ変換した場合、例えば、図4(a)に示すようなブレのある画像を空間領域から空間周波数領域へ変換した場合には、その変換で得られる空間スペクトルは、図4(b)に示すように、楕円状の模様として表わされるものとなる。    When a still image is converted from the spatial domain to the spatial frequency domain, for example, when a blurred image as shown in FIG. 4A is converted from the spatial domain to the spatial frequency domain, the spatial spectrum obtained by the conversion Is represented as an elliptical pattern, as shown in FIG.

一方、図4(c)に示すようなブレの無い画像を空間領域から空間周波数領域へ変換した場合には、その変換で得られる空間スペクトルは、図4(d)に示すように、正円に近い円状の模様として表わされるものとなる。    On the other hand, when a blur-free image as shown in FIG. 4C is converted from the spatial domain to the spatial frequency domain, the spatial spectrum obtained by the conversion is a perfect circle as shown in FIG. It is expressed as a circular pattern close to.

したがって、静止画像を空間領域から空間周波数領域へ変換し、変換により得られた空間スペクトルにより表わされる円状の模様の離心率を求めることで静止画像の画像ブレの度合いを定量化することができる。    Therefore, the degree of image blur of the still image can be quantified by converting the still image from the spatial domain to the spatial frequency domain and obtaining the eccentricity of the circular pattern represented by the spatial spectrum obtained by the conversion. .

なお、静止画像の画像ブレの度合いの定量化は、別の方法によって行うようにしてもよい。    Note that the quantification of the degree of image blur of a still image may be performed by another method.

低ブレ画像選択部83は、画像ブレ定量化部82により定量化された画像ブレの度合いに基づいて、画像ブレが所定の度合い以下の静止画像を選択する。    Based on the degree of image blur quantified by the image blur quantification unit 82, the low blur image selection unit 83 selects a still image having an image blur of a predetermined level or less.

3Dオブジェクト生成部84は、低ブレ画像選択部83が選択した画像ブレが所定の度合い以下の静止画像に基づいて3Dオブジェクト、つまり、立体の地形図を生成する。3Dオブジェクトの生成は、例えば、SFM(structure from motion)と称するアルゴリズムを用いる。この3Dオブジェクトの生成にさいしては、静止画像に関連付けられている位置情報または経過時刻を用いるとともに、外部標定データ12を用いる。    The 3D object generation unit 84 generates a 3D object, that is, a three-dimensional topographic map, based on a still image in which the image blur selected by the low blur image selection unit 83 is a predetermined degree or less. For generating the 3D object, for example, an algorithm called SFM (structure from motion) is used. In generating the 3D object, the position information or the elapsed time associated with the still image is used, and the external orientation data 12 is used.

なお、画像ブレ定量化部82による静止画像の画像ブレの度合いの定量化の方法や3Dオブジェクト生成部84による3Dオブジェクトの生成の方法は一例であり、他の方法により行うことも可能である。    Note that the method of quantifying the degree of image blur of a still image by the image blur quantifying unit 82 and the method of generating a 3D object by the 3D object generating unit 84 are examples, and can be performed by other methods.

実施例1では、撮影部5がGPS受信部51を有する場合の例を説明したが、実施例2では、撮影部がGPS受信部を有さない場合の例を説明する。図5は、実施例2における画像データの生成方法を説明するための図である。    In the first embodiment, an example in which the photographing unit 5 includes the GPS receiving unit 51 has been described. In the second embodiment, an example in which the photographing unit does not include the GPS receiving unit will be described. FIG. 5 is a diagram for explaining a method of generating image data according to the second embodiment.

同図に示すように、撮影部5’は、同期信号発生部9が発生する同期信号を受信し、この同期信号の受信に応じて撮影を開始する。これにより、各撮影部5’が撮影して生成した画像データ13(図5においては、撮影部5’の数が6であるものとし、同図中では画像データ13−1と画像データ13−2、画像データ13−6を示し、他を省略している)は、全て同時刻に撮影が開始されたものとなる。    As shown in the figure, the imaging unit 5 'receives the synchronization signal generated by the synchronization signal generation unit 9, and starts imaging in response to reception of this synchronization signal. As a result, the image data 13 photographed and generated by each photographing unit 5 ′ (in FIG. 5, it is assumed that the number of photographing units 5 ′ is six. In FIG. 5, image data 13-1 and image data 13- 2, the image data 13-6 is shown and the others are omitted), all of which are shot at the same time.

同期信号発生部9が発生する同期信号は、有線や無線のいずれを用いて撮影部5’に入力するようにしてもよく、例えば、Wi−FiやBluetooth(登録商標)規格に準じた無線を用いることで、撮影部5’の構成を簡易にすることができる。    The synchronization signal generated by the synchronization signal generation unit 9 may be input to the photographing unit 5 ′ using either wired or wireless communication. For example, the wireless signal conforming to Wi-Fi or Bluetooth (registered trademark) standards may be used. By using it, the configuration of the photographing unit 5 ′ can be simplified.

また、同期信号発生部9は、GPS受信部91を有し、GPS受信部91がGPS信号10に基づいて撮影場所を特定し、特定した場所の位置情報を時刻情報とともに記録し、外部標定データ13を生成する。記録する時刻情報には、同期信号を発生した時刻も含む。なお、同期信号発生部9は、支持部3に固定してGPS信号を受信するようにしてもよく、曳航部6に載置してGPS信号を受信するようにしてもよい。なお、同期信号発生部9は、GPS受信装置を含むパーソナルコンピュータやタブレット端末等の汎用のコンピュータを用いて構成される。    The synchronization signal generator 9 has a GPS receiver 91. The GPS receiver 91 specifies a shooting location based on the GPS signal 10, records the location information of the specified location together with time information, and external orientation data. 13 is generated. The time information to be recorded includes the time when the synchronization signal is generated. The synchronization signal generation unit 9 may be fixed to the support unit 3 to receive GPS signals, or may be placed on the towing unit 6 to receive GPS signals. The synchronization signal generator 9 is configured using a general-purpose computer such as a personal computer or a tablet terminal including a GPS receiver.

このようにして生成された画像データ13−1等と外部標定データ12は、画像処理部8に入力され、画像処理される。    The image data 13-1 and the like and the external orientation data 12 generated in this way are input to the image processing unit 8 and subjected to image processing.

画像処理部8による画像処理は、実施例1の場合とほぼ同様であるが、連番静止画変換部81は、画像データ13−1等の動画像を連続する静止画像に変換する際に、変換した各静止画像には、動画像の開始時刻からの経過時刻を関連付け、3Dオブジェクト生成部84は、静止画像に関連付けられている経過時刻を用いるとともに、外部標定データ13を用いて処理を行う。    The image processing by the image processing unit 8 is almost the same as in the case of the first embodiment, but the serial number still image conversion unit 81 converts a moving image such as the image data 13-1 into a continuous still image. Each converted still image is associated with an elapsed time from the start time of the moving image, and the 3D object generation unit 84 uses the elapsed time associated with the still image and performs processing using the external orientation data 13. .

また、撮影部がGPS受信部を有さない場合の例としては、同期信号発生部9の使用に変えて、使用する全ての撮影部5’の録画開始スイッチを機械的に同時に押すように操作するようにしても良い。このような操作を行うことでも、同様の動画像を得ることができる。なお、同期信号発生部9を用いない場合には、実施例1で説明したGPS受信部7を用いることとなる。   In addition, as an example in the case where the photographing unit does not have a GPS receiving unit, instead of using the synchronization signal generating unit 9, an operation is performed so that the recording start switches of all the photographing units 5 ′ used are mechanically pressed simultaneously. You may make it do. A similar moving image can be obtained by performing such an operation. If the synchronization signal generator 9 is not used, the GPS receiver 7 described in the first embodiment is used.

1 水底観測システム
2 浮体部
3 支持部
4 整流部
5 撮影部
5’ 撮影部
6 曳航部
7 GPS受信部
8 画像処理部
9 同期信号発生部
10 GPS信号
11−1〜11−6 画像データ
12 外部標定データ
13−1〜13−6 画像データ
51 GPS受信部
81 連番静止画変換部
82 画像ブレ定量化部
83 低ブレ画像選択部
84 3Dオブジェクト生成部
91 GPS受信部
DESCRIPTION OF SYMBOLS 1 Water bottom observation system 2 Floating body part 3 Support part 4 Rectification part 5 Image | photographing part 5 'Image | photographing part 6 Towing part 7 GPS receiving part 8 Image processing part 9 Synchronization signal generating part 10 GPS signal 11-1 to 11-6 Image data 12 External Orientation data 13-1 to 13-6 Image data 51 GPS receiver 81 Serial number still image converter 82 Image blur quantifier 83 Low blur image selector 84 3D object generator 91 GPS receiver

Claims (4)

水上に浮遊する浮体部と支持部を介して接続され、該支持部により水中の所定の深度に固定されるとともに、前記浮体部の移動に伴って水中を移動して動画像を撮影する複数の撮影手段と、
全球測位衛星システムの衛星から受信した信号に基づいて前記撮影手段の位置情報を記録する位置記録手段と、
前記撮影手段が撮影した動画像と前記位置記録手段が記録した位置情報とに基づいて立体の地形図を生成する画像処理手段と
を具備し、
前記画像処理手段は、
前記撮影手段が撮影した動画像を時間軸に沿って連続する複数の静止画像に変換する静止画変換手段と、
前記静止画変換手段が変換した静止画像のブレの度合いを定量化する画像ブレ定量化手段と、
前記画像ブレ定量化手段が定量化したブレの度合いに基づいて前記静止画変換手段が変換した静止画像からブレの度合いが所定の値以下の低ブレ画像を選択する低ブレ画像選択手段と、
前記低ブレ画像選択手段が選択した静止画像と前記位置記録手段が記録した位置情報とに基づいて立体の地形図を生成する地形図生成手段と
を具備する
ことを特徴とする水底観測システム。
A plurality of floating bodies floating on the water are connected to and supported by the support section, fixed to a predetermined depth in the water by the support section, and moving in the water as the floating body moves to capture a moving image. Photographing means;
Position recording means for recording position information of the photographing means based on a signal received from a satellite of a global positioning satellite system;
Image processing means for generating a three-dimensional topographic map based on the moving image photographed by the photographing means and the position information recorded by the position recording means,
The image processing means includes
A still image converting means for converting the moving image taken by the photographing means into a plurality of still images continuous along the time axis;
Image blur quantifying means for quantifying the degree of blur of the still image converted by the still image converting means;
A low blur image selection unit that selects a low blur image having a blur level of a predetermined value or less from the still image converted by the still image conversion unit based on the blur level quantified by the image blur quantification unit;
A water bottom observation system comprising: a topographic map generation unit that generates a three-dimensional topographic map based on the still image selected by the low blur image selection unit and the position information recorded by the position recording unit.
前記撮影手段は、各々全球測位衛星システムの衛星から受信した信号に基づいて位置情報を特定する位置情報特定手段を具備し、該位置情報特定手段で動画像の撮影開始時の位置情報を特定し、該特定した位置情報を該動画像に付加し、
前記画像処理手段は、前記動画像に付加された位置情報に基づいて立体の地形図を生成する
ことを特徴とする請求項1に記載の水底観測システム。
The photographing means includes position information specifying means for specifying position information based on signals received from the satellites of the global positioning satellite system, and the position information specifying means specifies position information at the start of moving image shooting. , Adding the specified position information to the moving image,
The water bottom observation system according to claim 1, wherein the image processing unit generates a three-dimensional topographic map based on position information added to the moving image.
前記撮影手段に撮影の開始を指示する同期信号を生成する同期信号生成手段をさらに具備することを特徴とする請求項1に記載の水底観測システム。    The water bottom observation system according to claim 1, further comprising synchronization signal generation means for generating a synchronization signal for instructing the imaging means to start imaging. 複数の撮影手段により撮影された複数の動画像の各々を時間軸に沿って連続する複数の静止画像に変換する静止画変換処理と、
前記静止画変換処理で変換した静止画像のブレの度合いを定量化する画像ブレ定量化処理と、
前記画像ブレ定量化処理で定量化したブレの度合いに基づいて前記静止画変換処理で変換した静止画像からブレの度合いが所定の値以下の低ブレ画像を選択する低ブレ画像選択処理と、
前記低ブレ画像選択処理で選択した静止画像と全球測位衛星システムの衛星から受信した信号に基づいて生成された前記撮影手段の位置情報とに基づいて立体の地形図を生成する地形図生成処理と
をコンピュータに実行させることを特徴とする水底観測画像処理プログラム。
Still image conversion processing for converting each of a plurality of moving images photographed by a plurality of photographing means into a plurality of still images continuous along a time axis,
Image blur quantification processing for quantifying the degree of blurring of the still image converted by the still image conversion processing;
A low-blur image selection process for selecting a low-blur image whose degree of blur is a predetermined value or less from the still image converted by the still-image conversion process based on the blur degree quantified by the image blur quantification process;
A topographic map generation process for generating a three-dimensional topographic map based on the still image selected in the low blur image selection process and the position information of the photographing means generated based on a signal received from a satellite of a global positioning satellite system; Water bottom observation image processing program characterized by causing a computer to execute.
JP2017104797A 2017-05-26 2017-05-26 Water bottom observation system and water bottom observation image processing program Active JP6855651B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017104797A JP6855651B2 (en) 2017-05-26 2017-05-26 Water bottom observation system and water bottom observation image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017104797A JP6855651B2 (en) 2017-05-26 2017-05-26 Water bottom observation system and water bottom observation image processing program

Publications (2)

Publication Number Publication Date
JP2018200221A true JP2018200221A (en) 2018-12-20
JP6855651B2 JP6855651B2 (en) 2021-04-07

Family

ID=64667116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017104797A Active JP6855651B2 (en) 2017-05-26 2017-05-26 Water bottom observation system and water bottom observation image processing program

Country Status (1)

Country Link
JP (1) JP6855651B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS48103213A (en) * 1972-04-12 1973-12-25
JPH071667U (en) * 1993-06-15 1995-01-10 米田工業株式会社 Portable tv monitor device
JP2009150848A (en) * 2007-12-21 2009-07-09 Topcon Corp Image processing apparatus
JP2010035177A (en) * 2009-08-28 2010-02-12 Casio Comput Co Ltd Image photographing apparatus and image processing system
JP5904567B1 (en) * 2015-03-09 2016-04-13 株式会社 ホーペック Shell collection and algae collection system from the ship
JP2016057063A (en) * 2014-09-05 2016-04-21 公益財団法人鉄道総合技術研究所 Non-contact detecting method for measurement objects, and apparatus for the same
JP2016099140A (en) * 2014-11-18 2016-05-30 朝日航洋株式会社 Water bottom observation system
JP5989719B2 (en) * 2013-07-26 2016-09-07 国立研究開発法人国立環境研究所 Shallow water observation system
JP2017062830A (en) * 2016-11-15 2017-03-30 株式会社ユピテル Drive recorder body and device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS48103213A (en) * 1972-04-12 1973-12-25
JPH071667U (en) * 1993-06-15 1995-01-10 米田工業株式会社 Portable tv monitor device
JP2009150848A (en) * 2007-12-21 2009-07-09 Topcon Corp Image processing apparatus
JP2010035177A (en) * 2009-08-28 2010-02-12 Casio Comput Co Ltd Image photographing apparatus and image processing system
JP5989719B2 (en) * 2013-07-26 2016-09-07 国立研究開発法人国立環境研究所 Shallow water observation system
JP2016057063A (en) * 2014-09-05 2016-04-21 公益財団法人鉄道総合技術研究所 Non-contact detecting method for measurement objects, and apparatus for the same
JP2016099140A (en) * 2014-11-18 2016-05-30 朝日航洋株式会社 Water bottom observation system
JP5904567B1 (en) * 2015-03-09 2016-04-13 株式会社 ホーペック Shell collection and algae collection system from the ship
JP2017062830A (en) * 2016-11-15 2017-03-30 株式会社ユピテル Drive recorder body and device

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
J.X.LEON 他: "Measuring coral reef terrain roughness using `Structure-from-Motion' close-range photogrammetry", GEOMORPHOLOGY, vol. 242, JPN6020028984, 1 August 2015 (2015-08-01), pages 21 - 28, ISSN: 0004321547 *
山野博哉、小熊宏之: "船舶観測による広域サンゴモニタリングに関する研究(24年度〜26年度)", 地球環境保全試験研究費(地球一括計上):平成26年度終了研究成果報告書, JPN6020028986, 2015, pages 2 - 28, ISSN: 0004321544 *
村上 智一 他: "サンゴ礁海域を対象としたSfMによる水中3次元計測の可能性", 土木学会論文集B3(海洋開発), vol. 72, no. 2, JPN6020028983, 2016, pages 766 - 771, ISSN: 0004321546 *
高橋 秀行 他: "J−QUESTステレオTVカメラシステムの立体計測精度の検証", 水工研技報, vol. 27, JPN6020028985, 2005, pages 81 - 92, ISSN: 0004321545 *

Also Published As

Publication number Publication date
JP6855651B2 (en) 2021-04-07

Similar Documents

Publication Publication Date Title
Nicholson et al. The present state of autonomous underwater vehicle (AUV) applications and technologies
CN106254756B (en) Filming apparatus, information acquisition device, system and method and recording medium
US9066034B2 (en) Image processing apparatus, method and program with different pixel aperture characteristics
JP5989719B2 (en) Shallow water observation system
JP2011209815A (en) 3d modeling device, 3d modeling method, and program
JP2013545096A (en) Estimation of the position and orientation of an underwater vehicle relative to an underwater structure
JP2016099140A (en) Water bottom observation system
CN111108742A (en) Information processing device, information processing method, program, and interchangeable lens
CN109118577A (en) Underwater laser scanning reconfiguration system and its method based on manned underwater vehicle
JP2006279135A (en) Starry-sky photographic device camera and method for photographing starry sky and program
CN110031849A (en) Quan Haishen underwater robot audiovisual detection system and detection method
Jones et al. The use of towed camera platforms in deep-water science
Sun et al. A kriged compressive sensing approach to reconstruct acoustic fields from measurements collected by underwater vehicles
WO2022221024A1 (en) Systems and methods for generating depth information from low-resolution images
JP6855651B2 (en) Water bottom observation system and water bottom observation image processing program
CN108347577B (en) Imaging system and method
US20160044295A1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
Pallayil et al. Development of a second-generation underwater acoustic ambient noise imaging camera
WO2018079283A1 (en) Image-processing device, image-processing method, and program
KR101493956B1 (en) Method and apparatus for 3d model reconstruction using multiple 2d acoustic images
JP6036799B2 (en) Image processing device
JP2021006804A (en) Movement distance measurement system and underwater robot
JP2011204200A (en) Apparatus for creation of movement locus chart, and computer program
CN108347596B (en) laser guide scanning system and method based on feedback
JP2008235971A (en) Imaging apparatus and stereoscopic shape photographing method in imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181002

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200413

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200413

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200427

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200428

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200807

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200817

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201020

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201201

C272 Notice of ex officio correction

Free format text: JAPANESE INTERMEDIATE CODE: C272

Effective date: 20201215

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201222

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210125

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210127

R150 Certificate of patent or registration of utility model

Ref document number: 6855651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250