JP7336788B2 - 水中画像生成方法及びプログラム - Google Patents

水中画像生成方法及びプログラム Download PDF

Info

Publication number
JP7336788B2
JP7336788B2 JP2020051522A JP2020051522A JP7336788B2 JP 7336788 B2 JP7336788 B2 JP 7336788B2 JP 2020051522 A JP2020051522 A JP 2020051522A JP 2020051522 A JP2020051522 A JP 2020051522A JP 7336788 B2 JP7336788 B2 JP 7336788B2
Authority
JP
Japan
Prior art keywords
acoustic camera
image
data
acoustic
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020051522A
Other languages
English (en)
Other versions
JP2021148729A (ja
Inventor
勝紀 水野
英樹 杉本
賢一郎 堤
雅也 瀬戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Penta Ocean Construction Co Ltd
Original Assignee
University of Tokyo NUC
Penta Ocean Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Penta Ocean Construction Co Ltd filed Critical University of Tokyo NUC
Priority to JP2020051522A priority Critical patent/JP7336788B2/ja
Publication of JP2021148729A publication Critical patent/JP2021148729A/ja
Application granted granted Critical
Publication of JP7336788B2 publication Critical patent/JP7336788B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、水中対象物の表面の状態を表す水中画像を生成する技術に関する。
水中対象物の劣化診断を行うために、従来、潜水士が潜水し対象となる水中対象物(以下、単に「対象物」ともいう)の表面を目視点検することが行われている。潜水士が対象物を目視点検して劣化診断を行う場合、対象物が濁水中にある場合、広い視界が取れず作業効率や安全性が低下する。
上記の問題を解消する技術として、音響カメラを用いて対象物の表面の状態を表す水中画像(以下、単に「画像」ともいう)を生成する技術が提案されている。例えば、特許文献1には、移動する船舶の船体側面から外側に張り出した位置で支持された伸縮ポールに取り付けられた音響カメラで対象物を撮影した画像を繋ぎ合わせることで、広範囲に渡る対象物の画像を生成する仕組みが提案されている。なお、音響カメラが撮影する画像は対象物の劣化診断が可能な程度に高精度である。
特開2012-18147号公報
特許文献1に記載の発明においては、音響カメラの位置を特定するために、音響カメラによる対象物の撮影中、常時、伸縮ポールの水上に出ている部分に設置されたGPS(Global Positioning System)装置による測位が必要となる。そのため、特許文献1に記載の発明によれば、対応できる対象物の水深は数メートル~十数メートル程度に限られ、それより深い対象物には対応できない。
上記の事情に鑑み、本発明は、水中対象物の水深の大小にかかわらず、劣化診断が可能な程度に高精度な当該水中対象物の画像を生成する手段を提供する。
上述した課題を解決するために、本発明は、画像生成システムが、音響カメラの対地速度を示す対地速度データを継続的に取得するステップと、前記画像生成システムが、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得するステップと、前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得するステップと、前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得するステップと、前記画像生成システムが、前記音響カメラが前記対象物を撮影する前に既知位置にあった時点から前記対象物を撮影した時点までの移動中の前記音響カメラの対地速度を示す前記対地速度データを用いて前記音響カメラが前記対象物を撮影した時点における前記音響カメラの位置を特定するステップと、前記画像生成システムが、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記音響カメラの位置を特定するステップにおいて特定した前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正するステップとを備える画像生成方法を第1の態様として提供する。
また、本発明は、画像生成システムが、音響カメラの加速度を示す加速度データを継続的に取得するステップと、前記画像生成システムが、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得するステップと、前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得するステップと、前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得するステップと、前記画像生成システムが、前記音響カメラが前記対象物を撮影する前に既知位置にあった時点から前記対象物を撮影した時点までの期間中の前記音響カメラの加速度を示す前記加速度データを用いて前記音響カメラが前記対象物を撮影した時点における前記音響カメラの位置を特定するステップと、前記画像生成システムが、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記音響カメラの位置を特定するステップにおいて特定した前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正するステップとを備える画像生成方法を第2の態様として提供する。
第1又は第2の態様の画像生成方法によれば、水中対象物の水深の大小にかかわらず、劣化診断が可能な程度に高精度な当該水中対象物の画像が生成される。
第1又は第2の態様の画像生成方法において、前記画像生成システムが、前記音響カメラが水面近くにあったときに全球測位衛星システムにより測位した前記音響カメラの絶対位置を示す基準位置データを取得するステップを備え、前記画像生成システムは、前記基準位置データが示す絶対位置を前記既知位置として用いる、という構成が第3の態様として採用されてもよい。
第3の態様の画像生成方法によれば、音響カメラが水中に投下される直前または直後に全球測位衛星システムにより測位された高精度の絶対位置が音響カメラの現在位置を測定するための基準位置として用いられるため、対地速度計の稼働までの時間差が少なくなり、発生する位置ずれが低減され、生成される画像の位置精度が高い。
第3の態様の画像生成方法において、前記画像生成システムが、前記画像データが表す画像から特徴量を抽出するステップと、前記画像生成システムが、予め登録されている位置が既知の前記対象物の既知特異点から、前記特徴量を抽出するステップにおいて抽出した特徴量とマッチする特徴量の既知特異点を検索するステップと、前記既知特異点を検索ステップにおいて既知特異点が検索された場合、前記画像生成システムは、検索された既知特異点の位置から特定される前記音響カメラの位置を、新たな前記既知位置として用いる、という構成が第4の態様として採用されてもよい。
第4の態様の画像生成方法によれば、音響カメラが水中で移動中に撮影した画像に既知位置の既知特異点が含まれる場合、その既知特異点の既知位置に基づき、音響カメラの現在位置を測定するための基準位置が更新されるため、対地速度や加速度から算出される音響カメラの現在位置に伴う誤差の蓄積が回避される。
また、本発明は、画像生成システムが、音響測位システムにより測位された音響カメラの位置を示す位置データを取得するステップと、前記画像生成システムが、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得するステップと、前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得するステップと、前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得するステップと、前記画像生成システムが、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記位置データが示す前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正するステップとを備える画像生成方法を第5の態様として提供する。
第5の態様の画像生成方法によれば、水中対象物の水深の大小にかかわらず、劣化診断が可能な程度に高精度な当該水中対象物の画像が生成される。
第1乃至第5のいずれかの画像生成方法において、前記音響カメラが異なる時点で前記対象物を撮影した複数の画像の各々に関し、前記画像生成システムが特徴量を抽出するステップと、前記画像生成システムが、前記複数の画像の各々に関し抽出した特徴量がマッチする位置で前記複数の画像を連結するステップとを備え、前記歪みを補正するステップにおいて、前記画像生成システムは、前記連結するステップにおいて前記複数の画像を連結した画像の歪みを補正する、という構成が第6の態様として採用されてもよい。
また、第1乃至第5のいずれかの画像生成方法において、前記音響カメラが異なる時点で前記対象物を撮影した複数の画像の各々に関し、前記画像生成システムが前記歪みを補正するステップにおいて歪みを補正した画像から特徴量を抽出するステップと、前記画像生成システムが、前記特徴量を抽出するステップにおいて前記複数の画像の各々から抽出した特徴量がマッチする位置で、歪みを補正した前記複数の画像を連結するステップとを備える、という構成が第7の態様として採用されてもよい。
第6又は第7の態様の画像生成方法によれば、広範囲に渡る水中対象物の画像が生成される。
また、本発明は、コンピュータに、音響カメラの対地速度を示す対地速度データを継続的に取得する処理と、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得する処理と、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得する処理と、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得する処理と、前記音響カメラが前記対象物を撮影する前に既知位置にあった時点から前記対象物を撮影した時点までの期間中の前記音響カメラの対地速度を示す前記対地速度データを用いて前記音響カメラが前記対象物を撮影した時点における前記音響カメラの位置を特定する処理と、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記音響カメラの位置を特定する処理において特定した前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正する処理とを実行させるためのプログラムを第8の態様として提供する。
また、本発明は、コンピュータに、音響カメラの加速度を示す加速度データを継続的に取得する処理と、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得する処理と、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得する処理と、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得する処理と、前記音響カメラが前記対象物を撮影する前に既知位置にあった時点から前記対象物を撮影した時点までの期間中の前記音響カメラの加速度を示す前記加速度データを用いて前記音響カメラが前記対象物を撮影した時点における前記音響カメラの位置を特定する処理と、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記音響カメラの位置を特定する処理において特定した前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正する処理とを実行させるためのプログラムを第9の態様として提供する。
また、本発明は、コンピュータに、音響測位システムにより測位された音響カメラの位置を示す位置データを取得する処理と、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得する処理と、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得する処理と、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得する処理と、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記位置データが示す前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正する処理とを実行させるためのプログラムを第10の態様として提供する。
第8乃至第10のいずれかの態様の画像生成方法によれば、コンピュータによって、水中対象物の水深の大小にかかわらず、劣化診断が可能な程度に高精度な当該水中対象物の画像が生成される。
本発明によれば、水中対象物の水深の大小にかかわらず、劣化診断が可能な程度に高精度な当該水中対象物の画像が生成される。
一実施形態に係る画像生成システムの全体構成を模式的に示した図。 一実施形態に係るデータ処理装置の機能構成を示した図。 一実施形態に係る水中ユニットが音響カメラで撮影を行いながら水中を移動する様子を示した図。 一実施形態に係るデータ処理装置が広範囲画像データを生成するために行う処理のフローを示した図。 一実施形態に係るデータ処理装置が生成する複数の矩形画像を例示した図。 一実施形態に係るデータ処理装置が生成する広範囲画像を例示した図。 一実施形態に係るデータ処理装置が特定した絶対位置に矩形画像を配置した場合に広範囲画像が占める領域を例示した図。 一実施形態に係るデータ処理装置が特定した領域の中心に配置された広範囲画像を例示した図。 一実施形態に係るデータ処理装置が縦方向のスケールを調整した後の広範囲画像を例示した図。 一実施形態に係るデータ処理装置が横方向のスケールを調整した後の広範囲画像を例示した図。 一実施形態に係るデータ処理装置が矩形画像の絶対位置に基づき局所的な変形を行った後の広範囲画像を例示した図。 一実施形態に係るデータ処理装置により歪みが除去された広範囲画像を例示した図。 一変形例に係る画像生成システムの構成を示した図。 一変形例に係るデータ処理装置に記憶される特異点に関するデータを格納するテーブルの構成を例示した図。 一変形例に係るデータ処理装置が広範囲画像データを生成するために行う処理のフローを示した図。
[実施形態]
以下、本発明の実施形態に係る画像生成方法Mと、画像生成方法Mを実施するためのシステムである画像生成システム1を説明する。画像生成方法Mは、岸壁、桟橋、ケーソン、ダム等の水中構造物や、養殖場の網等の表面を走査するように音響カメラで撮影した複数の画像を連結して、広範囲に渡る水中対象物の画像を生成する方法である。画像生成方法Mにより生成される画像は、水中対象物の表面に生じているクラックや変形等の有無を判別可能な程度に高精度な画像である。画像生成方法Mの実施者(画像生成システム1のユーザ)は、画像生成方法Mにより生成される画像を目視確認することで、潜水士等による水中対象物の目視確認を要することなく、水中対象物の劣化診断を行うことができる。
図1は、画像生成システム1の全体構成を模式的に示した図である。図1において、撮影対象の水中対象物は岸壁Qである。画像生成システム1は、まず、ROV11と、ROV11に取り付けられたフレーム12と、フレーム12に取り付けられた音響カメラ13と、フレーム12に取り付けられた慣性航法装置14と、フレーム12に取り付けられた対地速度計15と、フレーム12に取り付けられた水没対応型のGNSSユニット16を備える。以下、ROV11、フレーム12、音響カメラ13、慣性航法装置14、対地速度計15及びGNSSユニット16のアセンブリを水中ユニット20と呼ぶ。
また、画像生成システム1は、ROV11を制御する装置群であるROV制御盤17と、音響カメラ13が撮影した画像を連結して広範囲に渡る対象物の画像を生成するためのデータ処理を行うデータ処理装置10と、ケーブル群18と、ケーブル群18の送り出し及び巻き取りを行うウィンチ19を備える。
ROV11はユーザの操作に応じて動作するROV制御盤17の制御下で水中を航行する遠隔操作型の無人潜水機(Remotely Operated Vehicle)である。
音響カメラ13は、複数の超音波ビームを送波し、対象物で反射した超音波ビームを受波し、それらの超音波ビームの送波から受波までに要した時間に基づき音響カメラから対象物の表面上の多数の点の各々までの距離を算出することで、対象物の表面の起伏等を濃淡で表すエコー画像を生成し、生成したエコー画像を表すデータ(以下、「エコー画像データ」という)を出力する装置である。現在市場で販売されており、音響カメラ13として採用可能な製品としては、例えば、Sound Metrics社(米国)のDIDSON(Dual frequency IDentification SONar)音響ビデオカメラシリーズや、その後継シリーズであるARIS(Adaptive Resolution Imaging Sonar)高精度2周波音響カメラシリーズがある。
慣性航法装置14は、加速度計とジャイロセンサを備え、加速度計で継続的に測定する加速度を積分することで自装置の移動速度を算出し、移動速度を積分することで基準位置からの自装置の移動距離を算出すると共に、ジャイロセンサで自装置の移動方角を継続的に測定する装置である。そして、慣性航法装置14は、基準位置からの自装置の移動距離と移動方角のベクトルを細分点ごとに合成してゆくことにより、自装置の現在位置を特定する。慣性航法装置14は、基準位置を入力すれば、その後、自装置の現在位置を示すデータ(以下、「慣性航法装置位置データ」という)と、自装置の移動速度と移動方角を示すデータ(以下、「移動ベクトルデータ」という)と、自装置の姿勢(自装置に正面が向いている方角と、自装置が水平面に対しどちらの方角に何度傾斜しているか、という情報)とを示すデータ(以下、「姿勢データ」という)を継続的に出力する。
対地速度計15は、非接触型の対地速度計であり、例えば、音波を用いたドップラー式の対地速度計である。対地速度計15は、自装置の対地速度(移動方向を伴う速度ベクトル)を測定し、測定した対地速度を示すデータ(以下、「対地速度データ」という)を出力する。対地速度計15は、自装置から対象物までの距離も測定し、測定した距離を示すデータ(以下、「距離データ」という)を出力する。現在市場で販売されており、対地速度計15として採用可能な製品としては、例えば、Nortek社(ノルウェー)のDVL(Doppler Velocity Log)シリーズがある。
GNSSユニット16は、GNSS(Global Navigation Satellite System / 全球測位衛星システム)により自装置の地球上の3次元位置を測定し、測定した位置を示すデータ(以下、「GNSS位置データ」という)を出力する装置である。GNSSユニット16は、図視せぬ複数の人工衛星から送信される信号を用いて自装置の位置を測定する。なお、人工衛星から送信される信号は水中まで届かないため、GNSSユニット16は水中で測位することはできないが、水没対応型であり水没しても故障することはない。
ケーブル群18には、ROV11とROV制御盤17を接続する電力ケーブル及び通信ケーブルと、音響カメラ13、慣性航法装置14、対地速度計15及びGNSSユニット16の各々とデータ処理装置10を接続する通信ケーブルと、音響カメラ13、慣性航法装置14、対地速度計15及びGNSSユニット16の各々と図視せぬ電源を接続する電力ケーブルとが含まれる。
データ処理装置10のハードウェアは一般的なコンピュータである。すなわち、データ処理装置10は、各種データを記憶するメモリと、メモリに記憶されているプログラムに従いデータ処理を行うプロセッサと、プロセッサの制御下で外部の装置との間でデータの入出力を行う入出力インタフェースとを備える。
データ処理装置10は、本実施形態に係るプログラムに従う処理を実行することにより、図2に示す構成部を備える装置として機能する。以下に図2に示すデータ処理装置10の構成部(機能構成部)を説明する。
データ取得部101は、外部の装置から各種データを取得する。データ取得部101は、エコー画像データ取得部1011、姿勢データ取得部1012、対地速度データ取得部1013、距離データ取得部1014及びGNSS位置データ取得部1015を含む。
エコー画像データ取得部1011は音響カメラ13が出力するエコー画像データを取得する。姿勢データ取得部1012は慣性航法装置14が出力する姿勢データを取得する。対地速度データ取得部1013は対地速度計15が出力する対地速度データを取得する。距離データ取得部1014は対地速度計15が出力する距離データを取得する。GNSS位置データ取得部1015はGNSSユニット16が出力するGNSS位置データを取得する。
記憶部102は各種データを記憶する。例えば、データ取得部101が取得した各種データは記憶部102に記憶される。計時部103は基準時刻からの経過時間を継続的に計測し、現在時刻を示すデータ(以下、「時刻データ」という)を生成する。データ取得部101は外部の装置からデータを取得すると、その時点における現在時刻を示す時刻データを計時部103から取得し、外部の装置から取得したデータにその時刻データを対応付けて記憶部102に記憶させる。以下、同じ時刻データが対応付けられているデータを「同じ時刻のデータ」といい、最新の時刻を示す時刻データが対応付けられているデータを「最新のデータ」という。
音響カメラ位置特定部104は、音響カメラ13が対象物を撮影した時点における音響カメラ13の位置(地球上の3次元位置)を特定する。音響カメラ位置特定部104は、まず、記憶部102に記憶されているGNSS位置データの中から最新のGNSS位置データを読み出し、そのGNSS位置データが示す絶対位置に、GNSSユニット16から音響カメラ13に向かう位置ベクトルを加算して、最後にGNSSユニット16が測位した時点における音響カメラ13の位置を特定する。以下、この位置を「基準位置」という。
続いて、音響カメラ位置特定部104は、音響カメラ13が基準位置にあった時刻以降のエコー画像データ(まだ撮影時の音響カメラ13の位置が特定されていないもの)の各々に関し、音響カメラ13が基準位置にあった時刻からエコー画像の撮影時刻までの期間内の対地速度データを抽出する。
続いて、音響カメラ位置特定部104は、抽出した対地速度データが示す対地速度(速度ベクトル)を積分する(すなわち、細分点ごとに合成してゆく)ことにより、音響カメラ13が基準位置にいた時刻からエコー画像の撮影時刻までの移動距離(位置ベクトル)を特定する。音響カメラ位置特定部104は、そのように特定した移動距離(位置ベクトル)を基準位置に加算して、音響カメラ13が対象物を撮影した時点における音響カメラ13の位置を特定する。音響カメラ位置特定部104は、特定した位置を示すデータ(以下、「撮影位置データ」という)をエコー画像データに対応付けて記憶部102に記憶させる。
画像補正部105は、複数のエコー画像データが表す画像に対し変換処理、連結処理、補正処理を行い、広範囲に渡る対象物の画像を表すデータ(以下、「広範囲画像データ」という)を生成する。画像補正部105が広範囲画像データの生成のために行う処理に関しては後述する。
図3は、水中ユニット20が音響カメラ13で撮影を行いながら水中を移動する様子を示した図である。水中ユニット20は、ユーザによるROV制御盤17に対する操作に応じたROV11の航行により、平面視した場合(図3(C)参照)、音響カメラ13の撮影方向が岸壁Qの表面に対峙する姿勢で、岸壁Qとの距離を一定(距離d)に保ちながら、図3(B)に矢印で示されるように、岸壁Qの表面を走査するように移動する。
水中ユニット20の移動が完了すると、データ処理装置10には、撮影位置データが対応付けられた多数のエコー画像データ、多数の姿勢データ、多数の対地速度データ、多数の距離データが記憶された状態となる。データ処理装置10の画像補正部105は、例えばユーザによる所定の操作に応じて、それらのデータを用いて、広範囲画像データの生成のための処理を行う。図4は、データ処理装置10の画像補正部105が広範囲画像データを生成するために行う処理のフローを示した図である。以下に、図4のフローを説明する。
まず、画像補正部105は、複数のエコー画像データの各々に関し、矩形形状のエコー画像データを扇形のエコー画像に変換する(ステップS101)。エコー画像は放射状に送波される超音波ビームにより撮影されるため、本来の形状は扇形である。ステップS101において、画像補正部105は、エコー画像の形状を本来の形状である扇形に変形する。以下、ステップS101において変形後の扇形のエコー画像を「扇形画像」という。
続いて、画像補正部105は、ステップS101において生成された複数の扇形画像の各々から矩形の画像を切り出すトリミング処理を行う(ステップS102)。以下、ステップS102において切り出された矩形の画像を「矩形画像」という。ステップS102において、画像補正部105は扇形画像のうち像が不鮮明な外縁周辺の領域を取り除く。図5は、ステップS102にいて生成される複数の矩形画像を例示した図である。
続いて、画像補正部105は、ステップS102において生成した複数の矩形画像の各々に関し、矩形画像から特徴量を抽出する(図4、ステップS103)。ステップS103において、画像補正部105が特徴量を抽出する方法としては、既知の様々な方法が採用可能であるが、例えば、SIFT(Scale-Invariant Feature Transform)、SURF(Speeded-Up Robust Features)等の局所勾配特徴抽出法が特に適している。
続いて、画像補正部105は、ステップS102において生成した複数の矩形画像の各々を、それらの矩形画像の生成に用いたエコー画像データに対応付けられている撮影位置データが示す撮影位置に従い並べた後、互いに隣り合う2枚の矩形画像から、ステップS103において抽出した特徴量がマッチする位置(特徴点)を検索する(ステップS104)。
続いて、画像補正部105は、ステップS104において検索した特徴点が一致するように矩形画像の位置を移動させた後、それらの矩形画像を連結する(ステップS105)。ステップS105における連結により生成される画像を以下、「広範囲画像」という。図6は、図5に示した矩形画像を用いて、ステップS105において生成される広範囲画像を例示した図である。
続いて、画像補正部105は、広範囲画像を構成する複数の矩形画像の各々に応じた撮影位置データ、すなわち、矩形画像の生成に用いられたエコー画像データに対応付けられている撮影位置データと、その撮影位置データと同じ時刻の姿勢データ及び距離データとに基づき、矩形画像の絶対位置を特定する(図4、ステップS106)。図7は、図6に示した広範囲画像を構成する矩形画像をステップS106において特定した絶対位置に配置した場合に広範囲画像が占める領域Rを例示した図である。
続いて、画像補正部105は広範囲画像を、ステップS106において特定した矩形画像の位置データ群に基づき変形することで、広範囲画像の歪みを補正する(ステップS107)。そのために、まず、画像補正部105は、図8に示すように、広範囲画像を領域Rの中心に配置する。続いて、画像補正部105は、図9に示すように、広範囲画像の縦方向に占める領域が領域Rと一致するように、広範囲画像の縦方向のスケールを調整する。続いて、画像補正部105は、図10に示すように、広範囲画像の横方向に占める領域が領域Rと一致するように、広範囲画像の横方向のスケールを調整する。続いて、画像補正部105は、広範囲画像を構成する矩形画像の各々の位置がそれらの絶対位置と一致するように、広範囲画像を局所的に変形させる。図11は、そのような局所的な変形を行った後の広範囲画像を例示している。これにより、歪みが除去された広範囲画像(図12)が生成される。画像補正部105は、そのように歪みを除去した広範囲画像を表すデータを記憶部102に記憶させる。
上述した画像生成システム1により実施される画像生成方法Mによれば、水中ユニット20が水中に投下された後、音響カメラ13の地球上の3次元位置は、対地速度計15により測定される対地速度(速度ベクトル)の積分により求まる移動距離(位置ベクトル)により継続的に特定される。従って、音響カメラ13による対象物の撮影が、人工衛星からの信号が受信できないためにGNSSによる地球上の3次元位置が測定できない程に深い水中において行われても、画像生成方法Mによれば、歪みが除去された高精度な広範囲画像が生成される。
[変形例]
上述の実施形態は本発明の一具体例であって、本発明の技術的思想の範囲内において様々に変形可能である。以下にそれらの変形の例を示す。なお、以下に示す2以上の変形例が適宜組み合わされてもよい。
(1)上述した実施形態においては、音響カメラ13等の水中で用いられる装置はROV11に設置されて用いられるが、音響カメラ13等の水中で用いられる装置を使用するための手段はROVに限られない。例えば、ROVに代えて、AUV(Autonomous Underwater Vehicle)が用いられてもよい。
(2)上述した実施形態においては、慣性航法装置14が備えるジャイロセンサにより測定される姿勢が、エコー画像の撮影時の音響カメラ13の姿勢として用いられる。これに代えて、水中ユニット20が音響カメラ13の姿勢を測定するジャイロセンサを備え、ジャイロセンサが測定した姿勢が用いられてもよい。また、水中ユニット20が方位計及び傾斜計を備え、方位計が測定する方角と傾斜計が測定する水平面に対する傾斜方向及び傾斜角度とに基づき特定される水中ユニット20の姿勢が、音響カメラ13の姿勢として用いられてもよい。
(3)上述した実施形態においては、対地速度計15が測定する対地速度(速度ベクトル)を積分して求められる基準位置からの移動距離(位置ベクトル)に基づき、音響カメラ13の位置が特定される。これに代えて、慣性航法装置14が出力する慣性航法装置位置データが示す位置に、慣性航法装置14から音響カメラ13に向かう位置ベクトルを加算して、音響カメラ13の位置が特定されてもよい。また、水中ユニット20が加速度計を備え、加速度計が計測する加速度(ベクトル)を2階積分して求められる基準位置からの移動距離(位置ベクトル)に基づき、音響カメラ13の位置が特定されてもよい。
また、音響カメラ13の位置を特定するために、対地速度と加速度(慣性航法装置14が備える加速度計により測定される加速度を含む)の両方が用いられてもよい。例えば、対地速度計15が測定する対地速度に基づき特定される音響カメラ13の位置と、慣性航法装置14が出力する慣性航法装置位置データが示す位置の平均値(算術平均値や、それらの精度に応じた加重平均値等)が広範囲画像の生成のために用いられてもよい。この場合、異なる方法で特定される2つの位置に含まれる誤差が一定の確率で相殺されるため、いずれか一方のみを用いる場合と比較し、高い精度で音響カメラ13の位置が特定され、結果として高い精度の広範囲画像が得られる。
(4)対地速度計15により音響カメラ13の位置を特定することに代えて、音響測位システムにより音響カメラ13の位置を特定してもよい。図13は、水中ユニット20が、フレーム12に取り付けられたトランスポンダを備える変形例に係る画像生成システム2の構成を示した図である。なお、画像生成システム2は、画像生成システム1と同様に、ROV制御盤17、データ処理装置10、ケーブル群18及びウィンチ19を備えるが、図13においてそれらは省略されている。
画像生成システム2は、水深が浅い水中に設置されたトランシーバ21と、トランシーバ21とバー等で連結され、トランシーバ21と所定の位置関係を保つ位置に配置されたGNSSユニット22と、フレーム12に取り付けられたトランスポンダ23を備える。GNSSユニット22とトランシーバ21はデータ処理装置10と通信ケーブルにより接続されている。
トランシーバ21は、例えばUSBL(Ultra Short Base Line)方式の音響測位システムを構成するトランシーバであり、水中に応答要求(音響信号)を送信し、その応答としてトランスポンダ23から送信される応答(音響信号)を3本以上の受信アレイの各々で受信し、受信した信号の位相差から自装置(トランシーバ21)の位置を基準とするトランスポンダ23の位置を測定する。トランシーバ21は、そのように測定した自装置からトランスポンダ23に向かうベクトルを示すデータをデータ処理装置10に送信する。
GNSSユニット22はGNSSユニット16と同様に、人工衛星からの信号を用いて自装置の地球における3次元位置を測定し、測定した位置を示すデータをデータ処理装置10に送信する。
データ処理装置10は、GNSSユニット22から受信するGNSSユニット22の地球における3次元位置に、GNSSユニット22からトランシーバ21に向かうベクトルを加算し、さらに、トランシーバ21から受信するトランシーバ21からトランスポンダ23に向かうベクトルを加算して、トランスポンダ23の地球における3次元位置を特定する。データ処理装置10は、そのように特定したトランスポンダ23の位置に、トランスポンダ23から音響カメラ13に向かうベクトルを加算して、音響カメラ13の位置を特定する。
なお、画像生成システム2において採用される音響測位システムの構成は、図13に示したものに限られない。例えば、水中の3点以上の既知位置にトランスポンダを配置し、水中ユニット20が1本の受信アンテナを備えるトランシーバを備え、トランシーバが発信する応答要求に応じて3以上のトランスポンダの各々から発信される応答をトランシーバが受信することにより、トランシーバの位置を測定する構成が採用されてもよい。
(5)上述した実施形態においては、水中ユニット20が水中に投下される直前にGNSSユニット16により測定された位置が基準位置として用いられ、対地速度計15の測定値に基づき特定される水中での音響カメラ13の移動距離(位置ベクトル)が基準位置に加算されることで、音響カメラ13の位置が特定される。この基準位置が、音響カメラ13が水中を移動中に更新されてもよい。
基準位置を更新する構成の一例として、上述の変形例(4)において採用される音響測位システム(図13参照)を用いる構成が考えられる。この構成による場合、データ処理装置10は、対地速度計15の測定値に基づき特定される音響カメラ13の位置から、音響測位システムの測定値に基づき特定される音響カメラ13の位置に向かうベクトルを継続的に算出し、過去の所定期間に算出したそれらのベクトルを平滑化した値(例えば平均値)が所定の閾値を超えた時点で、基準位置に平滑化したベクトルの値を加算して得られる位置を新たな基準位置とする。
基準位置を更新する構成の他の一例として、予め対象物の表面に存在する位置が既知の特異点の画像の特徴量をデータ処理装置10に記憶しておき、図4のステップS103において抽出された特徴量とマッチする特徴量の既知特異点の既知位置に基づき、基準位置を更新する構成が考えられる。
図14は、この構成においてデータ処理装置10に記憶される特異点に関するデータを格納するテーブルの構成を例示した図である。すなわち、データ処理装置10には、特異点の各々に関し、既知位置(地球における3次元位置)と、その特異点の画像から抽出された既知特徴量が記憶されている。データ処理装置10の音響カメラ位置特定部104は、画像補正部105が図4のステップS103において抽出した特徴量とマッチする既知特徴量を図14のテーブルから検索し、マッチする既知特徴量が検索された場合、その特徴量の特異点の既知位置と、矩形画像における特異点の画像の位置と、撮影時の姿勢データが示す音響カメラ13の姿勢と、撮影時の距離データが示す音響カメラ13から対象物までの距離とに基づき、撮影時における音響カメラ13の絶対位置を特定する。この絶対位置を、新たな基準位置として用いる。
(6)上述した実施形態においては、音響カメラ13と対象物との距離は、対地速度計15により測定される。これに代えて、水中ユニット20が音響測距計を備え、音響測距計により測定された音響カメラ13から対象物までの距離が用いられてもよい。また、水が澄んでおり、水中の光減衰率が小さい場合は、音響測距計に代えて、光学測距計が用いられてもよい。
(7)上述した実施形態においては、隣り合う矩形画像を特徴量のマッチングにより連結して広範囲画像を生成した後、広範囲画像を、矩形画像の絶対位置に基づき補正する、という順序で処理が行われる。これに代えて、矩形画像の歪みを補正した後、補正後の矩形画像を連結して広範囲画像を生成する、という順序で処理が行われてもよい。
図15は、この変形例においてデータ処理装置10の画像補正部105が広範囲画像データを生成するために行う処理のフローを例示した図である。この変形例において、画像補正部105は、実施形態における場合と同様にステップS101及びS102の処理を行った後、複数の矩形画像の各々の絶対位置を特定する(ステップS201)。
続いて、画像補正部105は、複数の矩形画像の各々をステップS201において特定した絶対位置に配置し、絶対位置において矩形画像が占める領域にフィットするように、矩形画像を変形させることで、矩形画像の歪みを除去する補正を行う(ステップS202)。
続いて、画像補正部105は、歪み除去のための補正が行われた複数の矩形画像の各々に関し、特徴量の抽出を行う(ステップS203)。
続いて、画像補正部105は、ステップS203において抽出した特徴量のマッチングを行い、共通する特徴点を検索する(ステップS204)。
続いて、画像補正部105は、ステップS204において検索された共通する特徴点の位置が一致するように矩形画像を変形した後、それらの矩形画像を連結する(ステップS205)。これにより、歪みの除去された広範囲画像が得られる。画像補正部105は、そのように生成した広範囲画像を表す広範囲画像データを記憶部102に記憶させる。
(8)上述した実施形態においては、音響カメラ位置特定部104により特定した音響カメラ13の撮影時における位置を示す撮影位置データは、エコー画像データに対応付けられる。撮影位置データは、エコー画像データに代えて、エコー画像データから生成される矩形画像を表すデータに対応付けられてもよい。
(9)上述した実施形態においては、水没対応型のGNSSユニット16が常時、フレーム12を介してROV11に取り付けられているものとしたが、GNSSユニット16は水中で測位することはできない。従って、水中ユニット20が水中に投入される前にGNSSユニット16がROV11から取り外されてもよい。この場合、GNSSユニット16は水没非対応型であってもよい。この変形例においては、水中ユニット20が水中に投入される直前にGNSSユニット16が測定した三次元位置を示すGNSS位置データがデータ処理装置10に入力された後、GNSSユニット16がフレーム12から取り外され、その後、水中ユニット20(GNSSユニット16を含まない)が水中に投入される。
1…画像生成システム、2…画像生成システム、10…データ処理装置、11…ROV、12…フレーム、13…音響カメラ、14…慣性航法装置、15…対地速度計、16…GNSSユニット、17…ROV制御盤、18…ケーブル群、19…ウィンチ、20…水中ユニット、21…トランシーバ、22…GNSSユニット、23…トランスポンダ、101…データ取得部、102…記憶部、103…計時部、104…音響カメラ位置特定部、105…画像補正部、1011…エコー画像データ取得部、1012…姿勢データ取得部、1013…対地速度データ取得部、1014…距離データ取得部、1015…GNSS位置データ取得部。

Claims (10)

  1. 画像生成システムが、音響カメラの対地速度を示す対地速度データを継続的に取得するステップと、
    前記画像生成システムが、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得するステップと、
    前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得するステップと、
    前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得するステップと、
    前記画像生成システムが、前記音響カメラが前記対象物を撮影する前に既知位置にあった時点から前記対象物を撮影した時点までの移動中の前記音響カメラの対地速度を示す前記対地速度データを用いて前記音響カメラが前記対象物を撮影した時点における前記音響カメラの位置を特定するステップと、
    前記画像生成システムが、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記音響カメラの位置を特定するステップにおいて特定した前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正するステップと
    を備える画像生成方法。
  2. 画像生成システムが、音響カメラの加速度を示す加速度データを継続的に取得するステップと、
    前記画像生成システムが、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得するステップと、
    前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得するステップと、
    前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得するステップと、
    前記画像生成システムが、前記音響カメラが前記対象物を撮影する前に既知位置にあった時点から前記対象物を撮影した時点までの期間中の前記音響カメラの加速度を示す前記加速度データを用いて前記音響カメラが前記対象物を撮影した時点における前記音響カメラの位置を特定するステップと、
    前記画像生成システムが、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記音響カメラの位置を特定するステップにおいて特定した前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正するステップと
    を備える画像生成方法。
  3. 前記画像生成システムが、前記音響カメラが水面近くにあったときに全球測位衛星システムにより測位した前記音響カメラの絶対位置を示す基準位置データを取得するステップを備え、
    前記画像生成システムは、前記基準位置データが示す絶対位置を前記既知位置として用いる
    請求項1又は2に記載の画像生成方法。
  4. 前記画像生成システムが、前記画像データが表す画像から特徴量を抽出するステップと、
    前記画像生成システムが、予め登録されている位置が既知の前記対象物の既知特異点から、前記特徴量を抽出するステップにおいて抽出した特徴量とマッチする特徴量の既知特異点を検索するステップと、
    前記既知特異点を検索ステップにおいて既知特異点が検索された場合、前記画像生成システムは、検索された既知特異点の位置から特定される前記音響カメラの位置を、新たな前記既知位置として用いる
    請求項3に記載の画像生成方法。
  5. 画像生成システムが、音響測位システムにより測位された音響カメラの位置を示す位置データを取得するステップと、
    前記画像生成システムが、前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得するステップと、
    前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得するステップと、
    前記画像生成システムが、前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得するステップと、
    前記画像生成システムが、前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記位置データが示す前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正するステップと
    を備える画像生成方法。
  6. 前記音響カメラが異なる時点で前記対象物を撮影した複数の画像の各々に関し、前記画像生成システムが特徴量を抽出するステップと、
    前記画像生成システムが、前記複数の画像の各々に関し抽出した特徴量がマッチする位置で前記複数の画像を連結するステップと
    を備え、
    前記歪みを補正するステップにおいて、前記画像生成システムは、前記連結するステップにおいて前記複数の画像を連結した画像の歪みを補正する
    請求項1乃至5のいずれか1項に記載の画像生成方法。
  7. 前記音響カメラが異なる時点で前記対象物を撮影した複数の画像の各々に関し、前記画像生成システムが前記歪みを補正するステップにおいて歪みを補正した画像から特徴量を抽出するステップと、
    前記画像生成システムが、前記特徴量を抽出するステップにおいて前記複数の画像の各々から抽出した特徴量がマッチする位置で、歪みを補正した前記複数の画像を連結するステップと
    を備える請求項1乃至5のいずれか1項に記載の画像生成方法。
  8. コンピュータに、
    音響カメラの対地速度を示す対地速度データを継続的に取得する処理と、
    前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得する処理と、
    前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得する処理と、
    前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得する処理と、
    前記音響カメラが前記対象物を撮影する前に既知位置にあった時点から前記対象物を撮影した時点までの期間中の前記音響カメラの対地速度を示す前記対地速度データを用いて前記音響カメラが前記対象物を撮影した時点における前記音響カメラの位置を特定する処理と、
    前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記音響カメラの位置を特定する処理において特定した前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正する処理と
    を実行させるためのプログラム。
  9. コンピュータに、
    音響カメラの加速度を示す加速度データを継続的に取得する処理と、
    前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得する処理と、
    前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得する処理と、
    前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得する処理と、
    前記音響カメラが前記対象物を撮影する前に既知位置にあった時点から前記対象物を撮影した時点までの期間中の前記音響カメラの加速度を示す前記加速度データを用いて前記音響カメラが前記対象物を撮影した時点における前記音響カメラの位置を特定する処理と、
    前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記音響カメラの位置を特定する処理において特定した前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正する処理と
    を実行させるためのプログラム。
  10. コンピュータに、
    音響測位システムにより測位された音響カメラの位置を示す位置データを取得する処理と、
    前記音響カメラが水中で対象物を撮影した画像を表す画像データを取得する処理と、
    前記音響カメラが前記対象物を撮影した時点における前記音響カメラの姿勢を示す姿勢データを取得する処理と、
    前記音響カメラが前記対象物を撮影した時点における前記音響カメラと前記対象物との距離を示す距離データを取得する処理と、
    前記姿勢データが示す前記音響カメラの姿勢と、前記距離データが示す前記音響カメラと前記対象物との距離と、前記位置データが示す前記音響カメラの位置とに基づき、前記画像データが表す画像の歪みを補正する処理と
    を実行させるためのプログラム。
JP2020051522A 2020-03-23 2020-03-23 水中画像生成方法及びプログラム Active JP7336788B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020051522A JP7336788B2 (ja) 2020-03-23 2020-03-23 水中画像生成方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020051522A JP7336788B2 (ja) 2020-03-23 2020-03-23 水中画像生成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021148729A JP2021148729A (ja) 2021-09-27
JP7336788B2 true JP7336788B2 (ja) 2023-09-01

Family

ID=77851247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020051522A Active JP7336788B2 (ja) 2020-03-23 2020-03-23 水中画像生成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7336788B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004342067A (ja) 2003-04-22 2004-12-02 3D Media Co Ltd 画像処理方法、画像処理装置、及びコンピュータプログラム
JP2010107307A (ja) 2008-10-29 2010-05-13 Mitsubishi Heavy Ind Ltd 水中航走体及び水中航走体の編隊航行方法
JP2012018147A (ja) 2010-07-09 2012-01-26 Public Works Research Institute 水中構造物点検システム及び画像処理装置
JP2015042976A (ja) 2013-07-26 2015-03-05 独立行政法人国立環境研究所 浅水域観測システム
JP2016089140A (ja) 2014-11-07 2016-05-23 央二 小山 地盤改良材とその地盤改良法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004342067A (ja) 2003-04-22 2004-12-02 3D Media Co Ltd 画像処理方法、画像処理装置、及びコンピュータプログラム
JP2010107307A (ja) 2008-10-29 2010-05-13 Mitsubishi Heavy Ind Ltd 水中航走体及び水中航走体の編隊航行方法
JP2012018147A (ja) 2010-07-09 2012-01-26 Public Works Research Institute 水中構造物点検システム及び画像処理装置
JP2015042976A (ja) 2013-07-26 2015-03-05 独立行政法人国立環境研究所 浅水域観測システム
JP2016089140A (ja) 2014-11-07 2016-05-23 央二 小山 地盤改良材とその地盤改良法

Also Published As

Publication number Publication date
JP2021148729A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
JP5886303B2 (ja) 水中構造物の3次元モデルの構築
RU2751383C2 (ru) Автоматизированное определение веса по осадке судна
JP6057905B2 (ja) 水中構造物の構造的変化の検出
US7496226B2 (en) Multi-camera inspection of underwater structures
EP2633375B1 (en) Estimating position and orientation of an underwater vehicle based on correlated sensor data
US10950041B2 (en) Method for generating 3D data relating to an object
CN103620442B (zh) 判断水下航行器相对于水下结构的位置和方向
US6226227B1 (en) Manual scan imaging sonar
AU2014247986A2 (en) Underwater platform with lidar and related methods
CN110133667B (zh) 基于移动前视声呐的水下三维检测系统
RU2563332C2 (ru) Способ навигации автономного необитаемого подводного аппарата
JPH10325871A (ja) ナローマルチビーム深浅測量システム
Franchi et al. A forward-looking sonar-based system for underwater mosaicing and acoustic odometry
US20210364289A1 (en) Apparatus and method for fault-proof collection of imagery for underwater survey
CN114488164A (zh) 水下航行器同步定位与建图方法及水下航行器
KR101763911B1 (ko) 자기장 외란이 심한 환경에서 수중체의 선수각 추정 장치 및 그 방법
Jalving et al. Terrain referenced navigation of AUVs and submarines using multibeam echo sounders
US6803943B2 (en) Marine plant field survey method and survey system utilizing the survey method
Maki et al. Photo mosaicing of tagiri shallow vent area by the auv" tri-dog 1" using a slam based navigation scheme
JP7336788B2 (ja) 水中画像生成方法及びプログラム
Casagrande et al. Localization of a drifting underwater vehicle using a terrain-based particle filter
CN116997508A (zh) 水上中继机与水中航行体的连结系统及其运用方法
Kim et al. Imaging sonar based navigation method for backtracking of AUV
WO2002084217A2 (en) Underwater inspection
Moisan et al. Dynamic 3d modeling of a canal-tunnel using photogrammetric and bathymetric data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221003

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230810

R150 Certificate of patent or registration of utility model

Ref document number: 7336788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150