JP2023059077A - 情報処理装置、対象物検知装置、情報処理方法およびプログラム - Google Patents

情報処理装置、対象物検知装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2023059077A
JP2023059077A JP2021168974A JP2021168974A JP2023059077A JP 2023059077 A JP2023059077 A JP 2023059077A JP 2021168974 A JP2021168974 A JP 2021168974A JP 2021168974 A JP2021168974 A JP 2021168974A JP 2023059077 A JP2023059077 A JP 2023059077A
Authority
JP
Japan
Prior art keywords
information processing
unit
ship
angle
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021168974A
Other languages
English (en)
Inventor
大昌 小津和
Daisuke Kozuwa
総一郎 井上
Soichiro Inoue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Shipbuilding Co Ltd
Brains Corp
Original Assignee
Mitsubishi Shipbuilding Co Ltd
Brains Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Shipbuilding Co Ltd, Brains Corp filed Critical Mitsubishi Shipbuilding Co Ltd
Priority to JP2021168974A priority Critical patent/JP2023059077A/ja
Publication of JP2023059077A publication Critical patent/JP2023059077A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】船舶から撮影した画像により対象物までの距離を特定する。【解決手段】情報処理装置は、船舶に設置された撮影部で撮影された撮影画像を取得する取得部と、撮影画像において対象物を特定する対象特定部と、撮影部の俯角を特定する俯角特定部と、撮影画像と俯角とに基づき、船舶と対象物との距離を特定する距離特定部と、を備える。【選択図】図1

Description

本開示は、情報処理装置、対象物検知装置、情報処理方法およびプログラムに関する。
特許文献1には、海上を撮影した画像に含まれる船を検出する画像認識モデルを用いて、画像データから船の有無や船の種類を検出する情報処理装置が開示されている。
特開2021-77202号公報
しかしながら、特許文献1に記載の情報処理装置は、検出した船までの距離および方位、検出した船の進行方位、速度を特定する構成を有していないという課題がある。
本開示は、上記課題を解決するためになされたものであって、船舶から撮影した画像により対象物までの距離を特定することができる情報処理装置、対象物検知装置、情報処理方法およびプログラムを提供することを目的とする。
上記課題を解決するために、本開示に係る情報処理装置は、船舶に設置された撮影部で撮影された撮影画像を取得する取得部と、前記撮影画像において対象物を特定する対象特定部と、前記撮影部の俯角を特定する俯角特定部と、前記撮影画像と前記俯角とに基づき、前記船舶と前記対象物との距離を特定する距離特定部と、を備える。
本開示に係る対象物検知装置は、前記情報処理装置と、前記撮影部と、を備える。
本開示に係る情報処理方法は、船舶に設置された撮影部で撮影された撮影画像を取得するステップと、前記撮影画像において対象物を特定するステップと、前記撮影部の俯角を特定するステップと、前記撮影画像と前記俯角とに基づき、前記船舶と前記対象物との距離を特定するステップと、を含む。
本開示に係るプログラムは、船舶に設置された撮影部で撮影された撮影画像を取得するステップと、前記撮影画像において対象物を特定するステップと、前記撮影部の俯角を特定するステップと、前記撮影画像と前記俯角とに基づき、前記船舶と前記対象物との距離を特定するステップと、をコンピュータに実行させる。
本開示の情報処理装置、対象物検知装置、情報処理方法およびプログラムによれば、船舶から撮影した画像により対象物までの距離を特定することができる。
本開示の実施形態に係る対象物検知装置の概略構成を示すブロック図である。 本開示の実施形態に係る撮影部の画像範囲を模式的に示す平面図である。 本開示の実施形態に係る動揺センサの構成例を説明するための模式図である。 本開示の実施形態に係る画像解析サーバの動作例を示すフローチャートである。 本開示の実施形態に係る画像解析サーバの動作例を示すフローチャートである。 本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。 本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。 本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。 本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。 本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。 本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。 本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。 本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。 本開示の実施形態に係るコンピュータの構成を示す概略ブロック図である。
(対象物検知装置の構成)
以下、本開示の実施形態に係る情報処理装置、対象物検知装置、情報処理方法およびプログラムについて、図1~図14を参照して説明する。図1は、本開示の実施形態に係る対象物検知装置の概略構成を示すブロック図である。図2は、本開示の実施形態に係る撮影部の画像範囲を模式的に示す平面図である。図3は、本開示の実施形態に係る動揺センサの構成例を説明するための模式図である。図4および図5は、本開示の実施形態に係る画像解析サーバの動作例を示すフローチャートである。図6~図13は、本開示の実施形態に係る画像解析サーバの動作例を説明するための模式図である。図14は、本開示の実施形態に係るコンピュータの構成を示す概略ブロック図である。なお、各図において同一または対応する構成には同一の符号を用いて説明を適宜省略する。
図1に示すように対象物検知装置10は、画像解析サーバ1と、撮影部2と、動揺センサ3と、画像解析結果表示用PC(Personal Computer)4と、ハブ5と、複数の通信ケーブル51とを備える。画像解析サーバ1は、本開示の情報処理装置の一構成例である。画像解析サーバ1は、撮影部2と、動揺センサ3と、画像解析結果表示用PC4に、ハブ5と複数の通信ケーブル51を介して通信接続されている。また、画像解析サーバ1は、通信ケーブル61を介して、自動操船システム6に通信接続されている。対象物検知装置10と自動操船システム6は、船舶100に搭載されている。対象物検知装置10は、所定の検知範囲内に位置する他の船舶、ブイ、漁具、その他の物体等の対象物を識別し、船舶100から対象物までの距離、位置等を算出して、算出結果や対象物を撮影した画像を画像解析結果表示用PC4や船舶100の自動操船システム6等へ出力する。
撮影部2は、複数のカメラ21と複数のカメラ22を備える。カメラ21とカメラ22は画角が異なる。カメラ21とカメラ22は、例えば赤外線カメラである。複数のカメラ21と複数のカメラ22は、通信ケーブル51およびハブ5を介して画像解析サーバ1と通信接続され、複数のカメラ21と複数のカメラ22が撮影した撮影画像は画像解析サーバ1へ随時送信される。複数のカメラ21と複数のカメラ22は、船舶100の船橋や外部の周辺を見渡すことが可能な場所に設置される。船体に対するカメラ21および22の設置方向は、対象物検知装置10の検知範囲とカメラ21および22の画角を考慮して設置される。複数台のカメラ21とカメラ22を設置する場合と撮影方向は、各カメラ21および22の画像範囲が可能な限り連続する様に設置する。対象物検知装置10の対象物までの検知距離と対象物の大きさに適合する仕様のカメラを選択する。対象物検知装置10の検知範囲に応じた画角を有するカメラ、カメラ台数が設定される。
図2は、撮影部2の画像範囲を模式的に示す。図2に示す例は、撮影部2が、画角の異なる複数のカメラを組み合わせたカメラシステムとして構成され、6台のカメラ21と2台のカメラ22を備える。6台のカメラ21は、水平方向の画角(視野角)が8.6度の遠距離用カメラであり、各カメラ21の画像範囲(撮影範囲)は画像範囲21A、21B、21C、21D、21Eおよび21Fである。2台のカメラ22は、水平方向の画角が69.0度の近距離用カメラであり、各カメラ22の画像範囲は画像範囲22Aおよび21Bである。
船舶の場合、衝突回避のための対象物との必要検知距離は、数キロメートルから数十メートルの範囲と広範囲となる。また水平方向視野も、前方数十度が必要である。一般に、工学カメラの物理的限界により、遠距離用は視野角数度の狭い視野となり、近距離用は比較的視野角が広くなる。本実施形態は、船舶100の周辺監視として必要な、遠距離から近距離迄をカバーするために、遠距離用カメラと近距離用カメラを複数設置し、視野範囲を確保している。
動揺センサ3は、船舶100の動揺(ヒーブ・ロール・ピッチ等)(以下、船体動揺情報ともいう)を検出し、検出値を画像解析サーバ1へ送信する。動揺センサ3は、4台のGNSS(Global Navigation Satellite System; 全球測位衛星システム)受信機31と、各GNSS受信機31のアンテナ31a、31b、31cおよび31dと、慣性計測装置32と、図示していないコントローラとを備える。
図3に示すように、4台のGNSS受信機31のうちの3台のGNSS受信機31のアンテナ31b、31cおよび31dは、例えば、アンテナ31bを基準として船体座標系のピッチ軸方向にアンテナ31cが設置され、ロール軸方向にアンテナ31dが設置される。アンテナ31b、31cおよび31dに接続される3台のGNSS受信機31は、アンテナ31bに接続されるGNSS受信機31をMoving-RTK(Real Time Kinematic) Base、アンテナ31cおよび31dに接続される2台のGNSS受信機31をMoving-RTK Roverとして、三次元相対位置ベクトルRrと三次元相対位置ベクトルRpを測位する。動揺センサ3は、三次元相対位置ベクトルRrと三次元相対位置ベクトルRpに基づいて、船舶100のロール角とピッチ角とヨー角を算出する。また、アンテナ31aに接続されるGNSS受信機31は、ワールド(World)座標系における三次元絶対位置座標Pwを測位する。動揺センサ3は、ロール角とピッチ角と三次元絶対位置座標Pwからヒーブ(上下揺)を算出する。なお、慣性計測装置32は、例えば、MEMS(Micro Electro Mechanical Systems)ジャイロ・加速度センサであり、短時間姿勢変化情報を取得するために用いられる。
後述する対象物までの距離算出においては、カメラ21および22の水面上設置高さがパラメーターの一つとなっている。カメラ21および22は、船舶上部に固定されているが、船舶100の載貨状態などによりその喫水が変化し、それに伴ってカメラ21および22の水面からの高さは変化する。従って、演算パラメーターのカメラ21および22の高さは常に補正が必要で、それを動揺センサ3により算出したヒーブ実測値をもとにリアルタイムで補正する。また、動揺センサ3で算出したロール・ピッチを、後述する水平線検出不可の場合における仮想水平線位置の算出に使用し、対象物までの距離、対象物の方位、対象物の速度と進行方向の算出精度を担保する。なお、水平線検出可能であれば、画像解析のみで水平線位置を基準とした高精度な距離算出が可能であるため、船体動揺に関する補正は特に不要である。
一方、画像解析サーバ1は、プロセッサ、メモリ等のハードウェアと、プロセッサが実行するプログラム等のソフトウェアとの組み合わせから構成される機能的構成として、取得部11と、対象特定部12と、俯角特定部13と、距離特定部14とを備える。
取得部11は、船舶100に設置された撮影部2で撮影された撮影画像を取得する。また、取得部11は、動揺センサ3が出力した船体動揺情報を取得する。
対象特定部12は、撮影画像において対象物を特定する。対象特定部12は、例えば学習済み機械学習モデルを用いて画像認識を行い、対象物や水平線の位置や領域(枠)を特定する。学習済み機械学習モデルは、例えば、船舶、ブイ、漁具、その他の物体等の対象物を含む複数の画像を、対象物の識別情報等でラベル付けした学習用データセットを用いて教師あり学習で学習したモデルであり、画像情報を入力し、対象物の有無、撮影画像上の対象物の位置および領域を表す情報を出力するモデルである。
俯角特定部13は、撮影部2の俯角を特定する。その際、俯角特定部13は、撮影画像における水平線と対象物との位置関係に基づき、俯角を特定する。また、俯角特定部13は、撮影画像において水平線が検出できない場合、仮想水平線を設定し、仮想水平線と対象物との位置関係に基づき、俯角を特定する。例えば撮影方向が陸側を向いているような場合等には撮影画像内に水平線が含まれないことがある。このような場合に、俯角特定部13は、仮想的に水平線を設定する。なお、俯角特定部13は、船舶100の動揺を検出する動揺センサ3の検出値に基づき、俯角を特定する。また、俯角特定部13は、撮影部2の設置高さに基づき、俯角を特定する。
距離特定部14は、撮影画像と俯角とに基づき、船舶100と対象物との距離を特定する。また、距離特定部14は、複数のカメラ21および22に亘る対象物を、特定した距離を含む位置情報に基づき統合する。
(対象物検知装置の動作)
次に、図4および図5に示すフローチャート等を参照して、図1に示す対象物検知装置10の動作例について説明する。なお、図4に示すフローと図5に示すフローは、結合子AおよびBで互いに接続されている。図4および図5に示す処理は、所定の周期で繰り返し実行される。また、各カメラ21および22の設置高さはいずれも水面(海面)から25mであるとする。また、説明で用いる撮影画像の例は、横640画素(画角:8.6度)、縦512画素(画角:6.6度)のカメラ21による撮影画像であるとする。
図4および図5に示す処理が開始されると、対象物検知装置10では、まず、画像解析サーバ1の取得部11が、撮影部2が撮影した複数の(複数のカメラ21および22の)撮影画像を取得する(ステップS101)。次に、取得部11が、動揺センサ3が出力した船体動揺情報を取得する(ステップS102)。
次に、対象特定部12が、複数の撮影画像のうちの1つの撮影画像において対象物の有無、位置および領域を特定する(ステップS103)。対象特定部12は、例えば、図6に示すような撮影画像IMG1を学習済み機械学習モデルへ入力し、撮影画像IMG1に含まれる対象物(船(SHIP)、ブイ(BUOY)等)の位置と領域を表す情報を特定する。
次に、対象特定部12は、対象物を特定できたか否かを判断する(ステップS104)。対象物が特定されなかった場合(ステップS104:No)、対象特定部12は、複数の撮影画像のすべてを処理したか否かを判断する(ステップS113)。複数の撮影画像のすべてを処理していなかった場合(ステップS113:No)、対象特定部12は、複数の撮影画像のうちの次の撮影画像において対象物の有無、位置および領域を特定する(ステップS103)。
一方、対象物が特定された場合(ステップS104:Yes)、対象特定部12は、当該撮影画像において水平線を検出する(ステップS105)。対象特定部12は、例えば、図6に示すような撮影画像IMG1に対して画像認識を行い、撮影画像IMG1に含まれる水平線(HORIZON)の位置と領域を表す情報を特定する。
次に、俯角特定部13は、水平線が検出されたか否かを判断する(ステップS106)。当該撮影画像で水平線が検出された場合(ステップS106:Yes)、俯角特定部13は、地球半径と動揺センサ3が検出したヒーブより水平線撮影俯角θhを算出する(ステップS107)。
図7に示すように、海面を基準とするカメラ21および22の高さは、設置高さ25mにヒーブの絶対値を加算または減算した値となる。また、水平線撮影俯角θhは下式で算出される。
θh=cos-1(地球半径/(地球半径+カメラ設置高±ヒーブ))
次に、俯角特定部13は、図8に示すように、撮影画像IMG2上で水平線と対象物OJ1の垂直距離dHを測定し、水平線撮影方向と対象物撮影方向の成す角θdに換算する(ステップS108)。
次に、俯角特定部13は、図9に示すように、水平線撮影俯角θhと、水平線撮影方向と対象物撮影方向の成す角θdを加算し、対象物撮影俯角θtを算出する(ステップS109)。
次に、距離特定部14が、図9に示すように、対象物撮影俯角θtと撮影部高さとヒーブに基づき対象物OJ1までの距離を下式で算出する(ステップS110)。
対象物までの距離=(カメラ設置高±ヒーブ)/tan(対象物撮影俯角θt)
他方、当該撮影画像で水平線が検出されなかった場合(ステップS106:No)、俯角特定部13は、図10に示すように、地球半径と動揺センサ3が検出したヒーブおよびピッチより仮想水平線撮影俯角θh’を下式で算出する(ステップS121)。
θ’=cos-1(地球半径/(地球半径+カメラ設置高±ヒーブ))
仮想水平線撮影俯角θh’=θ’±ピッチ
次に、俯角特定部13は、図11に示すように、撮影画像IMG3上で仮想水平線撮影俯角θh’に相当する位置dHr’に仮想水平線(破線)を追加し、撮影画像内の基準点を中心として動揺センサ3が検出したロール分回転する(回転後の仮想水平線(鎖線))(ステップS122)。
ここでは、水平線を検出不可の場合においても、仮に映るとした場合の位置として推定し、距離算出における基準線として用いる。なお、カメラを複数台設置する場合、ある一つのカメラの仮想水平線を基準とし、各カメラの撮影画角および設置関係から、他カメラ内の仮想水平線位置を推定する。また、仮想水平線位置は、水平線が検出可能な状況で、撮影画像に映る水平線位置と仮想水平線位置および挙動が可能なかぎり一致するよう、予め校正作業を行っておくことが望ましい。
次に、俯角特定部13は、図11に示すように、撮影画像IMG3上で仮想水平線と対象物OJ1の垂直距離dH’を測定し、仮想水平線撮影方向と対象物撮影方向の成す角θd’に換算する(ステップS123)。
次に、俯角特定部13は、図12に示すように、仮想水平線撮影俯角θh’と、仮想水平線撮影方向と対象物撮影方向の成す角θd’を加算し、対象物撮影俯角θt’を算出する(ステップS124)。
次に、距離特定部14が、図12に示すように、対象物撮影俯角θtと撮影部高さとヒーブに基づき対象物OJ1までの距離を下式で算出する(ステップS125)。
対象物までの距離=(カメラ設置高±ヒーブ)/tan(対象物撮影俯角θt’)
ステップS110またはステップS125で対象物までの距離を算出した後、距離特定部14は、対象物の方位を算出する(ステップS111)。対象物の方位は、投影されているカメラの船体に対する方位、カメラの画角、船体の動揺情報をもとに、撮影画像中の対象物の位置から算出される。
次に、距離特定部14は、対象物の進行方向および速度を算出する(ステップS112)。対象物の進行方向および速度は、一定の時間間隔での撮影画像中の対象物の移動距離と、対象物と本船の距離(例えば、ステップS110またはステップS125で算出された対象物までの距離)と、により連続的に計算される。また、その際の揺らぎの安定化のために、各時間の計算値は、演算処理により適宜平均化される。
次に、対象特定部12が、複数の撮影画像のすべてを処理したか否かを判断する(ステップS113)。一方、複数の撮影画像のすべてを処理していなかった場合(ステップS113:No)、対象特定部12は、複数の撮影画像のうちの次の撮影画像において対象物の有無、位置および領域を特定する(ステップS103)。他方、複数の撮影画像のすべてを処理していた場合(ステップS113:Yes)、距離特定部14が、対象物検知結果の統合処理を行う(ステップS114)。
ステップS114において、距離特定部14は、同一の物体が複数のカメラに映る場合、対象物の位置情報がある程度近いことと画像認識による識別結果をふまえ、可能な限り単一の物体として検知結果を統合する。例えば、図13に示すように、隣り合う撮影画像IMG11と撮影画像IMG12において、対象物OJ11に対する検知枠F1と、対象物OJ12に対する検知枠F2の測位情報(方位・距離)が一定範囲内の場合、距離特定部14は、一つの物標(対象物OJ2)(同一ID(識別符号))として扱う。また、距離特定部14は、画面渡り中は移動方向の先頭と後尾から全体の重心を算出する。
次に、距離特定部14は、対象物の情報(対象物有無、対象物のID、距離、方位、速度、進行方向、種別(船舶、ブイ等)等)や撮影画像を、画像解析結果表示用PC4や自動操船システム6等に出力して、図4および図5に示す処理を終了する。
(作用効果)
以上のように本実施形態によれば、船舶から撮影した画像により対象物までの距離を特定することができる。
以上、この発明の実施形態について図面を参照して説明してきたが、具体的な構成は上記実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
〈コンピュータ構成〉
図14は、本開示の実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ90は、プロセッサ91、メインメモリ92、ストレージ93、および、インタフェース94を備える。
上述の画像解析サーバ(情報処理装置)1は、コンピュータ90に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ93に記憶されている。プロセッサ91は、プログラムをストレージ93から読み出してメインメモリ92に展開し、当該プログラムに従って上記処理を実行する。また、プロセッサ91は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ92に確保する。
プログラムは、コンピュータ90に発揮させる機能の一部を実現するためのものであってもよい。例えば、プログラムは、ストレージに既に記憶されている他のプログラムとの組み合わせ、または他の装置に実装された他のプログラムとの組み合わせによって機能を発揮させるものであってもよい。なお、他の実施形態においては、コンピュータは、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)等が挙げられる。この場合、プロセッサによって実現される機能の一部または全部が当該集積回路によって実現されてよい。
ストレージ93の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ93は、コンピュータ90のバスに直接接続された内部メディアであってもよいし、インタフェース94または通信回線を介してコンピュータ90に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ90に配信される場合、配信を受けたコンピュータ90が当該プログラムをメインメモリ92に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ93は、一時的でない有形の記憶媒体である。
<付記>
本開示の実施形態に記載の画像解析サーバ1は、例えば以下のように把握される。
(1)第1の態様に係る画像解析サーバ1(情報処理装置)は、船舶100に設置された撮影部2で撮影された撮影画像を取得する取得部11と、前記撮影画像において対象物を特定する対象特定部12と、前記撮影部2の俯角を特定する俯角特定部13と、前記撮影画像と前記俯角とに基づき、前記船舶100と前記対象物との距離を特定する距離特定部14と、を備える。この態様によれば、画像解析サーバ1(情報処理装置)は、船舶100から撮影した画像により対象物までの距離を特定することができる。
(2)第2の態様の画像解析サーバ1(情報処理装置)は、(1)の画像解析サーバ1(情報処理装置)であって、前記俯角特定部13が、前記撮影画像における水平線と前記対象物との位置関係に基づき、前記俯角を特定する。この態様によれば、画像解析サーバ1(情報処理装置)は、船舶100から撮影した画像により対象物までの距離を精度良く特定することができる。
(3)第3の態様の画像解析サーバ1は、(1)の画像解析サーバ1(情報処理装置)であって、前記俯角特定部13が、前記撮影画像において水平線が検出できない場合、仮想水平線を設定し、前記仮想水平線と前記対象物との位置関係に基づき、前記俯角を特定する。この態様によれば、画像解析サーバ1(情報処理装置)は、水平線が撮影画像に含まれない場合であっても、船舶100から撮影した画像により対象物までの距離を精度良く特定することができる。
(4)第4の態様の画像解析サーバ1(情報処理装置)は、(1)から(3)のいずれかの画像解析サーバ1(情報処理装置)であって、前記俯角特定部13が、前記船舶100の動揺を検出する動揺センサ3の検出値に基づき、前記俯角を特定する。この態様によれば、画像解析サーバ1(情報処理装置)は、船舶100から撮影した画像により対象物までの距離を精度良く特定することができる。
(5)第5の態様の画像解析サーバ1(情報処理装置)は、(1)から(4)のいずれかの画像解析サーバ1(情報処理装置)であって、前記俯角特定部13が、前記撮影部2の設置高さに基づき、前記俯角を特定する。
(6)第6の態様の画像解析サーバ1(情報処理装置)は、(1)から(5)のいずれかの画像解析サーバ1(情報処理装置)であって、前記撮影部2が、画角の異なる複数のカメラ21、22を備える。
(7)第7の態様の画像解析サーバ1(情報処理装置)は、(1)から(5)のいずれかの画像解析サーバ1(情報処理装置)であって、前記撮影部2が複数のカメラ21、22を備え、前記距離特定部14が、前記複数のカメラ21、22に亘る前記対象物を前記特定した距離を含む位置情報に基づき統合する。
(8)第8の態様に係る対象物検知装置10は、(1)から(7)のいずれかの画像解析サーバ1(情報処理装置)と、前記撮影部2と、を備える。この態様によれば、対象物検知装置10は、船舶100から撮影した画像により対象物までの距離を特定することができる。
(9)第9の態様に係る情報処理方法は、船舶100に設置された撮影部2で撮影された撮影画像を取得するステップと、前記撮影画像において対象物を特定するステップと、前記撮影部2の俯角を特定するステップと、前記撮影画像と前記俯角とに基づき、前記船舶100と前記対象物との距離を特定するステップと、を含む。この態様によれば、情報処理方法は、船舶100から撮影した画像により対象物までの距離を特定することができる。
(10)第10の態様に係るプログラムは、船舶100に設置された撮影部2で撮影された撮影画像を取得するステップと、前記撮影画像において対象物を特定するステップと、前記撮影部2の俯角を特定するステップと、前記撮影画像と前記俯角とに基づき、前記船舶100と前記対象物との距離を特定するステップと、をコンピュータに実行させる。この態様によれば、プログラムは、船舶100から撮影した画像により対象物までの距離を特定することができる。
1…画像解析サーバ(情報処理装置)
2…撮影部
3…動揺センサ
4…画像解析結果表示用PC
5…ハブ
6…自動操船システム
10…対象物検知装置
11…取得部
12…対象特定部
13…俯角特定部
14…距離特定部
21…カメラ
21A…画像範囲
21B…画像範囲
21C…画像範囲
21D…画像範囲
21E…画像範囲
21F…画像範囲
22…カメラ
22A…画像範囲
31…GNSS受信機
31a…アンテナ
31b…アンテナ
31c…アンテナ
31d…アンテナ
32…慣性計測装置
51…通信ケーブル
61…通信ケーブル
90…コンピュータ
91…プロセッサ
92…メインメモリ
93…ストレージ
94…インタフェース
100…船舶
F1…検知枠
F2…検知枠
IMG1…撮影画像
IMG2…撮影画像
IMG3…撮影画像
IMG11…撮影画像
IMG12…撮影画像
OJ1…対象物
OJ2…対象物
OJ11…対象物
OJ12…対象物
Pw…三次元絶対位置座標
Rp…三次元相対位置ベクトル
Rr…三次元相対位置ベクトル

Claims (10)

  1. 船舶に設置された撮影部で撮影された撮影画像を取得する取得部と、
    前記撮影画像において対象物を特定する対象特定部と、
    前記撮影部の俯角を特定する俯角特定部と、
    前記撮影画像と前記俯角とに基づき、前記船舶と前記対象物との距離を特定する距離特定部と、
    を備える情報処理装置。
  2. 前記俯角特定部が、前記撮影画像における水平線と前記対象物との位置関係に基づき、前記俯角を特定する
    請求項1に記載の情報処理装置。
  3. 前記俯角特定部が、前記撮影画像において水平線が検出できない場合、仮想水平線を設定し、前記仮想水平線と前記対象物との位置関係に基づき、前記俯角を特定する
    請求項1に記載の情報処理装置。
  4. 前記俯角特定部が、前記船舶の動揺を検出する動揺センサの検出値に基づき、前記俯角を特定する
    請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記俯角特定部が、前記撮影部の設置高さに基づき、前記俯角を特定する
    請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記撮影部が、画角の異なる複数のカメラを備える
    請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記撮影部が複数のカメラを備え、
    前記距離特定部が、前記複数のカメラに亘る前記対象物を前記特定した距離を含む位置情報に基づき統合する
    請求項1から5のいずれか1項に記載の情報処理装置。
  8. 請求項1から7のいずれか1項に記載の情報処理装置と、
    前記撮影部と、
    を備える対象物検知装置。
  9. 船舶に設置された撮影部で撮影された撮影画像を取得するステップと、
    前記撮影画像において対象物を特定するステップと、
    前記撮影部の俯角を特定するステップと、
    前記撮影画像と前記俯角とに基づき、前記船舶と前記対象物との距離を特定するステップと、
    を含む情報処理方法。
  10. 船舶に設置された撮影部で撮影された撮影画像を取得するステップと、
    前記撮影画像において対象物を特定するステップと、
    前記撮影部の俯角を特定するステップと、
    前記撮影画像と前記俯角とに基づき、前記船舶と前記対象物との距離を特定するステップと、
    をコンピュータに実行させるプログラム。
JP2021168974A 2021-10-14 2021-10-14 情報処理装置、対象物検知装置、情報処理方法およびプログラム Pending JP2023059077A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021168974A JP2023059077A (ja) 2021-10-14 2021-10-14 情報処理装置、対象物検知装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021168974A JP2023059077A (ja) 2021-10-14 2021-10-14 情報処理装置、対象物検知装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2023059077A true JP2023059077A (ja) 2023-04-26

Family

ID=86095500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021168974A Pending JP2023059077A (ja) 2021-10-14 2021-10-14 情報処理装置、対象物検知装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2023059077A (ja)

Similar Documents

Publication Publication Date Title
JP6029446B2 (ja) 自律飛行ロボット
EP3862997A1 (en) Ship and harbor monitoring device and method
US9734583B2 (en) Systems and methods for controlling vehicle position and orientation
KR102530691B1 (ko) 접안 모니터링 장치 및 방법
JP6804991B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US11514668B2 (en) Method and device for situation awareness
JP6599143B2 (ja) 自律移動ロボット
US10885353B2 (en) Information processing apparatus, moving object, information processing method, and computer program product
US20220024549A1 (en) System and method for measuring the distance to an object in water
KR102530847B1 (ko) 항만 및 선박 모니터링 방법 및 장치
US11548598B2 (en) Image generating device and method of generating image
CN113532499B (zh) 无人系统的传感器安全性检测方法、设备及存储介质
KR102645492B1 (ko) 선박 및 항만 모니터링 장치 및 방법
KR20240080189A (ko) 거리 측정 방법 및 이를 이용하는 거리 측정 장치
WO2024004722A1 (ja) 電子機器、制御方法および制御プログラム
US11776250B2 (en) Method and device for situation awareness
Kim et al. Field experiment of autonomous ship navigation in canal and surrounding nearshore environments
JP2023059077A (ja) 情報処理装置、対象物検知装置、情報処理方法およびプログラム
Douguet et al. Multimodal perception for obstacle detection for flying boats-Unmanned Surface Vehicle (USV)
CN112050830B (zh) 一种运动状态估计方法及装置
JP2022062374A (ja) 認識装置、認識方法及び認識プログラム
JP2021047744A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7274981B2 (ja) 情報処理装置
WO2024004723A1 (ja) 電子機器、制御方法および制御プログラム
KR102670260B1 (ko) 거리 측정 방법 및 이를 이용하는 거리 측정 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240314