JP2022088142A - 距離認識システムおよびその制御方法、船舶 - Google Patents
距離認識システムおよびその制御方法、船舶 Download PDFInfo
- Publication number
- JP2022088142A JP2022088142A JP2020200425A JP2020200425A JP2022088142A JP 2022088142 A JP2022088142 A JP 2022088142A JP 2020200425 A JP2020200425 A JP 2020200425A JP 2020200425 A JP2020200425 A JP 2020200425A JP 2022088142 A JP2022088142 A JP 2022088142A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image pickup
- pickup unit
- distance
- recognition system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 49
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 31
- 238000003384 imaging method Methods 0.000 claims abstract description 29
- 230000008569 process Effects 0.000 claims description 37
- 230000003287 optical effect Effects 0.000 claims description 29
- 230000001154 acute effect Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001141 propulsive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
【課題】撮像範囲における任意の位置の距離をより正確に認識する。【解決手段】ステレオカメラ41を有する距離認識システムが提供される。ステレオカメラ41において、第2のカメラ41bおよび第1のカメラ41aは、水面46が撮像範囲に含まれるように、船体13に配置される。第2のカメラ41bは第1のカメラ41aよりも高い位置に配置される。カメラ41b、41bからそれぞれ取得された第1の画像51、第2の画像52の間のマッチング処理により、第1の画像51における任意の位置に関する距離情報が取得される。【選択図】図3
Description
本発明は、距離認識システムおよびその制御方法、船舶に関する。
従来、特許文献1に開示されるように、車の分野では、ステレオカメラを用いて検知対象物までの距離を検出する技術が知られている。特許文献1では、左右に並んだ2つの撮像部で撮像された2つの画像間のステレオマッチングを用いて検知対象物までの距離が検出される。
一方、船舶の分野においては、運航上、波高等の水面状態を把握することが重要である。例えば、特許文献1に開示されるステレオカメラを用いて、カメラから個々の波までの相対距離を検出することが考えられる。通常、ステレオマッチングでは三角測量によって距離が認識される。その際、例えば、第1の画像から切り出した矩形に合致する矩形が、第2の画像における探索範囲から抽出される。2つの撮像部は水平に配置されているため、探索方向は左右方向である。
しかしながら、例えば水面上の波には、浮遊物等の異物と比べると個々の特徴が少なく、互いに近似した波が多い。特に、距離が同じ位置にある波同士は形状や大きさに大きな違いがない。そのため、左右方向に探索する場合は、距離が同じ位置同士の矩形を比較することになるから、合致する矩形の抽出が困難である。従って、撮像範囲における任意の位置までの距離の認識精度が低くなる。
本発明は、撮像範囲における任意の位置の距離をより正確に認識することを目的とする。
この発明の一態様による距離認識システムは、水面が撮像範囲に含まれるように、船体に配置される第1の撮像部と、水面が撮像範囲に含まれるように、前記船体における前記第1の撮像部よりも高い位置に配置される第2の撮像部と、前記第1の撮像部または前記第2の撮像部の一方により撮像された第1の画像と前記第1の撮像部または前記第2の撮像部の他方により撮像された第2の画像とを取得する画像取得部と、前記第1の画像と前記第2の画像との間のマッチング処理により、前記第1の画像における任意の位置に関する距離情報を取得する処理部と、を有する。
この構成によれば、距離認識システムは、水面が撮像範囲に含まれるように、船体に配置される第1の撮像部と、水面が撮像範囲に含まれるように、前記船体における前記第1の撮像部よりも高い位置に配置される第2の撮像部と、を有する。前記第1の撮像部または前記第2の撮像部の一方により撮像された第1の画像と前記第1の撮像部または前記第2の撮像部の他方により撮像された第2の画像とが取得され、前記第1の画像と前記第2の画像との間のマッチング処理により、前記第1の画像における任意の位置に関する距離情報が取得される。
本発明によれば、撮像範囲における任意の位置の距離をより正確に認識することができる。
以下、図面を参照して本発明の実施の形態を説明する。
図1は、本発明の一実施の形態に係る距離認識システムが適用される船舶の模式的側面図である。この船舶11は、船体13と、船体13に搭載される船舶推進機としての船外機15とを備えている。船体13に備わる船外機15の数は問わない。船体13のキャビン29内において、操船席28の付近には、中央ユニット10、サブユニット40、ステアリングホイール18、スロットルレバー12が備えられる。
以下の説明において、前後左右上下の各方向は、図1に示すように、船体13の前後左右上下の各方向を意味する。左右方向については、船体13を後方から見た場合を基準とする。鉛直方向は、前後方向及び左右方向に垂直な方向である。なお、鉛直方向は、船体13のデッキ45の上面に対して垂直な方向であるとする。
船外機15は、取付ユニット14を介して船体13に取り付けられている。船外機15は、内燃機関であるエンジン16を有する。船外機15は、エンジン16の駆動力によって回転されるプロペラによって、船体13を移動させる推力を得る。取付ユニット14は、スイベルブラケット、クランプブラケット、ステアリング軸およびチルト軸を含む(いずれも図示せず)。取付ユニット14は、さらに、パワートリム&チルト機構(PTT機構)27を含む(図2参照)。PTT機構27は、船外機15をチルト軸まわりに回動させる。これにより、船体13に対する船外機15の傾斜角(トリム角、チルト角)を変化させることができるので、トリム調整をしたり、船外機15をチルトアップ/チルトダウンさせたりすることができる。また、船外機15は、スイベルブラケットに対してステアリング軸まわりに回動可能である。船外機15は、ステアリングホイール18が操作されることによって左右に回動し、これにより、船舶11が操舵される。
キャビン29の上部前部に、ステレオカメラ41が設置されている。ステレオカメラ41は、キャビン29に対して直接に、または支持部を介して取り付けられている。ステレオカメラ41の配置位置は、操船席28より前方でかつ操船席28よりも高い位置にある。ステレオカメラ41は、一対の撮像部を成す第1のカメラ41a(第1の撮像部)および第2のカメラ41b(第2の撮像部)を備える。第1のカメラ41a、第2のカメラ41bの撮像方向はいずれも略前方に設定されている。
船体13の船首上端13aとステアリングホイール18の上端18a(ステアリング上端)とを通る直線を仮想直線L1とする。上下方向に関しては、カメラ41a、41bはいずれも、船体13の側方(左方または右方)から見て、仮想直線L1よりも上方の領域に配置される。カメラ41a、41bはいずれも、キャビン29の上部後端29aより前方でかつ上方に位置する。前後方向に関しては、カメラ41a、41bはいずれも、船体13の後端から船体13の全長の1/3だけ前の位置よりも前方に配置される。
図2は、操船システムのブロック図である。この操船システムは、距離認識システム100を含む。距離認識システム100は、認識処理部20、ステレオカメラ41、表示部9および設定操作部19を含む。なお、操船システム全体を距離認識システム100と呼称してもよい。
船舶11は、主に操船に関する構成要素として、コントローラ30、センサ群17、受信部39、表示部9、設定操作部19、転舵用アクチュエータ24、PTT機構27、開度調整部26を備える。
コントローラ30、センサ群17、開度調整部26、受信部39、表示部9、設定操作部19は、中央ユニット10に含まれるか、または中央ユニット10の付近に配置される。表示部9、設定操作部19はサブユニット40に含まれてもよい。あるいは、表示部9および設定操作部19は、中央ユニット10とサブユニット40とに個別に備えられてもよい。センサ群17は、スロットルセンサ、スロットル開度センサ、操舵角センサ、船体速度センサ、船体加速度センサ、姿勢センサ、エンジン回転数センサを含む(いずれも図示せず)。スロットル開度センサおよびエンジン回転数センサは、船外機15に設けられる。転舵用アクチュエータ24、PTT機構27は、船外機15に対応して設けられる。
コントローラ30は、第1通信部43、第1CPU31、第1ROM32および第1RAM33および不図示のタイマを含む。第1ROM32は制御プログラムを格納している。第1CPU31は、第1ROM32に格納された制御プログラムを第1RAM33に展開して実行することにより、各種の制御処理を実現する。第1RAM33は、第1CPU31が制御プログラムを実行する際のワークエリアを提供する。第1通信部43は、有線または無線により認識処理部20と通信する。
センサ群17による各検出結果は、コントローラ30に供給される。スロットルレバー12(図1)は、スロットル開度を手動で調整するスロットル操作子である。センサ群17におけるスロットルセンサは、スロットルレバー12の操作位置を検出する。スロットル開度センサは、不図示のスロットルバルブの開度を検出する。開度調整部26は、スロットルバルブの開度を調整する。自動操舵でない通常制御においては、第1CPU31は、スロットルレバー12の操作位置に基づいて開度調整部26を制御する。操舵角センサは、ステアリングホイール18が回転された際の回転角を検出する。船体速度センサ、船体加速度センサはそれぞれ、船舶11(船体13)の航行の速度、加速度を検出する。
姿勢センサは、例えば、ジャイロセンサおよび磁気方位センサ等を含む。姿勢センサから出力された信号に基づいて、コントローラ30は、ロール角、ピッチ角およびヨー角を算出する。受信部39は、GPSなどのGNSS(Global Navigation Satellite Systems)の受信機を含み、GPS信号や各種の信号を位置情報として受信する機能を有する。受信部39が受信した信号は第1CPU31に供給される。エンジン回転数センサは、エンジン16の単位時間当たりの回転数を検出する。表示部9は、各種情報を表示する。設定操作部19は、操船に関する操作をするための操作子、PTT操作スイッチのほか、各種設定を行うための設定操作子、各種指示を入力するための入力操作子を含む(いずれも図示せず)。
転舵用アクチュエータ24は、船外機15を船体13に対して左右方向に回動させる。これによって、船体13に対して推進力が作用する方向が変化する。PTT機構27は、船外機15をチルト軸まわりに回動させてクランプブラケットに対して傾ける。PTT機構27は、例えば、PTT操作スイッチが操作されることによって作動する。これにより、船体13に対する船外機15の傾斜角を変化させることができる。なお、コントローラ30は、船外機15に設けられる船外機ECU(図示せず)を介して、エンジン16を制御してもよい。
認識処理部20はサブユニット40に含まれる。認識処理部20は、第2通信部44、第2CPU21、第2ROM22、第2RAM23および不図示のタイマを含む。認識処理部20とコントローラ30とは、第2通信部44と第1通信部43とを介して通信可能に接続されている。両者間の通信プロトコルの種類は問わないが、例えば、CAN(Control Area Network)プロトコルが用いられる。第1CPU31は第2CPU21と通信して情報をやりとりする。第2ROM22は制御プログラムを格納している。第2CPU21は、第2ROM22に格納された制御プログラムを第2RAM23に展開して実行することにより、各種の制御処理を実現する。第2RAM23は、第2CPU21が制御プログラムを実行する際のワークエリアを提供する。表示部9および設定操作部19は、コントローラ30だけでなく認識処理部20にも接続されている。
図3は、ステレオカメラ41の配置および撮像方向を示す模式図である。第2のカメラ41bは第1のカメラ41aよりも高い位置に配置される。滑走時において、第1のカメラ41aの撮像範囲および第2のカメラ41bの撮像範囲のいずれにも水面46が含まれるように、各カメラの画角および撮像方向が設定されている。しかも、第1のカメラ41aと第2のカメラ41bとは、撮像範囲が互いに略重複するように配置される。カメラ41a、41bにより撮像された撮像画像は第2CPU21に供給される。カメラ41a、41bにより撮像された撮像画像を、それぞれ、第1の画像、第2の画像と称する。
第1のカメラ41aの撮像レンズの光軸Xaと第2のカメラ41bの撮像レンズの光軸Xbとは互いに略平行である。光軸Xaとデッキ45に平行な面45aとが、撮像方向(被写体方向)で且つ下方において鋭角θaを成す。同様に、光軸Xbとデッキ45に平行な面45aとが、撮像方向(被写体方向)で且つ下方において鋭角θbを成す。デッキ45が水平な状態において、光軸Xa、Xbは水面46を貫通する。従って、船体13の姿勢が変化しても水面46が撮像範囲に入りやすい。船体13の姿勢変化を考慮し、鋭角θa、θbは、0度より大きく20度より小さい値に設定されるのが望ましい。なお、一例として、水面46からのステレオカメラ41の配置高さを約1.7mとした場合、20m先の波を認識するためには、鋭角θa、θbを15~20度とするのが望ましい。
なお、鋭角θa、θbは、20度より大きくてもよい。例えば、ステレオカメラ41を高い位置に設置し、高い位置から見下ろすように船体13の近傍の波を見たい場合もあるからである。従って、鋭角θa、θbは、通常、0度より大きく60度より小さい値に設定されるが、好ましくは0度より大きく40度より小さい値に設定され、さらに好ましくは0度より大きく20度より小さい値に設定される。
また、光軸Xa方向における第1のカメラ41aの位置と第2のカメラ41bの位置とは略一致している。つまり、光軸Xa方向におけるカメラ41a、41bの撮像面同士の位置が略一致している。さらに、光軸Xa方向とデッキ45に垂直な方向(船体13の上下方向)とに直交する方向(図3に示す構成例では船体13の左右方向、つまり図3の紙面奥行き方向)における第1のカメラ41aの位置と第2のカメラ41bの位置とは略一致している。つまり、前方から見ると、カメラ41b、41aは上下に並んでいる。これらは、後述する距離情報の算出負荷を低減することに役立つ。
第2CPU21は、主として第2CPU21、第2ROM22、第2RAM23、第2通信部44および不図示のタイマ等と協働して、画像取得部としての機能を果たす。画像取得部としての第2CPU21は、第1のカメラ41aにより撮像された第1の画像を取得すると共に、第2のカメラ41bにより撮像された第2の画像を取得する。また、第2CPU21は、主として第2CPU21、第2ROM22、第2RAM23、第2通信部44および不図示のタイマ等と協働して、処理部としての機能を果たす。詳細は後述するが、処理部としての第2CPU21は、第1の画像と第2の画像との間のマッチング処理により、第1の画像における任意の位置に関する距離情報(ステレオカメラ41からの相対距離)を取得する。
図4(a)、(b)は、それぞれ、第1の画像、第2の画像の概念図である。図4(a)、(b)に示す第1の画像51、第2の画像52は、互いに同じタイミングで取得された画像フレームに該当する。
第1の画像51における任意の位置に関する距離情報を取得するためのマッチング処理について概説する。このマッチング処理には、WO2016/063545号公報に開示されるようなSAD(Sum of Absolute Difference)関数を利用した公知のステレオマッチング処理の手法を採用することができる。
このマッチング処理において、第2CPU21は、第1の画像51において基準領域53を設定する。基準領域53は、一例として所定数×所定数の画素分の矩形の画素ブロックである。次に、第2CPU21は、距離情報取得処理を実行する。距離情報取得処理では、今回の基準領域53の所定位置(例えば中心位置)の距離情報が取得される。第2CPU21は、今回の基準領域53を所定の画素単位でずらした位置に次の基準領域53を設定し、当該次の基準領域53に対して距離情報取得処理を実行する。このように、順次決定される複数の基準領域53の各々に関して距離情報取得処理が実行されることで、撮像範囲における任意の位置の距離が把握される。
距離情報取得処理を含むマッチング処理について、図4、図5、図6を用いて説明する。図5は、マッチング処理を示すフローチャートである。この処理は、第2ROM22に格納されたプログラムを第2CPU21が第2RAM23に展開して実行することにより実現される。この処理は、操船者からの指示を受けて開始される。あるいは、この処理は、操船システムが起動されると開始されるようにしてもよい。
ステップS101では、画像取得部としての第2CPU21は、第1のカメラ41a、第2のカメラ41bによりそれぞれ撮像された第1の画像51、第2の画像52を取得する。ステップS102では、第2CPU21は、上述したように第1の画像51において基準領域53を設定する(図4(a)参照)。ステップS103~S106で、処理部としての第2CPU21は、距離情報取得処理を実行する。
ステップS103では、第2CPU21は、第2の画像52において、基準領域53の位置およびサイズに基づいて探索領域54を設定する(図4(b)参照)。その際、探索領域54の幅は、基準領域53と同じ幅であり、探索領域54の長手方向は第1のカメラ41aおよび第2のカメラ41bの並び方向に対応する方向である。本実施の形態では、第1のカメラ41aおよび第2のカメラ41bがほぼ上下に並ぶので、探索領域54は、第2の画像52において、基準領域53に対応する矩形領域を含んだ画素座標上の略上下方向となる。厳密には、探索領域54の長手方向は、エピポーラ線の方向に設定される。
次に、ステップS104では、第2CPU21は、第2の画像52の探索領域54を長手方向にスキャンし、探索領域54において基準領域53と合致する領域(合致領域55と称する)を抽出する(図4(b)参照)。これにより、第2の画像52の中で、合致領域55が、基準領域53に撮像されているものと同じ対象物が撮像されている画素ブロックとして特定される。
次に、ステップS105では、第2CPU21は、基準領域53と合致領域55との間で互いに対応する特徴点同士の視差を取得する。ステップS106では、第2CPU21は、取得した視差を用い、公知の三角測量の原理により、上記特徴点の距離を、今回の基準領域53に関する距離情報として取得する。
図6は、三角測量の原理を説明する模式図である。カメラ41a、41bの光軸間隔(光軸Xaと光軸Xbとの間隔)を基線長Lとする。カメラ41a、41bの各撮像レンズの焦点距離をFとする。第1の画像51に対する第2の画像52の対応点のずれ量を、撮像面上の視差Dとする。カメラ41a、41bの焦点距離、撮像素子の画素数および1画素の大きさは互いに等しいものとする。また、光軸Xa方向におけるカメラ41a、41bの各撮像面の位置は略一致しているとする。カメラ41a、41bのレンズ中心から対象物までの距離Zは、三角測量の原理による式1により導かれる。
Z=L×F/D・・・(1)
Z=L×F/D・・・(1)
その後、第2CPU21は、視差Dから距離データを有する距離画像を生成する。第2CPU21は、距離画像から、今回の基準領域53の中心位置の距離情報を取得する。
ステップS107では、第2CPU21は、第1の画像51における全領域に関して距離情報取得処理が終了したか否かを判別する。その判別の結果、第1の画像51における全領域に関して距離情報取得処理が終了していない場合は、第2CPU21は、ステップS102に戻る。第1の画像51における全領域に関して距離情報取得処理が終了した場合は、第2CPU21は、ステップS108で、その他の処理を実行した後、図5に示す処理を終了する。
ここでいう「その他の処理」においては、例えば、設定操作部19での設定や操作に応じた各種処理が実行される。また、操船システムを終了する指示があれば、本フローチャートを終了する処理が実行される。また、「その他の処理」においては、ステップS106で取得された距離情報をコントローラ30へ送信する処理が含まれてもよい。
ここで、自動車の分野で一般に用いられるステレオカメラでは、2つの撮像部が左右に並んでいるので、探索領域は左右方向となる。仮に、本実施の形態においても2つのカメラ41a、41bを左右方向に並べて配置し、探索領域54を左右方向に設定したとすると、合致領域55の抽出精度が低くなる。これは、互いに同じ距離にある似通った波同士を弁別することが容易でないからである。しかし、本実施の形態では、カメラ41a、41bをほぼ上下関係となるように配置し、探索領域54をほぼ上下方向に設定したので、合致領域55の抽出精度が高くなる。これは、波は、距離によって大きさが異なることから、互いに異なる距離にある波同士を弁別することが比較的容易だからである。
ところで、認識部としての認識処理部20が、取得された距離情報に基づいて水面状態を認識してもよい。例えば認識処理部20は、画像内の任意の位置の距離から波の存在を判定し、存在すると判定した複数の波の高さから、水面状態を認識する。この場合、認識処理部20は、複数の波のうち最大高さを有するものに基づくか、あるいは平均の高さに基づいて、波浪の度合いを判定してもよい。
例えば、第2CPU21は、ステップS108のその他の処理において、取得した距離情報と対象物の形状情報とを統合して、各波の形状を把握し、出力してもよい。さらに、第2CPU21は、距離情報に基づいて、船体13から一定距離の水面高さを計測し、水面高さが所定時間(例えば、数秒)前から閾値を超えて変化したら、その旨を示す通知を出すようにしてもよい。このような動作は、例えば以下の処理により実現される。
まず第2CPU21は、距離画像を取得した後、水面の基準面を最小二乗法により推定する。ここで、「基準面」は、画像に含まれる全範囲における水面高さ(波がなく平坦であると仮定した場合の水面位置)である。次に、第2CPU21は、基準面を用いて距離画像を補正する。次に、第2CPU21は、船体13から一定距離(例えば、5m)の水面の部位を距離画像から切り出し、切り出した距離画像に対応する領域の水面高さの平均値や中央値を計算する。そして第2CPU21は、過去の水面高さログから判断して、水面高さが閾値を超えて急激に高くなった場合、上記通知を表示部9に表示させる。
なお、距離認識システム100から受信した距離情報に基づいて、コントローラ30の第1CPU31が、認識部として機能して水面状態を認識してもよい。
なお、取得された距離情報を操船者に視認させるために、表示部9に情報を表示させてもよい。第2CPU21は、操船者からの指示に応じて距離情報取得処理を実行する距離情報取得処理モードと、距離情報取得処理を実施しない通常モードとを選択的に設定できる。第2CPU21は、モードに応じて、次のように表示制御する。
一例として、通常モード時には、表示部9には第1の画像51が表示される。また、距離情報取得処理時には、表示部9には第1の画像51が表示されると共に、水面高さが閾値を超えた旨を通知する場合は、メッセージまたはマークなどが第1の画像51に重畳して表示される。なお、いずれのモードにおいても、表示部9を画面分割して第1の画像51と第2の画像52とが並列表示されてもよい。あるいは、表示部9とは別個のモニタを設け、表示部9とモニタの一方に第1の画像51、他方に第2の画像52がそれぞれ表示されてもよい。上記通知は、重畳表示でなく別画面に表示されてもよい。また、表示部9とは別個のモニタとして、フロントガラスなどを利用してもよい。
本実施の形態によれば、ステレオカメラ41において、第2のカメラ41bは第1のカメラ41aよりも高い位置に配置される。第1の画像51と第2の画像52との間のマッチング処理により、第1の画像51における任意の位置に関する距離情報が取得される。これにより、撮像範囲における任意の位置の距離をより正確に認識することができる。
また、光軸Xa方向と船体13の左右方向とにおけるカメラ41a、41bの位置は互いに略一致するので、距離情報の算出負荷を低減することができる。しかも、光軸Xa、光軸Xbは互いに略平行であるので、取得される距離情報の精度が高い。
また、カメラ41a、41bの撮像方向は略前方であるので、主な進行方向における距離を正確に認識することができる。さらに、ステレオカメラ41は、船体13の側方から見て、船体13の船首上端13aとステアリング上端とを通る仮想直線L1よりも上方の領域に配置され、しかも、光軸Xaと面45aとが撮像方向で且つ下方において鋭角θaを成すので、水面状態を認識しやすい。
なお、ステレオカメラ41は、船体13の前部(例えば、図1に示す位置41-1)に設置されてもよい。この場合、ステレオカメラ41は、例えば、バウレール(図示せず)に直接に、または支持部を介して取り付けられてもよい。あるいは、船体13の側方の距離を取得したい場合は、ステレオカメラ41を船体13の側部に配置してもよい。
図7~図9で、各種の変形例を説明する。
図7は、マッチング処理の変形例を示す模式図である。図4(a)、(b)を用いた説明では、順次設定される基準領域53は互いに同じ形状・大きさであった。しかし、これに限るものではなく、第1の画像51における領域によって基準領域53の大きさを異ならせると共に、基準領域53の大きさに応じて、第2の画像52において設定される探索領域54の形状・大きさを異ならせてもよい(第1の方法)。
例えば、カメラ41b、41aの配置関係が、図3に示したような略上下関係とされた場合、図7に示すように、ステレオカメラ41に対して遠くに対応する画像範囲ほど基準領域53のサイズを縮小してもよい。第1の画像51における上方の範囲ほど、ステレオカメラ41からの距離が遠い領域に対応する。第1の画像51の画像範囲を例えば3つに分類し、上方から、上方範囲、中範囲、下方範囲とする。第2CPU21は、上方範囲では基準領域53Aを設定する。第2CPU21は、同じ上方範囲であって左右方向に異なる範囲でも、基準領域53Aを設定する。同様に、第2CPU21は、中範囲では基準領域53Bを設定し、下方範囲では基準領域53Cを設定する。基準領域53A、53B、53Cは互いに相似の矩形であるが、サイズは、53A<53B<53Cであり、基準領域53Aが最も小さい。別の表現を用いると、第2CPU21は、第1の画像51における第1の範囲で設定する基準領域53のサイズを、第1の画像51における第1の範囲よりも下方の第2の範囲で設定する基準領域53のサイズよりも小さくする。
また、第2CPU21は、第2の画像52において探索領域54を設定する際、上方範囲、中範囲、下方範囲ではそれぞれ、基準領域53A、53B、53Cと同じ幅に設定する。探索領域54の長手方向は第2の画像52における上下方向である。このように基準領域の大小関係を設定するのは、ステレオカメラ41からの距離が遠い領域ほど、同じ画像面積内に含まれる距離分布が広くなるからである。すなわち、遠方領域に相当する基準領域53Aのサイズを小さくすることで、基準領域53A内に含まれる距離分布が広くなることを防ぐためである。これにより、取得される距離情報の精度を高め、撮像範囲における任意の位置の距離を一層正確に認識することができる。
なお、第1の画像51における上方の範囲ほど、基準領域53のサイズを縮小する処理は、カメラ41b、41aの配置関係が、図3に示したような略上下関係である場合に限定されない。すなわち、上記処理は、第2のカメラ41bが第1のカメラ41aよりも高い位置に配置される構成であれば適用可能である。
なお、第2の方法として、マッチング処理において、基準領域53および探索領域54の形状・大きさを変更することなく画像サイズを変更することによっても同様の効果を得ることができる。すなわち、第1の画像51における領域によって、基準領域53に対応する画像サイズを異ならせると共に、基準領域53に対応する画像サイズに応じて、第2の画像52において設定される探索領域54の形状・大きさを異ならせてもよい。
例えば、基準領域53のサイズは、第1の画像51の上方範囲、中範囲、下方範囲のいずれでも同じとする。また、第2の画像52において探索領域54の幅も基準領域53と同じで一様とする。一方、第1の画像51の上方範囲、中範囲、下方範囲における画像サイズを変更し、上方範囲>中範囲>下方範囲とする。すなわち、遠方領域に相当する基準領域53に対応する画像ほどサイズを拡大する。これと共に、第2の画像52の探索領域54の上方範囲、中範囲、下方範囲における画像サイズを、第1の画像51の上方範囲、中範囲、下方範囲における画像サイズに合わせて変更する。このように、遠方領域ほど、基準領域53に対応する画像サイズを大きくすることで、基準領域53内に含まれる距離分布が広くなることを防ぐ。これにより、取得される距離情報の精度を高め、撮像範囲における任意の位置の距離を一層正確に認識することができる。
なお、上記第1の方法と第2の方法とを併用してもよい。
図8、図9は、ステレオカメラ41の変形例を示す模式図である。マッチング処理が可能な範囲で、カメラ41a、41bの相対的な配置や、光軸Xa、Xbの角度は変形可能である。
図3に示した例では、光軸Xa方向におけるカメラ41a、41bの位置は略一致していた。図8に示す例では、光軸Xa方向において、第2のカメラ41bの方が第1のカメラ41aよりもD1だけ被写体方向(前方)に位置している。このようにカメラ41a、41bが光軸Xa方向にオフセットした構成を採用する場合、第1の画像51と第2の画像52との大きさを揃えるよう、画像51、52の少なくともいずれかの大きさを補正した上で三角測量を適用するのが望ましい。
また、図9に示すように、光軸Xa、Xbが互いに平行でなく光軸Xa、Xbが交差する構成を採用してもよい。この場合、三角測量において、光軸Xa、Xbが平行であることを前提とした算出式を用いて距離情報を近似的に算出してもよい。しかしそのようにすると精度が低い。そのため、「https://www.jstage.jst.go.jp/article/prociiae/2014/0/2014_68/_pdf」(光軸が交差する3Dカメラに対応した三角測量法の提案)等に開示されるような公知の算出手法を用いるのが望ましい。
なお、第1、第2の画像はカメラ41a、41bから取得されたが、これとは逆に、第1、第2の画像はカメラ41b、41aから取得されるようにしてもよい。言い換えると、カメラ41b、41aの一方により第1の画像51が取得され、カメラ41b、41aの他方により第2の画像52が取得されるようにしてもよい。
なお、本発明が適用される船舶は、船外機を備える船舶に限らず、船内外機(スターンドライブ、インボードモータ・アウトボードドライブ)、船内機(インボードモータ)、ウォータージェットドライブ等の他の形態の船舶推進機を備える船舶であってもよい。
なお、本実施の形態において、「略」を付したものは完全を除外する趣旨ではない。例えば、「略重複」、「略平行」、「略前方」、「略一致」は、それぞれ完全な重複、平行、前方、一致を含む趣旨である。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
13 船体、 21 第2CPU、 41 ステレオカメラ、 41a 第1のカメラ、 41b 第2のカメラ、51 第1の画像、52 第2の画像
Claims (14)
- 水面が撮像範囲に含まれるように、船体に配置される第1の撮像部と、
水面が撮像範囲に含まれるように、前記船体における前記第1の撮像部よりも高い位置に配置される第2の撮像部と、
前記第1の撮像部または前記第2の撮像部の一方により撮像された第1の画像と前記第1の撮像部または前記第2の撮像部の他方により撮像された第2の画像とを取得する画像取得部と、
前記第1の画像と前記第2の画像との間のマッチング処理により、前記第1の画像における任意の位置に関する距離情報を取得する処理部と、を有する、距離認識システム。 - 前記第1の撮像部の光軸方向における前記第1の撮像部の位置と前記第2の撮像部の位置とは略一致する、請求項1に記載の距離認識システム。
- 前記第1の撮像部の光軸方向と前記船体の上下方向とに直交する方向における前記第1の撮像部の位置と前記第2の撮像部の位置とは略一致する、請求項1または2に記載の距離認識システム。
- 前記第1の撮像部および前記第2の撮像部の少なくとも一方の撮像方向は略前方である、請求項1乃至3のいずれか1項に記載の距離認識システム。
- 前記第1の撮像部および前記第2の撮像部はいずれも、前記船体の側方から見て、前記船体の船首上端とステアリング上端とを通る仮想直線よりも上方の領域に配置される、請求項1乃至4のいずれか1項に記載の距離認識システム。
- 前記第1の撮像部の光軸と前記第2の撮像部の光軸とは互いに略平行である、請求項1乃至5のいずれか1項に記載の距離認識システム。
- 前記第1の撮像部または前記第2の撮像部の少なくとも一方の光軸と、前記船体のデッキに平行な面とが、撮像方向で且つ下方において鋭角を成す、請求項1乃至6のいずれか1項に記載の距離認識システム。
- 前記マッチング処理はステレオマッチング処理である、請求項1乃至7のいずれか1項に記載の距離認識システム。
- 前記処理部は、前記第1の画像から複数の基準領域を決定すると共に前記複数の基準領域の各々に関して距離情報取得処理を行い、
前記処理部は、前記距離情報取得処理においては、
前記第2の画像において、前記基準領域の位置およびサイズに基づいて、前記第1の撮像部および前記第2の撮像部の並び方向に対応する方向に探索領域を設定し、
前記探索領域から前記基準領域に合致する領域を抽出し、
前記合致する領域と前記基準領域との間で互いに対応する特徴点同士の視差を求め、
前記視差を用い、三角測量により前記特徴点の距離を前記距離情報として取得する、請求項1乃至7のいずれか1項に記載の距離認識システム。 - 前記処理部は、前記第1の画像から前記基準領域を決定する際、前記第1の画像における第1の範囲で設定する前記基準領域のサイズを、前記第1の画像における前記第1の範囲よりも下方の第2の範囲で設定する前記基準領域のサイズよりも小さくする、請求項9に記載の距離認識システム。
- 前記処理部は、前記第1の画像における第1の範囲で設定する前記基準領域に対応する画像サイズを、前記第1の画像における前記第1の範囲よりも下方の第2の範囲で設定する前記基準領域に対応する画像サイズよりも大きくすると共に、前記探索領域に対応する画像サイズを前記基準領域に合わせて変更する、請求項9に記載の距離認識システム。
- 前記処理部により取得された前記距離情報に基づいて、水面状態を認識する認識部をさらに有する、請求項1乃至11のいずれか1項に記載の距離認識システム。
- 水面が撮像範囲に含まれるように、船体に配置される第1の撮像部と、水面が撮像範囲に含まれるように、前記船体における前記第1の撮像部よりも高い位置に配置される第2の撮像部と、を有する距離認識システムの制御方法であって、
前記第1の撮像部または前記第2の撮像部の一方により撮像された第1の画像と前記第1の撮像部または前記第2の撮像部の他方により撮像された第2の画像とを取得し、
前記第1の画像と前記第2の画像との間のマッチング処理により、前記第1の画像における任意の位置に関する距離情報を取得する、距離認識システムの制御方法。 - 請求項1乃至12のいずれか1項に記載の距離認識システムを備える、船舶。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020200425A JP2022088142A (ja) | 2020-12-02 | 2020-12-02 | 距離認識システムおよびその制御方法、船舶 |
US17/523,979 US11741193B2 (en) | 2020-12-02 | 2021-11-11 | Distance recognition system for use in marine vessel, control method thereof, and marine vessel |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020200425A JP2022088142A (ja) | 2020-12-02 | 2020-12-02 | 距離認識システムおよびその制御方法、船舶 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022088142A true JP2022088142A (ja) | 2022-06-14 |
Family
ID=81751515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020200425A Pending JP2022088142A (ja) | 2020-12-02 | 2020-12-02 | 距離認識システムおよびその制御方法、船舶 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11741193B2 (ja) |
JP (1) | JP2022088142A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114937157B (zh) * | 2022-07-26 | 2022-10-11 | 北京千尧新能源科技开发有限公司 | 一种海上风电运维船靠泊定位方法及系统 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2806451B2 (ja) | 1996-06-04 | 1998-09-30 | 防衛庁技術研究本部長 | 波高測定法 |
JP5022609B2 (ja) * | 2006-02-27 | 2012-09-12 | 日立オートモティブシステムズ株式会社 | 撮像環境認識装置 |
US8215252B1 (en) * | 2009-07-14 | 2012-07-10 | Lockheed Martin Corporation | System and method for dynamic stabilization and navigation in high sea states |
WO2011096251A1 (ja) | 2010-02-02 | 2011-08-11 | コニカミノルタホールディングス株式会社 | ステレオカメラ |
WO2016063545A1 (ja) | 2014-10-24 | 2016-04-28 | 京セラ株式会社 | ステレオカメラ装置及びステレオカメラ装置を備える車両 |
US10621745B2 (en) * | 2015-06-19 | 2020-04-14 | Yamaha Hatsudoki Kabushiki Kaisha | Component mounting device and component mounting method |
US10407135B2 (en) * | 2015-06-29 | 2019-09-10 | Pgs Geophysical As | Motion compensation for relative motion between an object connected to a vessel and an object in the water |
CN107926154B (zh) * | 2015-10-15 | 2020-01-21 | 雅马哈发动机株式会社 | 元件安装装置 |
EP3252658B1 (en) * | 2016-05-30 | 2021-08-11 | Kabushiki Kaisha Toshiba | Information processing apparatus and information processing method |
US10162362B2 (en) * | 2016-08-29 | 2018-12-25 | PerceptIn, Inc. | Fault tolerance to provide robust tracking for autonomous positional awareness |
WO2018180579A1 (ja) * | 2017-03-31 | 2018-10-04 | ソニーセミコンダクタソリューションズ株式会社 | 撮像制御装置、および撮像制御装置の制御方法、並びに移動体 |
EP3633985B1 (en) * | 2017-05-24 | 2023-02-15 | Furuno Electric Co., Ltd. | Video generation device |
JP6857546B2 (ja) * | 2017-05-24 | 2021-04-14 | 古野電気株式会社 | 映像生成装置及び映像生成方法 |
WO2018216539A1 (ja) * | 2017-05-24 | 2018-11-29 | 古野電気株式会社 | 映像生成装置 |
CN111096101B (zh) * | 2017-09-28 | 2021-06-22 | 雅马哈发动机株式会社 | 元件安装装置 |
GB2573020B (en) * | 2018-04-20 | 2022-03-02 | Ap Moeller Maersk As | Determining a virtual representation of at least part of an environment |
US10782691B2 (en) * | 2018-08-10 | 2020-09-22 | Buffalo Automation Group Inc. | Deep learning and intelligent sensing system integration |
US10975836B2 (en) * | 2018-08-21 | 2021-04-13 | Charles Ronald Grigg | Systems and methods for efficient water turbine operation |
DE102018127650A1 (de) * | 2018-11-06 | 2020-05-07 | Innogy Se | Tragflügeleinrichtung für eine mobile offshore-vorrichtung |
JP2020104818A (ja) | 2018-12-28 | 2020-07-09 | 株式会社小松製作所 | 作業車両の動力伝達装置 |
JP7249540B2 (ja) | 2018-12-28 | 2023-03-31 | パナソニックIpマネジメント株式会社 | 故障検出装置、電動自転車及び故障検出方法 |
JP7347936B2 (ja) * | 2019-02-25 | 2023-09-20 | ヤマハ発動機株式会社 | 船舶の撮影装置、および該撮影装置を有する船舶 |
US10602588B2 (en) * | 2019-03-22 | 2020-03-24 | Intel Corporation | Autonomous underwater vehicle light show |
WO2020121597A1 (ja) * | 2019-08-19 | 2020-06-18 | 有限会社金鹿哲学承継塾 | 自律航行型海洋ブイとこれを用いた海洋情報システム |
US11027799B2 (en) * | 2019-09-12 | 2021-06-08 | DM Consulting, Inc. | Systems and methods for 3-dimensional scanning for drydocking |
US20210094665A1 (en) * | 2019-09-27 | 2021-04-01 | Polaris Industries Inc. | System and method for positioning an aquatic vessel |
WO2021178044A2 (en) * | 2020-01-09 | 2021-09-10 | Thayermahan, Inc. | Multi-hull unmanned water vehicle |
JP2021195076A (ja) * | 2020-06-17 | 2021-12-27 | ヤマハ発動機株式会社 | 船体の挙動制御システム及び船舶 |
WO2022039404A1 (ko) * | 2020-08-20 | 2022-02-24 | (주)아고스비전 | 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법 |
JP2022068498A (ja) * | 2020-10-22 | 2022-05-10 | ヤマハ発動機株式会社 | 水上オブジェクトの追跡システムおよび方法、並びに水上オブジェクトの追跡システムを備える船舶 |
US11967100B2 (en) * | 2021-01-28 | 2024-04-23 | Zf Friedrichshafen Ag | Camera based boat loading assistant |
US11754707B2 (en) * | 2021-09-10 | 2023-09-12 | X Development Llc | Characterising wave properties based on measurement data using a machine-learning model |
-
2020
- 2020-12-02 JP JP2020200425A patent/JP2022088142A/ja active Pending
-
2021
- 2021-11-11 US US17/523,979 patent/US11741193B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220171987A1 (en) | 2022-06-02 |
US11741193B2 (en) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2021261974B2 (en) | An Automatic Location Placement System | |
US9778657B2 (en) | Automatic location placement system | |
US6714139B2 (en) | Periphery monitoring device for motor vehicle and recording medium containing program for determining danger of collision for motor vehicle | |
JP6624105B2 (ja) | 画像表示装置 | |
US11453467B2 (en) | Control system for posture control tabs of marine vessel, marine vessel, and method for controlling posture control tabs, capable of avoiding contact of posture control tabs with foreign object | |
US11459070B2 (en) | Posture control system for hull, posture control method for the hull, and marine vessel | |
WO2021070916A1 (ja) | 軸ずれ推定装置 | |
US20240184311A1 (en) | Ship docking assistance device | |
WO2018100751A1 (ja) | ナビゲーションシステム | |
WO2019186799A1 (ja) | 鞍乗型車両用物体検知システムおよび鞍乗型車両 | |
JP2022088142A (ja) | 距離認識システムおよびその制御方法、船舶 | |
EP3805089B1 (en) | Ship docking assisting apparatus and ship docking assisting method | |
JP7232089B2 (ja) | 船舶用の表示装置、船舶および船舶用の画像表示方法 | |
JP6302860B2 (ja) | 船舶 | |
EP3989171A1 (en) | Tracking system and tracking method for water-surface objects, and marine vessel including tracking system for water-surface objects | |
US20230042962A1 (en) | Position locating system, marine vessel, and trailer for marine vessel | |
US11787516B2 (en) | Apparatus and method for steering control of marine vessel able to automatically reduce chine walk, and marine vessel | |
JP2023104129A (ja) | 船舶の衝突被害軽減システム | |
US11691704B2 (en) | Posture control system for hull and marine vessel | |
CN110955248A (zh) | 一种无人船自动避障方法 | |
JP6966473B2 (ja) | 移動体システム | |
EP4213110A1 (en) | System for detecting objects on a water surface and marine vessel with a system for detecting objects on a water surface | |
EP4213111A1 (en) | System for detecting objects on a water surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240606 |