JP2013181795A - Floating object detection device and floating object detection method - Google Patents

Floating object detection device and floating object detection method Download PDF

Info

Publication number
JP2013181795A
JP2013181795A JP2012044826A JP2012044826A JP2013181795A JP 2013181795 A JP2013181795 A JP 2013181795A JP 2012044826 A JP2012044826 A JP 2012044826A JP 2012044826 A JP2012044826 A JP 2012044826A JP 2013181795 A JP2013181795 A JP 2013181795A
Authority
JP
Japan
Prior art keywords
area
region
image
floating
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012044826A
Other languages
Japanese (ja)
Inventor
Toshiyuki Yamada
利幸 山田
Kiyotoshi Nishimura
潔俊 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2012044826A priority Critical patent/JP2013181795A/en
Publication of JP2013181795A publication Critical patent/JP2013181795A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a floating object detection device and floating object detection method capable of properly detecting a floating object.SOLUTION: The floating object detection device includes a light reception part for imaging a water surface, an area extraction part 48 for extracting an area coincident with an extraction condition of a floating object in a water surface image imaged by the light reception part, a storage part 45 for storing a template image for detecting the floating object, a similarity calculation part 44 for calculating a similarity between an upper area hardly affected by a state of waves around the floating object of the extracted area and the stored template image, and a floating object detection part 46 for detecting the area extracted by the area extraction part 48 as an area with the floating object existing therein when the calculated similarity is higher than a predetermined value.

Description

本発明は、浮遊物検出装置および浮遊物検出方法に関する。   The present invention relates to a suspended matter detection apparatus and a suspended matter detection method.

従来から、船舶等に設置され、水面上の浮遊物を検出する監視装置として、レーザレーダを使用した監視装置が知られている(例えば、特許文献1参照)。
このようなレーザレーダを用いた監視装置は、レーザレーダからレーザ光を船舶の周辺に照射し、このレーザ光が水面に到達して反射され、反射された反射光を受光部にて撮像し、撮像した画像信号を表示部に表示する。
2. Description of the Related Art Conventionally, a monitoring device using a laser radar is known as a monitoring device that is installed in a ship or the like and detects floating matters on the water surface (see, for example, Patent Document 1).
A monitoring device using such a laser radar irradiates the periphery of the ship with laser light from the laser radar, the laser light reaches the water surface and is reflected, and the reflected light is imaged by the light receiving unit, The captured image signal is displayed on the display unit.

特開2009−244212号公報JP 2009-244212 A

パルスレーザ光の反射光を撮像して得た画像に基づいて水面上の浮遊物を検出する方法として、例えば、予め浮遊物の形状をテンプレート画像として記憶しておき、撮像した画像とテンプレート画像を比較して類似度を算出し、算出した類似度に基づいて浮遊物を検出する方法が考えられる。
しかしながら、浮遊物の周囲の波の状況等により画像として撮像される浮遊物の形状は変化する。したがって、予め浮遊物の形状をテンプレート画像として記憶しておいても、浮遊物の周囲の波の状況等によっては浮遊物を適切に検出できないという問題がある。
As a method for detecting floating objects on the water surface based on an image obtained by imaging the reflected light of pulsed laser light, for example, the shape of the floating object is stored in advance as a template image, and the captured image and the template image are stored. A method is conceivable in which similarity is calculated by comparison, and suspended matter is detected based on the calculated similarity.
However, the shape of the floating object captured as an image changes depending on the state of waves around the floating object. Therefore, even if the shape of the floating object is stored in advance as a template image, there is a problem that the floating object cannot be detected properly depending on the state of the waves around the floating object.

本発明は、このような事情に鑑みてなされたものであり、浮遊物の周囲の波の状況等により画像として撮像される浮遊物の形状が変化する場合であっても、適切に浮遊物を検出することができる浮遊物検出装置および浮遊物検出方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and even when the shape of a floating object captured as an image changes depending on the state of waves around the floating object, the floating object is appropriately removed. It is an object of the present invention to provide a floating substance detection device and a floating substance detection method capable of detection.

上記目的を達成するために、本発明は、以下の手段を採用する。
本発明に係る浮遊物検出装置は、水上に浮遊する浮遊物を検出する浮遊物検出装置であって、水面を撮像する撮像手段と、前記撮像手段により撮像された水面の画像の中から前記浮遊物の抽出条件に合致する領域を抽出する抽出手段と、前記浮遊物を検出するためのテンプレート画像を記憶する記憶手段と、前記抽出手段により抽出された領域の前記浮遊物の周囲の波の状況による影響を受けにくい上部領域と、前記記憶手段に記憶された前記テンプレート画像との類似度を算出する類似度算出手段と、前記類似度算出手段により算出された類似度が所定値よりも高い場合に前記抽出手段により抽出された領域を前記浮遊物が存在する領域として検出する検出手段と、を備えることを特徴とする。
In order to achieve the above object, the present invention employs the following means.
The floating substance detection apparatus according to the present invention is a floating substance detection apparatus that detects a floating substance floating on water, the imaging means for imaging the water surface, and the floating substance from the image of the water surface imaged by the imaging means. Extraction means for extracting an area that matches the object extraction condition, storage means for storing a template image for detecting the floating substance, and conditions of waves around the floating substance in the area extracted by the extraction means A similarity calculation unit that calculates a similarity between the upper region that is not easily affected by the template image stored in the storage unit, and a similarity calculated by the similarity calculation unit is higher than a predetermined value Detecting means for detecting an area extracted by the extracting means as an area where the suspended matter exists.

本発明に係る浮遊物検出装置によれば、撮像された水面の画像の中から浮遊物の抽出条件に合致する領域を抽出し、抽出された領域の浮遊物の周囲の波の状況による影響を受けにくい上部領域とテンプレート画像との類似度を算出し、算出された類似度が所定値よりも高い場合に抽出された領域を浮遊物が存在する領域として検出する。このようにすることで、浮遊物の抽出条件に合致する領域として抽出された領域の中から、浮遊物の周囲の波の状況等による影響を受けやすい下部領域を除いた上部領域をテンプレート画像との類似度の算出の対象とすることができる。したがって、浮遊物の周囲の波の状況等により画像として撮像される浮遊物の形状が変化する場合であっても、適切に浮遊物を検出することができる。   According to the floating object detection apparatus according to the present invention, an area that matches the extraction condition of the floating substance is extracted from the captured image of the water surface, and the influence of the state of waves around the floating substance in the extracted area is affected. The degree of similarity between the difficult-to-receive upper area and the template image is calculated, and the extracted area is detected as the area where the suspended matter exists when the calculated degree of similarity is higher than a predetermined value. By doing this, the upper region excluding the lower region that is easily affected by the state of waves around the floating material from the region extracted as the region that matches the extraction condition of the floating material is defined as the template image. The similarity can be calculated. Therefore, even when the shape of the floating object picked up as an image changes depending on the state of waves around the floating object, the floating object can be detected appropriately.

本発明の第1態様の浮遊物検出装置は、前記記憶手段が、複数の波高にそれぞれ対応する複数のテンプレート画像を記憶し、前記浮遊物検出装置が、前記水面の波高を入力する入力手段と、前記入力手段により入力された波高に応じたテンプレート画像を前記記憶手段に記憶された複数のテンプレート画像の中から選択する選択手段を備え、前記類似度算出手段が、前記抽出手段により抽出された領域の上部領域と、前記選択手段により選択されたテンプレート画像との類似度を算出することを特徴とすることを特徴とする。   In the suspended matter detection apparatus according to the first aspect of the present invention, the storage means stores a plurality of template images respectively corresponding to a plurality of wave heights, and the floating matter detection apparatus has input means for inputting the wave height of the water surface. A selection means for selecting a template image corresponding to the wave height input by the input means from a plurality of template images stored in the storage means, and the similarity calculation means is extracted by the extraction means The degree of similarity between the upper region of the region and the template image selected by the selection unit is calculated.

本発明の第1態様の浮遊物検出装置は、複数の波高のそれぞれに対応する複数のテンプレート画像を記憶しておき、入力された波高に応じたテンプレート画像を選択して、選択されたテンプレート画像を類似度の算出の対象とする。このようにすることで、波高に応じた適切な浮遊物の検出をすることができる。   The floating object detection apparatus according to the first aspect of the present invention stores a plurality of template images corresponding to a plurality of wave heights, selects a template image corresponding to the input wave height, and selects the selected template image. Is the target of similarity calculation. By doing so, it is possible to detect an appropriate suspended matter according to the wave height.

本発明の第2態様の浮遊物検出装置は、前記類似度算出手段が、前記抽出手段により抽出された領域の重心位置より上部の前記上部領域と、前記記憶手段に記憶された前記テンプレート画像との類似度を算出することを特徴とする。このようにすることで、抽出された領域の重心位置より上部の領域をテンプレート画像との類似度の算出対象とし、浮遊物の周囲の波の状況等により画像として撮像される浮遊物の形状が変化する場合であっても、適切に浮遊物を検出することができる。   In the suspended matter detection apparatus according to the second aspect of the present invention, the similarity calculation unit includes the upper region above the center of gravity of the region extracted by the extraction unit, and the template image stored in the storage unit. The degree of similarity is calculated. By doing this, the region above the center of gravity of the extracted region is the target for calculating the similarity with the template image, and the shape of the floating object that is captured as an image is determined by the state of waves around the floating object. Even if it changes, suspended matter can be detected appropriately.

本発明の第3態様の浮遊物検出装置は、前記検出手段により検出された領域の前記撮像手段からの相対位置を、前記抽出手段により抽出された領域の前記水面の画像中の位置に基づいて特定する位置特定手段と、を備えることを特徴とする。このようにすることで、検出手段により検出された領域の位置を、撮像手段からの相対位置として特定することができる。   The floating substance detection apparatus according to the third aspect of the present invention is configured to determine a relative position of the region detected by the detection unit from the imaging unit based on a position in the image of the water surface of the region extracted by the extraction unit. And a position specifying means for specifying. By doing in this way, the position of the area detected by the detection means can be specified as a relative position from the imaging means.

本発明の第4態様の浮遊物検出装置は、前記浮遊物検出装置の位置を認識する認識手段と、前記検出手段により検出された領域の位置を、前記抽出手段により抽出された領域の前記水面の画像中の位置と前記認識手段が認識する前記浮遊物検出装置の位置とに基づいて特定する位置特定手段を備えることを特徴とする。このようにすることで、検出手段により検出された領域の位置を、絶対位置として特定することができる。   The floating substance detection apparatus according to the fourth aspect of the present invention includes a recognition means for recognizing the position of the floating substance detection apparatus, and the water surface of the area extracted by the extraction means with the position of the area detected by the detection means. And a position specifying means for specifying the position based on the position of the floating object detecting device recognized by the recognition means. By doing in this way, the position of the area detected by the detecting means can be specified as an absolute position.

本発明の第5態様の浮遊物検出装置は、前記水面の画像の中から所定輝度より輝度の高い領域を特定する領域特定手段と、前記領域特定手段により特定された領域の面積を算出する面積算出手段と、を備え、前記抽出手段が、前記領域特定手段により特定された領域の中から、前記面積算出手段により算出された面積が所定の面積条件に合致する領域を抽出することを特徴とする。このようにすることで、所定の面積条件に合致する面積となる領域を、浮遊物が存在する領域の候補として抽出することができる。   The floating substance detection apparatus according to the fifth aspect of the present invention includes an area specifying unit that specifies an area having a luminance higher than a predetermined luminance from the water surface image, and an area for calculating an area of the area specified by the area specifying unit. A calculating means, wherein the extracting means extracts a region in which the area calculated by the area calculating means matches a predetermined area condition from the regions specified by the region specifying means. To do. By doing in this way, the area | region which becomes an area which agree | coincides with a predetermined area condition can be extracted as a candidate of the area | region where a floating substance exists.

前述した第5態様の浮遊物検出装置においては、前記面積条件に合致する領域として抽出された領域の周囲長を算出する周囲長算出手段を備え、前記抽出手段が、前記面積条件に合致する領域として抽出された領域の中から、前記周囲長算出手段により算出された周囲長が所定の周囲長条件に合致する領域を抽出する構成としてもよい。このようにすることで、所定の面積条件に合致し、かつ所定の周囲長条件に合致する周囲長となる領域を、浮遊物が存在する領域の候補として抽出することができる。   In the above-described floating object detection apparatus according to the fifth aspect, the floating object detection apparatus includes a peripheral length calculation unit that calculates a peripheral length of a region extracted as a region that matches the area condition, and the extraction unit includes a region that matches the area condition. A region in which the perimeter calculated by the perimeter calculation unit matches a predetermined perimeter condition may be extracted from the extracted regions. By doing so, it is possible to extract a region that matches a predetermined area condition and has a peripheral length that matches a predetermined peripheral length condition as a candidate for a region in which a suspended matter exists.

本発明の第6態様の浮遊物検出装置は、レーザ光を照射するレーザ光源を有し、前記撮像手段は、前記レーザ光源の反射光を画像として撮像し、前記レーザ光源が照射するレーザ光の波長が、1400nm以上かつ2600nm以下であることを特徴とする。このような波長のレーザ光を用いることで、水面からのレーザ光の反射が抑えられ、水上に浮遊する浮遊物からの反射光をより鮮明に撮像することができる。したがって、水上に浮遊する浮遊物の検出精度を向上させることができる。   A floating object detection apparatus according to a sixth aspect of the present invention includes a laser light source that emits laser light, and the imaging unit picks up the reflected light of the laser light source as an image, and the laser light emitted by the laser light source. The wavelength is 1400 nm or more and 2600 nm or less. By using laser light having such a wavelength, reflection of the laser light from the water surface can be suppressed, and reflected light from a suspended matter floating on the water can be imaged more clearly. Therefore, it is possible to improve the detection accuracy of floating substances floating on the water.

本発明に係る浮遊物検出方法は、水上に浮遊する浮遊物を検出する浮遊物検出方法であって、水面を撮像する撮像工程と、前記撮像工程により撮像された水面の画像の中から前記浮遊物の抽出条件に合致する領域を抽出する抽出工程と、前記抽出工程により抽出された領域の前記浮遊物の周囲の波の状況による影響を受けにくい上部領域と、前記浮遊物を検出するためのテンプレート画像との類似度を算出する類似度算出工程と、前記類似度算出工程により算出された類似度が所定値よりも高い場合に前記抽出工程により抽出された領域を前記浮遊物が存在する領域として検出する検出工程と、を備えることを特徴とする。   The floating substance detection method according to the present invention is a floating substance detection method for detecting a floating substance floating on the water, the imaging step of imaging the water surface, and the floating surface from the image of the water surface imaged by the imaging step An extraction step for extracting a region that matches the extraction condition of the object, an upper region that is less affected by the state of waves around the floating substance in the region extracted by the extraction step, and for detecting the floating substance A similarity calculation step for calculating a similarity with a template image, and a region where the floating substance is present in the region extracted by the extraction step when the similarity calculated by the similarity calculation step is higher than a predetermined value And a detection step of detecting as a feature.

本発明に係る浮遊物検出方法によれば、撮像された水面の画像の中から浮遊物の抽出条件に合致する領域を抽出し、抽出された領域の浮遊物の周囲の波の状況による影響を受けにくい上部領域とテンプレート画像との類似度を算出し、算出された類似度が所定値よりも高い場合に抽出された領域を浮遊物が存在する領域として検出する。このようにすることで、浮遊物の抽出条件に合致する領域として抽出された領域の中から、浮遊物の周囲の波の状況等による影響を受けやすい下部領域を除いた上部領域をテンプレート画像との類似度の算出の対象とすることができる。したがって、浮遊物の周囲の波の状況等により画像として撮像される浮遊物の形状が変化する場合であっても、適切に浮遊物を検出することができる。   According to the floating substance detection method according to the present invention, an area that matches the extraction condition of the floating substance is extracted from the captured image of the water surface, and the influence of the state of waves around the floating substance in the extracted area is affected. The degree of similarity between the difficult-to-receive upper area and the template image is calculated, and the extracted area is detected as the area where the suspended matter exists when the calculated degree of similarity is higher than a predetermined value. By doing this, the upper region excluding the lower region that is easily affected by the state of waves around the floating material from the region extracted as the region that matches the extraction condition of the floating material is defined as the template image. The similarity can be calculated. Therefore, even when the shape of the floating object picked up as an image changes depending on the state of waves around the floating object, the floating object can be detected appropriately.

本発明によれば、浮遊物の周囲の波の状況等により画像として撮像される浮遊物の形状が変化する場合であっても、適切に浮遊物を検出することができる浮遊物検出装置および浮遊物検出方法を提供することができる。   According to the present invention, even when the shape of a floating object captured as an image changes depending on the state of waves around the floating object, the floating object detection device and the floating object can be detected appropriately. An object detection method can be provided.

第1実施形態の浮遊物検出装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the floating body detection apparatus of 1st Embodiment. 第1実施形態の浮遊物検出装置を水面上方から観た平面図である。It is the top view which looked at the suspended | floating matter detection apparatus of 1st Embodiment from the water surface upper direction. 第1実施形態の浮遊物検出装置を側面から観た側面図である。It is the side view which looked at the suspended | floating matter detection apparatus of 1st Embodiment from the side. 第1実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of 1st Embodiment. 第1実施形態の画像処理装置が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the image processing apparatus of 1st Embodiment performs. 図5の撮像処理により撮像された画像の一例を示す図である。It is a figure which shows an example of the image imaged by the imaging process of FIG. 図5の平均化処理により平均化された画像の一例を示す図である。It is a figure which shows an example of the image averaged by the averaging process of FIG. 図5の2値化処理により2値化された画像の一例を示す図である。It is a figure which shows an example of the image binarized by the binarization process of FIG. 図5のステップS506の領域抽出処理により抽出された領域の一例を示す図である。It is a figure which shows an example of the area | region extracted by the area | region extraction process of step S506 of FIG. 図5のステップS508の領域抽出処理により抽出された領域の一例を示す図である。It is a figure which shows an example of the area | region extracted by the area | region extraction process of step S508 of FIG. 図5の浮遊物検出処理により検出された浮遊物の一例を示す図である。It is a figure which shows an example of the floating body detected by the floating body detection process of FIG. 記憶部に記憶されるテンプレート画像の一例を示す図である。It is a figure which shows an example of the template image memorize | stored in a memory | storage part. 類似度の算出対象となる領域(上部領域)を示す図である。It is a figure which shows the area | region (upper area | region) used as the calculation object of similarity. 受光部により撮像される画像と、目標物を示す図である。It is a figure which shows the image imaged by the light-receiving part, and a target.

〔第1実施形態〕
以下に、本発明の第1実施形態の浮遊物検出装置について、図面を参照して説明する。
図1は、本発明の第1実施形態の浮遊物検出装置の全体構成を示すブロック図である。
図1に示すように、浮遊物検出装置は、レーザレーダ1と、レーザレーダ制御部2と、制御装置3と、表示装置4とを備える。レーザレーダ1は、送光部11と、受光部12とを備える。
[First Embodiment]
Below, the floating substance detection apparatus of 1st Embodiment of this invention is demonstrated with reference to drawings.
FIG. 1 is a block diagram showing the overall configuration of the suspended matter detection apparatus according to the first embodiment of the present invention.
As shown in FIG. 1, the floating object detection device includes a laser radar 1, a laser radar control unit 2, a control device 3, and a display device 4. The laser radar 1 includes a light transmitting unit 11 and a light receiving unit 12.

送光部11は、レーザ光を射出する半導体レーザ111と、半導体レーザ111から射出されたレーザ光を目標物へ照射させる送光レンズ112と、送光レンズ112の角度を調整するための送光レンズアクチュエータ(図示略)を備える。
半導体レーザ111は、水への吸収度が高い波長1400nm以上、かつ2600nm以下(例えば、1550nm)のレーザであり、後述するレーザレーダ制御部2内のレーザ電源26から電源供給をうけ、レーザ光を射出する。送光レンズアクチュエータは、後述するレーザレーダ制御部2から供給される制御信号に基づいて、送光レンズ112の位置を調整する。これにより、送光レンズ112に入射されるレーザ光の角度を調整し、所望の範囲に、レーザ光を照射することが可能となる。なお、半導体レーザ111の波長を前述した範囲としたのは、波長1400nm未満、もしくは、波長2600nmを超えるレーザを用いた場合、レーザ光の水への吸収度が低く水に反射する波長帯もあり、撮像目標である浮遊物の周囲の水面に対して、浮遊物の検出が困難になるためである。
The light transmitting unit 11 includes a semiconductor laser 111 that emits laser light, a light transmitting lens 112 that irradiates the target with the laser light emitted from the semiconductor laser 111, and light transmission for adjusting the angle of the light transmitting lens 112. A lens actuator (not shown) is provided.
The semiconductor laser 111 is a laser having a wavelength of 1400 nm or more and 2600 nm or less (for example, 1550 nm) having a high water absorption, and is supplied with power from a laser power supply 26 in the laser radar control unit 2 to be described later, Eject. The light transmission lens actuator adjusts the position of the light transmission lens 112 based on a control signal supplied from a laser radar control unit 2 described later. As a result, the angle of the laser light incident on the light transmission lens 112 can be adjusted, and the laser light can be irradiated in a desired range. Note that the wavelength of the semiconductor laser 111 is set to the above-described range because, when a laser having a wavelength of less than 1400 nm or more than 2600 nm is used, there is a wavelength band in which the absorption of laser light into water is low and reflected in water. This is because it becomes difficult to detect the suspended matter with respect to the water surface around the suspended matter that is the imaging target.

受光部12は、ズームレンズ121と、ICCD(イメージインテンシファイアCCD)カメラヘッド123を備える。ズームレンズ121は、送光部11から照射され、水面および水面に浮かぶ浮遊物により反射された反射光を集光する。ICCDカメラヘッド123は、ズームレンズ121により集光された光を電気信号に変換して画像信号を生成し、この画像信号をレーザレーダ制御部2内の画像処理装置25へ出力する。第1実施形態においては、受光部12と画像処理装置25により、撮像装置(撮像手段)が構成されている。このようなレーザレーダ1は、旋回台5によりその回転角及び迎角が所望の角度に調節される構造となっている。   The light receiving unit 12 includes a zoom lens 121 and an ICCD (image intensifier CCD) camera head 123. The zoom lens 121 collects the reflected light that is irradiated from the light transmitting unit 11 and reflected by the water surface and the floating matter floating on the water surface. The ICCD camera head 123 converts the light collected by the zoom lens 121 into an electric signal to generate an image signal, and outputs the image signal to the image processing device 25 in the laser radar control unit 2. In the first embodiment, the light receiving unit 12 and the image processing device 25 constitute an imaging device (imaging means). Such a laser radar 1 has a structure in which the rotation angle and the attack angle are adjusted to desired angles by the swivel base 5.

レーザレーダ制御部2は、制御装置3から供給される各種制御信号に基づいて、レーザレーダ1の送光部11、受光部12、及びレーザレーダ1の回転角などを調整する旋回台5を制御する。レーザレーダ制御部2は、旋回台駆動部21、同期回路22、制御信号変換装置23、画像処理装置25、及びレーザ電源26を備える。   The laser radar control unit 2 controls the light transmitting unit 11 of the laser radar 1, the light receiving unit 12, and the turntable 5 that adjusts the rotation angle of the laser radar 1 based on various control signals supplied from the control device 3. To do. The laser radar control unit 2 includes a turntable drive unit 21, a synchronization circuit 22, a control signal conversion device 23, an image processing device 25, and a laser power source 26.

制御装置3は、レーザレーダ1を制御するための各種制御信号を生成し、生成した各種制御信号をレーザレーダ制御部2に出力するとともに、レーザレーダ制御部2から供給される画像を表示装置4へ出力する。具体的には、制御装置3は、半導体レーザ111からレーザ光が射出されるように、レーザレーダ制御部2を制御する。制御装置3は、レーザ光を射出させるために必要となる同期制御信号をレーザレーダ制御部2に出力する。   The control device 3 generates various control signals for controlling the laser radar 1, outputs the generated various control signals to the laser radar control unit 2, and displays an image supplied from the laser radar control unit 2 on the display device 4. Output to. Specifically, the control device 3 controls the laser radar control unit 2 so that laser light is emitted from the semiconductor laser 111. The control device 3 outputs a synchronization control signal necessary for emitting laser light to the laser radar control unit 2.

制御装置3から出力された同期制御信号は、レーザレーダ制御部2内の制御信号変換装置23を経由して、同期回路22へ供給される。同期回路22は、入力された同期制御信号に基づいて、レーザ光の送光と受光の同期を取るための同期信号を生成し、この同期信号をレーザ電源26に出力する。レーザ電源26は、同期回路22から供給された同期信号に基づいて、レーザレーダ1が備える送光部11内の半導体レーザ111の動作信号を生成し、この動作信号に基づいて半導体レーザ111を駆動する。   The synchronization control signal output from the control device 3 is supplied to the synchronization circuit 22 via the control signal conversion device 23 in the laser radar control unit 2. The synchronization circuit 22 generates a synchronization signal for synchronizing laser light transmission and light reception based on the input synchronization control signal, and outputs this synchronization signal to the laser power source 26. The laser power source 26 generates an operation signal of the semiconductor laser 111 in the light transmission unit 11 included in the laser radar 1 based on the synchronization signal supplied from the synchronization circuit 22, and drives the semiconductor laser 111 based on the operation signal. To do.

レーザ電源26により半導体レーザ111が駆動されることにより、半導体レーザ111からレーザ光が射出される。このレーザ光は、送光レンズ112により所定の範囲を有する照射領域に拡張されて外部へ射出され、レーザ光の照射領域となる水面および水面に浮遊する浮遊物により反射されたレーザ光が受光部121に導かれる。そして、受光部12に導かれた反射光がICCDカメラヘッド123により撮像される。そして、ICCDカメラヘッド123により撮像された反射光は、画像信号としてレーザレーダ制御部2内の画像処理装置25に出力される。   When the semiconductor laser 111 is driven by the laser power source 26, laser light is emitted from the semiconductor laser 111. The laser light is expanded to an irradiation area having a predetermined range by the light transmitting lens 112 and emitted to the outside, and the laser light reflected by the water surface to be the laser light irradiation area and the floating matter floating on the water surface is received by the light receiving unit. Guided to 121. Then, the reflected light guided to the light receiving unit 12 is imaged by the ICCD camera head 123. The reflected light imaged by the ICCD camera head 123 is output as an image signal to the image processing device 25 in the laser radar control unit 2.

次に、図2および図3を用いて、第1実施形態の浮遊物検出装置の撮像装置(受光部12および画像処理装置25)の配置と、撮像装置により撮像される水面の領域について説明する。図2は浮遊物検出装置を水面上方から観た平面図であり、図3は浮遊物検出装置を側面から観た側面図である。   Next, the arrangement of the imaging device (the light receiving unit 12 and the image processing device 25) of the floating object detection device of the first embodiment and the area of the water surface imaged by the imaging device will be described with reference to FIGS. . FIG. 2 is a plan view of the floating substance detection device viewed from above the water surface, and FIG. 3 is a side view of the floating substance detection device viewed from the side.

図2および図3に示すように、第1実施形態の浮遊物検出装置は、船舶本体100にレーザレーダ1が搭載された構成となっている。レーザレーダ1は横方向の視野角がθ、縦方向の視野角がθであり、撮像領域30を画像信号として撮像する。レーザレーダ1の位置をL0とした場合、L2の位置が撮像範囲で最もレーザレーダ1から近接した位置となり、L1の位置が撮像範囲で最もレーザレーダ1から離れた位置となる。なお、画像処理装置25に出力される画像信号では、L2側が画像の下部領域となり、L1側が画像の上部領域となる。 As shown in FIGS. 2 and 3, the floating object detection apparatus of the first embodiment has a configuration in which a laser radar 1 is mounted on a ship body 100. The laser radar 1 has a horizontal viewing angle of θ 1 and a vertical viewing angle of θ 2 and images the imaging region 30 as an image signal. When the position of the laser radar 1 is L0, the position of L2 is the position closest to the laser radar 1 in the imaging range, and the position of L1 is the position farthest from the laser radar 1 in the imaging range. In the image signal output to the image processing device 25, the L2 side is the lower region of the image, and the L1 side is the upper region of the image.

図3に示されるように、レーザレーダ1のレーザ光の照射位置が水面から高さHの位置となるように、レーザレーダ1が船舶本体100に設置されている。レーザレーダ1のレーザ光の照射位置から撮像領域の中心に至る軸は、照射位置を通過する水平線からの角度がφとなっている。この角度φがICCDカメラヘッド123を含む受光部12の俯角(カメラ俯角)となる。   As shown in FIG. 3, the laser radar 1 is installed in the ship main body 100 so that the laser beam irradiation position of the laser radar 1 is at a height H from the water surface. The axis from the laser beam irradiation position of the laser radar 1 to the center of the imaging region is φ from the horizontal line passing through the irradiation position. This angle φ becomes the depression angle (camera depression angle) of the light receiving unit 12 including the ICCD camera head 123.

また、受光部12により撮像される撮像領域30における目標物(浮遊物等)をTとした場合、図2の平面図における目標物Tの方位角は、γとなる。また、図3の側面図における目標物Tの水平線からの角度(目標物の俯角)がθとなる。 Also, when the target object in the imaging region 30 imaged by the light receiving unit 12 a (floating, etc.) is T, the azimuth angle of the target T in the plan view of FIG. 2 is a gamma t. The angle from the horizontal line of the target T (depression angle of the target) is theta t in side view in FIG.

次に、第1実施形態の画像処理部25が実行する処理について図4から図14を用いて説明する。
図4は、画像処理装置25の構成を示すブロック図である。図5は、第1実施形態の画像処理装置25が実行する処理を示すフローチャートである。図6は、図5の撮像処理により撮像された画像の一例を示す図である。図7は、図5の平均化処理により平均化された画像の一例を示す図である。図8は、図5の2値化処理により2値化された画像の一例を示す図である。図9は、図5のステップS506の領域抽出処理により抽出された領域の一例を示す図である。図10は、図5のステップS508の領域抽出処理により抽出された領域の一例を示す図である。図11は、図5の浮遊物検出処理により検出された浮遊物の一例を示す図である。図12は、記憶部に記憶されるテンプレート画像の一例を示す図である。図13は、類似度の算出の対象となる領域(上部領域)を示す図である。
Next, processing executed by the image processing unit 25 of the first embodiment will be described with reference to FIGS.
FIG. 4 is a block diagram illustrating a configuration of the image processing device 25. FIG. 5 is a flowchart illustrating processing executed by the image processing apparatus 25 according to the first embodiment. FIG. 6 is a diagram illustrating an example of an image captured by the imaging process of FIG. FIG. 7 is a diagram illustrating an example of an image averaged by the averaging process of FIG. FIG. 8 is a diagram illustrating an example of an image binarized by the binarization process of FIG. FIG. 9 is a diagram illustrating an example of a region extracted by the region extraction processing in step S506 of FIG. FIG. 10 is a diagram illustrating an example of a region extracted by the region extraction process in step S508 of FIG. FIG. 11 is a diagram illustrating an example of the suspended matter detected by the suspended matter detection process of FIG. 5. FIG. 12 is a diagram illustrating an example of a template image stored in the storage unit. FIG. 13 is a diagram illustrating a region (upper region) that is a target of similarity calculation.

図4は、画像処理装置25の構成を示すブロック図である。第1実施形態の画像処理装置25は、平均化フィルタ40と、2値化フィルタ(領域特定手段)41と、面積算出部(面積算出手段)42と、周囲長算出部(周囲長算出手段)43と、類似度算出部(類似度算出手段)44と、記憶部(記憶手段)45と、浮遊物検出部(検出手段)46と、波高入力部(入力手段)47と、領域抽出部(抽出手段)48と、テンプレート選択部(選択手段)49と、位置特定部(位置特定手段)50を備える。記憶部45、波高入力部47、およびテンプレート選択部49を除く各部は、入力される画像を処理する画像処理部として機能するものである。記憶部45、波高入力部47、およびテンプレート選択部49を除く各部は、それぞれの処理を実行する複数のハードウェアモジュールとして構成されていても良いし、CPU等の1つのハードウェアモジュールが実行する複数のソフトウェアモジュールとして構成されていても良い。なお、各部が実行する処理の詳細については、後述する。   FIG. 4 is a block diagram illustrating a configuration of the image processing device 25. The image processing apparatus 25 according to the first embodiment includes an averaging filter 40, a binarization filter (region specifying unit) 41, an area calculating unit (area calculating unit) 42, and a perimeter calculating unit (peripheral length calculating unit). 43, a similarity calculation unit (similarity calculation unit) 44, a storage unit (storage unit) 45, a suspended matter detection unit (detection unit) 46, a wave height input unit (input unit) 47, and a region extraction unit ( An extraction unit) 48, a template selection unit (selection unit) 49, and a position specifying unit (position specifying unit) 50. Each unit excluding the storage unit 45, the wave height input unit 47, and the template selection unit 49 functions as an image processing unit that processes an input image. Each unit other than the storage unit 45, the wave height input unit 47, and the template selection unit 49 may be configured as a plurality of hardware modules that execute the respective processes, or may be executed by one hardware module such as a CPU. It may be configured as a plurality of software modules. Details of processing executed by each unit will be described later.

図5は、画像処理装置25が実行する処理を示すフローチャートである。
ステップS501で、画像処理装置25は、波高入力部47にて浮遊物検出装置の操作者により波高が入力されたかどうかを判定し、波高が入力されたと判定した場合に処理をステップS502に進める。波高入力部47は、キーボード等の入力デバイスを介して浮遊物検出装置の操作者により入力される数値を波高として入力する。浮遊物検出装置の操作者は、水面の状況を目視等にて確認し、波高を入力する。
FIG. 5 is a flowchart showing processing executed by the image processing device 25.
In step S501, the image processing device 25 determines whether or not the wave height is input by the operator of the floating object detection device at the wave height input unit 47. If it is determined that the wave height is input, the process proceeds to step S502. The wave height input unit 47 inputs, as a wave height, a numerical value input by an operator of the floating object detection apparatus via an input device such as a keyboard. The operator of the floating object detection device confirms the state of the water surface with the naked eye and inputs the wave height.

ステップS502で、画像処理装置25は、ICCDカメラヘッド123により撮像された反射光を画像信号として取得することにより、撮像処理を実行する。ステップS502の撮像処理により撮像された画像の一例は、図6に示すような画像となる。
ステップS503で、平均化フィルタ40は、ステップS502にて取得された画像を平均化処理し、平均化処理された画像を生成する。ステップS503の平均化処理により平均化された画像の一例は、図7に示すような画像となる。図7の画像では、図6の画像に存在していた微小サイズの白色領域(スパイクノイズ)が除去されている。
In step S <b> 502, the image processing device 25 executes imaging processing by acquiring reflected light captured by the ICCD camera head 123 as an image signal. An example of an image captured by the imaging process in step S502 is an image as shown in FIG.
In step S503, the averaging filter 40 averages the image acquired in step S502, and generates an averaged image. An example of the image averaged by the averaging process in step S503 is an image as shown in FIG. In the image of FIG. 7, a minute size white area (spike noise) that was present in the image of FIG. 6 is removed.

なお、平均化フィルタ40は、注目画素の周囲画素(例えば、注目画素の周囲の8画素)の輝度の平均値を算出し、算出した輝度の平均値を注目画素の輝度として置き換える処理を実行する。この注目画素に対する処理を、注目画素を1画素ずつ切り替えながら画像のすべての画素について実行する。平均化フィルタ40が実行する平均化処理により周囲の画素と輝度が大きく異なった画素があっても、その周囲の輝度と平均化され、輝度の変化がゆるやかな画像が出力される。   Note that the averaging filter 40 calculates the average value of the luminance around the pixel of interest (for example, eight pixels around the pixel of interest), and executes a process of replacing the calculated average value of luminance with the luminance of the pixel of interest. . The processing for the target pixel is executed for all the pixels of the image while switching the target pixel one by one. Even if there is a pixel whose luminance is greatly different from the surrounding pixels by the averaging process executed by the averaging filter 40, the luminance is averaged with the surrounding luminance, and an image with a gradual change in luminance is output.

ステップS504で、2値化フィルタ41は、ステップS503にて平均化された画像に対して2値化処理を実行し、2値化された画像を生成する。ステップS504の2値化処理により2値化された画像の一例は、図8に示すような画像となる。図8の画像では、図7の画像に含まれる画素のうち、所定の輝度より輝度の高い領域が特定される。なお、図8では、2値化処理により所定の輝度より高い領域として特定された部分を黒色で示してある。   In step S504, the binarization filter 41 performs binarization processing on the image averaged in step S503, and generates a binarized image. An example of an image binarized by the binarization process in step S504 is an image as shown in FIG. In the image of FIG. 8, a region having a luminance higher than a predetermined luminance is specified among the pixels included in the image of FIG. In FIG. 8, the portion specified as an area higher than the predetermined luminance by the binarization process is shown in black.

ステップS505で、面積算出部42は、ステップS504の2値化処理により抽出された領域の面積を算出する。ここでいう面積とは、画像上の各領域の面積そのものではなく、各領域の水面上での実際の面積に対応するものである。図3に示したように、レーザレーダ1は、水面から高さHがレーザ光の照射位置となるように配置されているとともに、受光部12のカメラ俯角がφとされている。従って、画像の上部領域と画像の下部領域とでは、画像上の面積が同一の領域であっても水面上の実際の面積に換算すると面積が異なったものとなる。具体的には、画像の上部に存在する領域Aと画像の下部に存在する領域Bとで画像上の面積が同一となる場合、水面上での面積は、領域Aの方が大きくなる。したがって、面積算出部42は、ステップS504の2値化処理により抽出された画像上の領域の面積と、各領域の画像上での位置を考慮して、水面上での面積を算出する。   In step S505, the area calculation unit 42 calculates the area of the region extracted by the binarization process in step S504. Here, the area does not correspond to the area of each region on the image itself, but corresponds to the actual area of each region on the water surface. As shown in FIG. 3, the laser radar 1 is arranged so that the height H from the water surface is the irradiation position of the laser beam, and the camera depression angle of the light receiving unit 12 is φ. Therefore, the upper area of the image and the lower area of the image have different areas when converted to the actual area on the water surface even if the area on the image is the same. Specifically, when the area on the image is the same in the area A existing in the upper part of the image and the area B existing in the lower part of the image, the area A on the water surface is larger. Therefore, the area calculation unit 42 calculates the area on the water surface in consideration of the area of the region on the image extracted by the binarization process in step S504 and the position of each region on the image.

ステップS506で、領域抽出部48は、ステップS505の面積算出処理により算出された面積が所定の面積条件に合致しているかどうかを判定し、所定の面積条件に合致している領域を抽出する。ここで所定の面積条件とは、浮遊物検出装置が検出対象とする浮遊物を考慮して予め記憶部45に記憶させておく条件のことをいう。例えば、面積として検出対象とする浮遊物に適したある範囲の面積を設定しておくものとする。図8に示す例では、領域8aと領域8bが、所定の面積条件に合致しないと判定され、領域8aと領域8b以外の他の領域が、領域抽出部48により抽出される。ステップS506の領域抽出処理により抽出された領域の一例が図9に示されている。図9では、図8にて抽出されていた複数の領域の中から領域8aと領域8bが除去されている。   In step S506, the region extraction unit 48 determines whether or not the area calculated by the area calculation processing in step S505 matches a predetermined area condition, and extracts a region that matches the predetermined area condition. Here, the predetermined area condition refers to a condition that is stored in advance in the storage unit 45 in consideration of the floating object to be detected by the floating object detection device. For example, it is assumed that a certain range of area suitable for the suspended matter to be detected is set as the area. In the example illustrated in FIG. 8, it is determined that the region 8 a and the region 8 b do not meet a predetermined area condition, and a region other than the region 8 a and the region 8 b is extracted by the region extraction unit 48. An example of the region extracted by the region extraction processing in step S506 is shown in FIG. In FIG. 9, the region 8a and the region 8b are removed from the plurality of regions extracted in FIG.

ステップS507で、周囲長算出部43は、ステップS506の領域抽出処理により抽出された領域の周囲長を算出する。ここでいう周囲長とは、画像上の各領域の周囲長そのものではなく、各領域の水面上での実際の周囲長に対応するものである。図3に示したように、レーザレーダ1は、水面から高さHがレーザ光の照射位置となるように配置されているとともに、受光部12の俯角がφとされている。従って、画像の上部領域と画像の下部領域とでは、画像上の周囲長が同一の長さであっても水面上の実際の周囲長に換算すると周囲長が異なったものとなる。具体的には、画像の上部に存在する領域Aと画像の下部に存在する領域Bとで画像上の周囲長が同一なる場合、水面上での周囲長は、領域Aの方が長くなる。したがって、周囲長算出部43は、ステップS506の領域抽出処理により抽出された画像上の領域の周囲長と、各領域の画像上での位置を考慮して、水面上での周囲長を算出する。   In step S507, the perimeter calculation unit 43 calculates the perimeter of the region extracted by the region extraction process in step S506. The perimeter here refers not to the perimeter of each area on the image itself but to the actual perimeter on the water surface of each area. As shown in FIG. 3, the laser radar 1 is arranged such that the height H from the water surface is an irradiation position of the laser light, and the depression angle of the light receiving unit 12 is φ. Therefore, the upper area of the image and the lower area of the image have different perimeters in terms of the actual perimeter on the water surface even if the perimeter on the image is the same. Specifically, when the peripheral length on the image is the same in the region A existing in the upper part of the image and the region B existing in the lower part of the image, the peripheral length on the water surface is longer in the region A. Therefore, the perimeter calculation unit 43 calculates the perimeter on the water surface in consideration of the perimeter of the region on the image extracted by the region extraction processing in step S506 and the position of each region on the image. .

ステップS508で、領域抽出部48は、ステップS507の周囲長算出処理により算出された周囲長が所定の周囲長条件に合致しているかどうかを判定し、所定の周囲長条件に合致している領域を抽出する。ここで所定の周囲長条件とは、浮遊物検出装置が検出対象とする浮遊物を考慮して予め記憶部45に記憶させておく条件のことをいう。例えば、周囲長として検出対象とする浮遊物に適したある範囲の周囲長を設定しておくものとする。図9に示す例では、領域9aと領域9bと領域9cが、所定の周囲長条件に合致しないと判定され、領域9aと領域9bと領域9c以外の他の領域が、領域抽出部48により抽出される。ステップS508の領域抽出処理により抽出された領域の一例が図10に示されている。図10では、図9にて抽出されていた複数の領域の中から領域9aと領域9bと領域9cが除去されている。   In step S508, the region extraction unit 48 determines whether or not the perimeter calculated by the perimeter calculation processing in step S507 matches a predetermined perimeter condition, and the region meets the predetermined perimeter condition. To extract. Here, the predetermined peripheral length condition refers to a condition that is stored in advance in the storage unit 45 in consideration of the floating object to be detected by the floating substance detection device. For example, a certain range of perimeters suitable for the suspended object to be detected is set as the perimeter. In the example shown in FIG. 9, it is determined that the region 9a, the region 9b, and the region 9c do not meet the predetermined perimeter condition, and the region extraction unit 48 extracts other regions other than the region 9a, the region 9b, and the region 9c. Is done. An example of the region extracted by the region extraction processing in step S508 is shown in FIG. In FIG. 10, the region 9a, the region 9b, and the region 9c are removed from the plurality of regions extracted in FIG.

ステップS509で、テンプレート選択部49は、ステップS501にて入力された波高に基づいて記憶部45に記憶された複数のテンプレート画像の中から、入力された波高に対応するテンプレート画像を選択する。ここで、記憶部45に記憶されているテンプレート画像の例を図12に示す。図12で、(a)は波高がH2より高い場合に選択されるテンプレート画像を示し、(b)は波高がH1より高くH2以下である場合に選択されるテンプレート画像を示し、(c)は波高がH1以下である場合に選択されるテンプレート画像を示す。波高が高い場合、浮遊物が水面から大きく浮き出る場合があるが、波高が低い場合は浮遊物が水面から大きく浮き出ることはない。従って、波高がH2より高い場合には、水面から大きく浮き出ても浮遊物を検出可能な(a)のテンプレート画像を選択する。一方で、波高がH1以下である場合には、水面から大きく浮き出ない場合の浮遊物を検出可能な(c)のテンプレート画像を選択する。また、波高がH1より高くH2以下である場合には、(b)のテンプレート画像を選択する。   In step S509, the template selection unit 49 selects a template image corresponding to the input wave height from a plurality of template images stored in the storage unit 45 based on the wave height input in step S501. Here, an example of the template image stored in the storage unit 45 is shown in FIG. 12A shows a template image selected when the wave height is higher than H2, FIG. 12B shows a template image selected when the wave height is higher than H1 and lower than H2, and FIG. 12C shows the template image selected. The template image selected when a wave height is below H1 is shown. When the wave height is high, the suspended matter may float significantly from the water surface, but when the wave height is low, the suspended matter will not float significantly from the water surface. Therefore, when the wave height is higher than H2, the template image (a) that can detect the suspended matter even if the wave height rises greatly is selected. On the other hand, when the wave height is equal to or lower than H1, the template image (c) that can detect the suspended matter when the wave height does not rise significantly from the water surface is selected. When the wave height is higher than H1 and lower than H2, the template image (b) is selected.

ステップS510で、類似度算出部44は、ステップS508抽出した領域と、ステップS509で選択したテンプレート画像の類似度を算出する。類似度算出部44は、類似度を算出するにあたって、ステップS508抽出した領域の全領域を類似度の算出対象とはしない。類似度算出部44は、ステップS508で抽出した領域のうち、領域の上部の領域を類似度の算出対象として用いる。上部の領域を類似度の算出対象としているのは、浮遊物の周囲の波の状況による影響を受けにくいからである。言い換えれば、浮遊物の周囲の波の状況等による影響を受けやすい下部領域を除いた方が、類似度の計算に適しているからである。下部領域は、浮遊物の周囲の波の状況により影響を受けて画像が変化しやすいので、この下部領域を除き、上部領域を類似度の算出対象とすることで、浮遊物の周囲の波の状況等により画像として撮像される浮遊物の形状が変化する場合であっても、適切に浮遊物を検出するため類似度を算出することができる。   In step S510, the similarity calculation unit 44 calculates the similarity between the region extracted in step S508 and the template image selected in step S509. In calculating the similarity, the similarity calculation unit 44 does not set the entire area extracted in step S508 as the similarity calculation target. The similarity calculation unit 44 uses the region above the region among the regions extracted in step S508 as the similarity calculation target. The reason for calculating the similarity in the upper region is that it is not easily affected by the state of waves around the floating object. In other words, it is more suitable to calculate the similarity by removing the lower region that is easily affected by the state of the waves around the suspended matter. Since the lower area is affected by the state of waves around the floating object and the image is likely to change, by excluding this lower area, the upper area is subject to similarity calculation, Even when the shape of a floating object captured as an image changes depending on the situation or the like, the similarity can be calculated in order to appropriately detect the floating object.

図10には、ステップS508にて抽出された領域として、領域10a、領域10b、領域10cの3つの領域が示されている。そして、類似度算出部44は、類似度の算出対象となる画像の上部領域として、領域10aについては図13(a)の点線で囲まれた領域を特定する。また、類似度算出部44は、類似度の算出対象となる画像の上部領域として、領域10bについては図13(b)の点線で囲まれた領域を特定する。また、類似度算出部44は、類似度の算出対象となる画像の上部領域として、領域10cについては図13(c)の点線で囲まれた領域を特定する。   FIG. 10 shows three regions, region 10a, region 10b, and region 10c, as the regions extracted in step S508. Then, the similarity calculation unit 44 specifies an area surrounded by a dotted line in FIG. 13A as the upper area of the image whose similarity is to be calculated. In addition, the similarity calculation unit 44 specifies an area surrounded by a dotted line in FIG. 13B as the upper area of the image whose similarity is to be calculated. Further, the similarity calculation unit 44 specifies an area surrounded by a dotted line in FIG. 13C as the upper area of the image whose similarity is to be calculated.

ステップS508抽出した領域の中から上部の領域を特定する方法としては、種々の方法を用いることができる。例えば、ステップS508にて抽出された領域の重心位置より上方の領域を特定する方法を用いることができる。また、例えば、ステップS508にて抽出された領域の上部から高さ方向の一定の割合の領域(例えば、領域の高さの50%の領域)を特定する方法を用いることができる。   In step S508, various methods can be used as a method for specifying the upper region from the extracted regions. For example, it is possible to use a method for specifying a region above the center of gravity of the region extracted in step S508. Further, for example, a method of specifying a certain proportion of the area in the height direction from the upper part of the area extracted in step S508 (for example, an area of 50% of the area height) can be used.

なお、類似度算出部44は、類似度を算出するにあたって、類似度の算出対象となるステップS508抽出した領域の位置に応じてテンプレート画像の大きさを拡大あるいは縮小して用いる。例えば、画像の中心位置に適した大きさのテンプレート画像を記憶部45に記憶しておく場合、ステップS508抽出した領域が画像の上部に存在する領域である場合は、テンプレート画像を縮小した上で類似度の算出に用いる。また、ステップS508抽出した領域が画像の下部に存在する領域である場合は、テンプレート画像を拡大した上で類似度の算出に用いる。このようにすることで、ステップS508抽出した領域の画像上の位置に応じて、適切な類似度の算出をすることができる。   Note that, when calculating the similarity, the similarity calculation unit 44 enlarges or reduces the size of the template image according to the position of the extracted region in step S508 that is the similarity calculation target. For example, when a template image having a size suitable for the center position of the image is stored in the storage unit 45, in step S508, if the extracted region is an upper region, the template image is reduced. Used to calculate similarity. If the extracted region is a region existing in the lower part of the image, the template image is enlarged and used for calculating the similarity. By doing in this way, it is possible to calculate an appropriate similarity according to the position on the image of the region extracted in step S508.

さらに、類似度算出部44は、類似度を算出するにあたって、テンプレート画像の角度を変えながら複数回の類似度の算出を行い、複数回の算出の中で一番類似度の高い結果がでた場合の類似度を出力結果とする。このようにすることで、テンプレート画像における浮遊物の角度と実際に撮像された浮遊物の角度が異なっている場合であっても、適切に類似度を算出することができる。   Furthermore, when calculating the similarity, the similarity calculation unit 44 calculates the similarity multiple times while changing the angle of the template image, and the highest similarity is obtained among the multiple calculations. The similarity in the case is used as the output result. By doing in this way, even if it is a case where the angle of the floating object in a template image differs from the angle of the actually imaged floating object, a similarity degree can be calculated appropriately.

ステップS511で、浮遊物検出部46は、ステップS510で算出された類似度が所定値よりも高いかどうかを判定し、所定値より高いと判定した場合に、類似度が所定値よりも高いと判定された領域を浮遊物が存在する領域として検出する。なお、ステップS510で算出された類似度が所定値よりも低い場合には、浮遊物が存在する領域が検出されなかったものする。なお、所定値は、検出対象とする浮遊物を考慮して、予め記憶部45に記憶させておくものとする。
図11では、図10の3つの領域の中から、領域10aが、浮遊物が存在する領域として検出されたことが示されている。
In step S511, the suspended matter detection unit 46 determines whether or not the similarity calculated in step S510 is higher than a predetermined value. If it is determined that the similarity is higher than the predetermined value, the similarity is higher than the predetermined value. The determined area is detected as an area where floating substances exist. If the similarity calculated in step S510 is lower than the predetermined value, it is assumed that the area where the suspended matter is present is not detected. Note that the predetermined value is stored in advance in the storage unit 45 in consideration of the suspended matter to be detected.
In FIG. 11, it is shown that the area 10a is detected as an area where floating substances are present from the three areas of FIG.

ステップS512で、画像処理装置25は、ステップS511にて浮遊物が存在する領域が検出されたかどうかを判定し、浮遊物が存在する領域が検出されたと判定された場合にステップS513に処理を進める。
一方、浮遊物が存在する領域が検出されたと判定されない場合には、ステップS502の撮像処理以降の処理が再び実行される。
In step S512, the image processing apparatus 25 determines whether or not a region where a floating substance exists is detected in step S511. If it is determined that a region where a floating substance exists is detected, the process proceeds to step S513. .
On the other hand, when it is not determined that the region where the suspended matter exists is detected, the processing after the imaging processing in step S502 is executed again.

ステップS513で、位置特定部50は、ステップS511にて浮遊物が存在する領域として検出された領域の画像上での位置に基づいて、浮遊物のレーザレーダ1からの相対位置を特定し、図5のフローチャートの各処理を終了させる。   In step S513, the position specifying unit 50 specifies the relative position of the floating object from the laser radar 1 based on the position on the image of the area detected as the area where the floating substance exists in step S511. Each process of the flowchart of FIG.

次に、ステップS505において面積算出部42が面積を算出する処理、ステップS513で位置特定部50が位置を特定する処理について、図14を用いてより詳細に説明する。図14は、受光部12により撮像される画像と、画像上の目標物を示す領域(以下、目標物T)を示す図である。受光部12により撮像される画像は、横方向がXmax画素、縦方向がYmax画素からなる画像である。図14は、左上をX座標およびY座標の原点としており、原点から座標(Xmax、Ymax)の範囲が図2の撮像領域30に対応する画像となる。 Next, the process in which the area calculating unit 42 calculates the area in step S505 and the process in which the position specifying unit 50 specifies the position in step S513 will be described in detail with reference to FIG. FIG. 14 is a diagram illustrating an image captured by the light receiving unit 12 and a region (hereinafter, target T) indicating the target on the image. The image picked up by the light receiving unit 12 is an image having X max pixels in the horizontal direction and Y max pixels in the vertical direction. In FIG. 14, the upper left is the origin of the X and Y coordinates, and the range from the origin to the coordinates (X max , Y max ) is an image corresponding to the imaging region 30 in FIG. 2.

図14中の目標物Tは、図5のステップS504で抽出された領域に対応するものであり、横方向(X軸方向)の幅がXw画素、縦方向(Y軸方向)の長さもXw画素の領域である。この目標物Tの中心位置のX軸上の座標はXとなり、Y軸条の座標はYとなる。そして、受光部12により撮像される画像上の目標物Tと実際の目標物に関して、下記の条件式が成り立つ。 The target T in FIG. 14 corresponds to the region extracted in step S504 in FIG. 5, the width in the horizontal direction (X-axis direction) is Xw pixels, and the length in the vertical direction (Y-axis direction) is also Xw. This is a pixel area. Coordinates X t next on the X-axis of the center position of the target T, the coordinate of the Y-axis strip becomes Y t. Then, the following conditional expression holds for the target T on the image captured by the light receiving unit 12 and the actual target.

pix/(X=S/(T (1)
/W=X/Xmax (2)
W=2・L・tan(θ/2) (3)
=H/tan(θ) (4)
θ=φ+θ・(Y−Ymax/2)/Ymax (5)
γ=θ・(X−Xmax/2)/Xmax (6)
ここで、Spix:画像上の目標物Tの面積[画素]、S:目標物Tの実際の面積[m]、X:画像上での目標物Tの幅[画素]、T:目標物Tの実際の幅[m]、W:目標物Tの位置における撮像領域30の幅[m]、L:受光部12と目標物Tの距離[m]、θ:受光部12の横方向の視野角[度]、θ:受光部12の縦方向の視野角[度]、θ:目標物Tの俯角[度]、γ:目標物の方位角[度]、φ:レーザレーダ1のカメラ俯角[度]、X:目標物Tの画像上のX座標、Y:目標物Tの画像上のY座標、Xmax:画像の横方向の画素数[画素]、Ymax:画像の縦方向の画素数[画素]、H:レーザレーダ1のレーザ光の照射位置の水面からの高さ[m]である。
S pix / (X w ) 2 = S t / (T w ) 2 (1)
Tw / W = Xw / Xmax (2)
W = 2 · L t · tan (θ 1/2) (3)
L t = H / tan (θ t ) (4)
θ t = φ + θ 2 · (Y t −Y max / 2) / Y max (5)
γ t = θ 1 · (X t −X max / 2) / X max (6)
Here, S pix : Area of the target T on the image [pixel], S t : Actual area of the target T [m 2 ], X w : Width of the target T on the image [pixel], T w : actual width [m] of the target T, W: width [m] of the imaging region 30 at the position of the target T, L t : distance [m] between the light receiving unit 12 and the target T, θ 1 : light reception Viewing angle [degrees] in the horizontal direction of the section 12, θ 2 : Viewing angle in the vertical direction of the light receiving section 12 [degree], θ t : Depression angle [degree] of the target T, γ t : Azimuth angle of the target [degree] ], Φ: Camera depression angle [degrees] of the laser radar 1, X t : X coordinate on the image of the target T, Y t : Y coordinate on the image of the target T, X max : Number of pixels in the horizontal direction of the image [Pixel], Y max : Number of pixels in the vertical direction of the image [Pixel], H: Height of the laser beam irradiation position of the laser radar 1 from the water surface [m].

前述した図5のステップS505で、面積算出部42は、以上の条件式(1)から(6)に基づいて目標物Tの実際の面積Sを算出する。また、前述した図5のステップS513で、位置特定部50は、以上の条件式(1)から(6)に基づいて目標物の方位角γとレーザレーダ1と目標物Tの距離Lを算出し、目標物T(浮遊物)のレーザレーダ1からの相対位置を特定する。 In step S505 of FIG. 5 described above, the area calculation section 42 calculates the actual area S t of the target T on the basis of (6) From the above conditional expression (1). In step S513 of FIG. 5 described above, the position specifying unit 50 determines the azimuth angle γ t of the target and the distance L t between the laser radar 1 and the target T based on the above conditional expressions (1) to (6). And the relative position of the target T (floating matter) from the laser radar 1 is specified.

以上説明したように、第1実施形態の浮遊物検出装置は、撮像された水面の画像の中から浮遊物の抽出条件に合致する領域を抽出し、抽出された領域の浮遊物の周囲の波の状況による影響を受けにくい上部領域とテンプレート画像との類似度を算出し、算出された類似度が所定値よりも高い場合に抽出された領域を浮遊物が存在する領域として検出する。このようにすることで、浮遊物の抽出条件に合致する領域として抽出された領域の中から、浮遊物の周囲の波の状況等による影響を受けやすい下部領域を除いた上部領域をテンプレート画像との類似度の算出の対象とすることができる。したがって、浮遊物の周囲の波の状況等により画像として撮像される浮遊物の形状が変化する場合であっても、適切に浮遊物を検出することができる。   As described above, the floating substance detection apparatus according to the first embodiment extracts a region that matches the extraction condition of the floating substance from the captured image of the water surface, and the waves around the floating substance in the extracted area. The similarity between the upper region that is not easily affected by the situation and the template image is calculated, and when the calculated similarity is higher than a predetermined value, the extracted region is detected as the region where the suspended matter exists. By doing this, the upper region excluding the lower region that is easily affected by the state of waves around the floating material from the region extracted as the region that matches the extraction condition of the floating material is defined as the template image. The similarity can be calculated. Therefore, even when the shape of the floating object picked up as an image changes depending on the state of waves around the floating object, the floating object can be detected appropriately.

また、第1実施形態の浮遊物検出装置は、複数の波高のそれぞれに対応する複数のテンプレート画像を記憶部45に記憶しておき、入力された波高に応じたテンプレート画像を選択して、選択されたテンプレート画像を類似度の算出の対象とする。このようにすることで、波高に応じた適切な浮遊物の検出をすることができる。
また、第1実施形態の浮遊物検出装置は、浮遊物検出部46により検出された領域のレーザレーダ1からの相対位置を、領域抽出部48により抽出された領域の水面の画像中の位置に基づいて特定する。このようにすることで、浮遊物検出部46により検出された領域の位置を、レーザレーダ1からの相対位置として特定することができる。
In addition, the floating object detection apparatus of the first embodiment stores a plurality of template images corresponding to each of a plurality of wave heights in the storage unit 45, selects a template image corresponding to the input wave height, and selects the template image. The obtained template image is set as a target for calculating the similarity. By doing so, it is possible to detect an appropriate suspended matter according to the wave height.
In addition, the floating object detection apparatus of the first embodiment sets the relative position of the area detected by the floating substance detection unit 46 from the laser radar 1 to the position in the image of the water surface of the area extracted by the area extraction unit 48. Identify based on. In this way, the position of the area detected by the floating substance detection unit 46 can be specified as a relative position from the laser radar 1.

また、第1実施形態の浮遊物検出装置は、水面の画像の中から所定輝度より輝度の高い領域を特定する2値化フィルタ41と、2値化フィルタ41により特定された領域の面積を算出する面積算出部42と、を備え、領域抽出部48が、2値化フィルタ41により特定された領域の中から、面積算出部42により算出された面積が所定の面積条件に合致する領域を抽出する。このようにすることで、所定の面積条件に合致する面積となる領域を、浮遊物が存在する領域の候補として抽出することができる。
さらに、第1実施形態の浮遊物検出装置は、面積条件に合致する領域として抽出された領域の周囲長を算出する周囲長算出部43を備え、領域抽出部48が、面積条件に合致する領域として抽出された領域の中から、周囲長算出部43により算出された周囲長が所定の周囲長条件に合致する領域を抽出する。このようにすることで、所定の面積条件に合致し、かつ所定の周囲長条件に合致する周囲長となる領域を、浮遊物が存在する領域の候補として抽出することができる。
In addition, the floating object detection apparatus according to the first embodiment calculates the area of the area specified by the binarization filter 41 and the binarization filter 41 that specify an area having a luminance higher than a predetermined luminance from the water surface image. An area calculation unit 42, and the region extraction unit 48 extracts a region in which the area calculated by the area calculation unit 42 meets a predetermined area condition from the regions specified by the binarization filter 41 To do. By doing in this way, the area | region which becomes an area which agree | coincides with a predetermined area condition can be extracted as a candidate of the area | region where a floating substance exists.
Furthermore, the floating substance detection apparatus according to the first embodiment includes a peripheral length calculation unit 43 that calculates the peripheral length of a region extracted as a region that matches the area condition, and the region extraction unit 48 includes a region that matches the area condition. Are extracted from the extracted regions as the peripheral length calculated by the peripheral length calculation unit 43 in accordance with a predetermined peripheral length condition. By doing so, it is possible to extract a region that matches a predetermined area condition and has a peripheral length that matches a predetermined peripheral length condition as a candidate for a region in which a suspended matter exists.

また、第1実施形態の浮遊物検出装置は、受光部12がレーザ光源の反射光を画像として撮像し、レーザ光源が照射するレーザ光の波長が、1400nm以上かつ2600nm以下である。このような波長のレーザ光を用いることで、水面からのレーザ光の反射が抑えられ、水上に浮遊する浮遊物からの反射光をより鮮明に撮像することができる。したがって、水上に浮遊する浮遊物の検出精度を向上させることができる。   In the floating object detection apparatus of the first embodiment, the light receiving unit 12 captures the reflected light of the laser light source as an image, and the wavelength of the laser light emitted by the laser light source is 1400 nm or more and 2600 nm or less. By using laser light having such a wavelength, reflection of the laser light from the water surface can be suppressed, and reflected light from a suspended matter floating on the water can be imaged more clearly. Therefore, it is possible to improve the detection accuracy of floating substances floating on the water.

〔第2実施形態〕
第1実施形態の浮遊物検出装置は、図5のステップS501で入力された波高に基づいて、記憶部45に記憶された複数のテンプレート画像の中から、入力された波高に対応する1つのテンプレート画像を選択する。そして、第1実施形態は、その選択された1つのテンプレート画像を類似度の算出の対象とするものであった。
それに対して、第2実施形態は、波高が高い場合には、記憶部45に記憶された複数のテンプレート画像の中から複数のテンプレート画像を選択するものである。
[Second Embodiment]
The floating object detection apparatus of the first embodiment is based on the wave height input in step S501 of FIG. 5, and one template corresponding to the input wave height from among a plurality of template images stored in the storage unit 45. Select an image. In the first embodiment, the selected one template image is a target of similarity calculation.
In contrast, the second embodiment selects a plurality of template images from a plurality of template images stored in the storage unit 45 when the wave height is high.

例えば、波高がH2より高い場合には、図12(a)に示すテンプレート画像だけでなく、図12(b)および図12(c)に示すテンプレート画像を含め、3つのテンプレート画像を選択する。この場合、類似度算出部44は、ステップS508にて抽出した領域と、3つのテンプレート画像との類似度をそれぞれ算出する。そして、3つのテンプレート画像を対象にして算出した3つの類似度のうち、いずれか一番数値の高い類似度を用いて、ステップS512の処理を実行する。   For example, when the wave height is higher than H2, not only the template image shown in FIG. 12 (a) but also three template images including the template images shown in FIG. 12 (b) and FIG. 12 (c) are selected. In this case, the similarity calculation unit 44 calculates the similarity between the region extracted in step S508 and the three template images. And the process of step S512 is performed using the similarity with the highest numerical value among the three similarities calculated for the three template images.

波高がH2より高い場合に、図12(a)、(b)、(c)に示す3つのテンプレート画像を選択しているのは、波高がH2より高い場合には、浮遊物が水面から大きく浮き出る状態と、そうでない状態とが時間経過に従って変化するからである。第1実施形態に比べて類似度を算出する対象とするテンプレート画像が増加することで、画像処理装置25の処理負荷が増えるが、その分、浮遊物の検出精度を向上させることができる。   When the wave height is higher than H2, the three template images shown in FIGS. 12A, 12B, and 12C are selected because when the wave height is higher than H2, the suspended matter is larger from the water surface. This is because the state of rising and the state of not changing change over time. Although the processing load of the image processing device 25 is increased by increasing the number of template images whose similarity is to be calculated as compared with the first embodiment, the detection accuracy of floating substances can be improved accordingly.

なお、波高がH1より高くH2以下である場合には、ステップS509で、図12(b)と図12(c)の2つのテンプレート画像を選択する。図12(a)のテンプレート画像を選択しないのは、波高がH2以下であるので図12(a)のテンプレート画像に合致するような浮遊物がレーザレーダ1により撮像されないからである。   If the wave height is higher than H1 and lower than H2, two template images shown in FIGS. 12B and 12C are selected in step S509. The reason why the template image shown in FIG. 12A is not selected is that the suspended object that matches the template image shown in FIG.

また、波高がH1以下である場合には、ステップS509で、図12(c)の1つのテンプレート画像を選択する。図12(a)と図12(b)のテンプレート画像を選択しないのは、波高がH1以下であるので図12(a)と図12(b)のテンプレート画像に合致するような浮遊物がレーザレーダ1により撮像されないからである。   If the wave height is equal to or less than H1, one template image shown in FIG. 12C is selected in step S509. The template images in FIGS. 12A and 12B are not selected because the wave height is equal to or lower than H1, and the suspended matter that matches the template images in FIGS. 12A and 12B is a laser. This is because the image is not picked up by the radar 1.

〔他の実施形態〕
第1実施形態では、図5のステップS513で、浮遊物のレーザレーダ1からの相対位置を特定したが、他の態様であっても良い。例えば、浮遊物の絶対位置を緯度および経度にて特定するようにしても良い。
この場合、浮遊物検出装置は、GPS(Global Positioning System)等の自装置の緯度および経度を認識できる認識装置(認識手段)を備えるものとする。
そして、第2実施形態の浮遊物検出装置は、認識装置により認識した絶対位置(緯度および経度)と、第1実施形態の図5のステップS511にて浮遊物が存在する領域として検出された領域の画像上での位置とに基づいて、浮遊物検出装置の絶対位置(緯度および経度)を特定する。
[Other Embodiments]
In the first embodiment, the relative position of the suspended object from the laser radar 1 is specified in step S513 in FIG. 5, but other modes may be used. For example, the absolute position of the suspended matter may be specified by latitude and longitude.
In this case, the floating object detection device includes a recognition device (recognition unit) capable of recognizing the latitude and longitude of its own device such as GPS (Global Positioning System).
And the floating object detection apparatus of 2nd Embodiment is the area | region detected as an area | region where a floating substance exists in step S511 of FIG. 5 of 1st Embodiment and the absolute position (latitude and longitude) recognized by the recognition apparatus. The absolute position (latitude and longitude) of the floating object detection device is specified based on the position on the image.

他の実施形態の浮遊物検出装置は、浮遊物検出装置の位置を認識する認識装置と、浮遊物検出部46により検出された領域の位置を、領域抽出部48により抽出された領域の水面の画像中の位置と認識装置が認識する浮遊物検出装置の位置とに基づいて特定する。このようにすることで、浮遊物検出部46により検出された領域の位置を、絶対位置(緯度および経度)として特定することができる。   In another embodiment, the floating body detection device recognizes the position of the floating body detection device, and the position of the region detected by the floating body detection unit 46 is obtained from the water surface of the region extracted by the region extraction unit 48. The identification is performed based on the position in the image and the position of the floating substance detection device recognized by the recognition device. By doing in this way, the position of the area detected by the suspended matter detection unit 46 can be specified as an absolute position (latitude and longitude).

第1実施形態では、受光部12がICCカメラヘッド123を用いて画像を撮像するものであったが、他の態様であってもよい。例えば、受光部12は、赤外線(Infrared(IR))カメラを用いて撮像するものであってもよい。   In 1st Embodiment, although the light-receiving part 12 imaged an image using the ICC camera head 123, another aspect may be sufficient. For example, the light receiving unit 12 may capture an image using an infrared (Infrared (IR)) camera.

1 レーザレーダ
25 画像処理装置
40 平均化フィルタ
41 2値化フィルタ
42 面積算出部
43 周囲長算出部
44 類似度算出部
45 記憶部
46 浮遊物検出部
47 波高入力部
48 領域検出部
49 テンプレート選択部
50 位置特定部
DESCRIPTION OF SYMBOLS 1 Laser radar 25 Image processing apparatus 40 Average filter 41 Binarization filter 42 Area calculation part 43 Perimeter calculation part 44 Similarity calculation part 45 Storage part 46 Floating object detection part 47 Wave height input part 48 Area detection part 49 Template selection part 50 Location specification part

Claims (9)

水上に浮遊する浮遊物を検出する浮遊物検出装置であって、
水面を撮像する撮像手段と、
前記撮像手段により撮像された水面の画像の中から前記浮遊物の抽出条件に合致する領域を抽出する抽出手段と、
前記浮遊物を検出するためのテンプレート画像を記憶する記憶手段と、
前記抽出手段により抽出された領域の前記浮遊物の周囲の波の状況による影響を受けにくい上部領域と、前記記憶手段に記憶された前記テンプレート画像との類似度を算出する類似度算出手段と、
前記類似度算出手段により算出された類似度が所定値よりも高い場合に前記抽出手段により抽出された領域を前記浮遊物が存在する領域として検出する検出手段と、
を備えることを特徴とする浮遊物検出装置。
A floating substance detection device for detecting floating substances floating on water,
Imaging means for imaging the water surface;
Extraction means for extracting a region that matches the extraction condition of the suspended matter from the image of the water surface imaged by the imaging means;
Storage means for storing a template image for detecting the suspended matter;
Similarity calculation means for calculating the similarity between the upper region of the region extracted by the extraction means that is not easily affected by the state of waves around the suspended matter and the template image stored in the storage means;
Detecting means for detecting an area extracted by the extracting means as an area where the suspended matter is present when the similarity calculated by the similarity calculating means is higher than a predetermined value;
A suspended matter detection apparatus comprising:
前記記憶手段が、複数の波高にそれぞれ対応する複数のテンプレート画像を記憶し、
前記浮遊物検出装置が、
前記水面の波高を入力する入力手段と、
前記入力手段により入力された波高に応じたテンプレート画像を前記記憶手段に記憶された複数のテンプレート画像の中から選択する選択手段を備え、
前記類似度算出手段が、前記抽出手段により抽出された領域の前記上部領域と、前記選択手段により選択されたテンプレート画像との類似度を算出することを特徴とする請求項1に記載の浮遊物検出装置。
The storage means stores a plurality of template images respectively corresponding to a plurality of wave heights;
The floating substance detection device is
Input means for inputting the wave height of the water surface;
Selecting means for selecting a template image corresponding to the wave height input by the input means from a plurality of template images stored in the storage means;
The suspended matter according to claim 1, wherein the similarity calculation unit calculates a similarity between the upper region of the region extracted by the extraction unit and the template image selected by the selection unit. Detection device.
前記類似度算出手段が、前記抽出手段により抽出された領域の重心位置より上部の前記上部領域と、前記記憶手段に記憶された前記テンプレート画像との類似度を算出することを特徴とする請求項1または請求項2に記載の浮遊物検出装置。   The similarity calculation unit calculates a similarity between the upper region above the center of gravity of the region extracted by the extraction unit and the template image stored in the storage unit. The suspended | floating matter detection apparatus of Claim 1 or Claim 2. 前記検出手段により検出された領域の前記撮像手段からの相対位置を、前記抽出手段により抽出された領域の前記水面の画像中の位置に基づいて特定する位置特定手段と、
を備えることを特徴とする請求項1から請求項3のいずれか1項に記載の浮遊物検出装置。
Position specifying means for specifying the relative position of the area detected by the detecting means from the imaging means based on the position in the image of the water surface of the area extracted by the extracting means;
The suspended | floating matter detection apparatus of any one of Claims 1-3 characterized by the above-mentioned.
前記浮遊物検出装置の位置を認識する認識手段と、
前記検出手段により検出された領域の位置を、前記抽出手段により抽出された領域の前記水面の画像中の位置と前記認識手段が認識する前記浮遊物検出装置の位置とに基づいて特定する位置特定手段を備えることを特徴とする請求項1から請求項3のいずれか1項に記載の浮遊物検出装置。
Recognizing means for recognizing the position of the floating substance detecting device;
Position specification for specifying the position of the area detected by the detection means based on the position of the area extracted by the extraction means in the image of the water surface and the position of the floating substance detection device recognized by the recognition means The suspended | floating matter detection apparatus of any one of Claim 1 to 3 provided with a means.
前記水面の画像の中から所定輝度より輝度の高い領域を特定する領域特定手段と、
前記領域特定手段により特定された領域の面積を算出する面積算出手段と、を備え、
前記抽出手段が、前記領域特定手段により特定された領域の中から、前記面積算出手段により算出された面積が所定の面積条件に合致する領域を抽出することを特徴とする請求項1から請求項5のいずれか1項に記載の浮遊物検出装置。
Area specifying means for specifying an area having a luminance higher than a predetermined luminance from the water surface image;
An area calculating means for calculating the area of the area specified by the area specifying means,
2. The extraction unit according to claim 1, wherein the extraction unit extracts a region in which the area calculated by the area calculation unit matches a predetermined area condition from the regions specified by the region specification unit. 6. The suspended | floating matter detection apparatus of any one of 5.
前記面積条件に合致する領域として抽出された領域の周囲長を算出する周囲長算出手段を備え、
前記抽出手段が、前記面積条件に合致する領域として抽出された領域の中から、前記周囲長算出手段により算出された周囲長が所定の周囲長条件に合致する領域を抽出することを特徴とする請求項6に記載の浮遊物検出装置。
A perimeter calculation unit that calculates the perimeter of the region extracted as a region that matches the area condition,
The extraction unit extracts a region in which the perimeter calculated by the perimeter calculation unit matches a predetermined perimeter condition from regions extracted as regions that match the area condition. The suspended | floating matter detection apparatus of Claim 6.
レーザ光を照射するレーザ光源を有し、
前記撮像手段は、前記レーザ光源の反射光を画像として撮像し、
前記レーザ光源が照射するレーザ光の波長が、1400nm以上かつ2600nm以下であることを特徴とする請求項1から請求項7のいずれか1項に記載の浮遊物検出装置。
A laser light source for irradiating laser light;
The imaging means captures the reflected light of the laser light source as an image,
The floating object detection apparatus according to any one of claims 1 to 7, wherein a wavelength of laser light emitted by the laser light source is 1400 nm or more and 2600 nm or less.
水上に浮遊する浮遊物を検出する浮遊物検出方法であって、
水面を撮像する撮像工程と、
前記撮像工程により撮像された水面の画像の中から前記浮遊物の抽出条件に合致する領域を抽出する抽出工程と、
前記抽出工程により抽出された領域の前記浮遊物の周囲の波の状況による影響を受けにくい上部領域と、前記浮遊物を検出するためのテンプレート画像との類似度を算出する類似度算出工程と、
前記類似度算出工程により算出された類似度が所定値よりも高い場合に前記抽出工程により抽出された領域を前記浮遊物が存在する領域として検出する検出工程と、
を備えることを特徴とする浮遊物検出方法。
A suspended matter detection method for detecting suspended matter floating on water,
An imaging process for imaging the water surface;
An extraction step for extracting a region that matches the extraction condition of the suspended matter from the image of the water surface imaged by the imaging step;
A similarity calculation step of calculating a similarity between the upper region of the region extracted by the extraction step that is not easily affected by the state of waves around the suspended matter and a template image for detecting the suspended matter,
A detection step of detecting a region extracted by the extraction step as a region where the suspended matter exists when the similarity calculated by the similarity calculation step is higher than a predetermined value;
A suspended matter detection method comprising:
JP2012044826A 2012-02-29 2012-02-29 Floating object detection device and floating object detection method Pending JP2013181795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012044826A JP2013181795A (en) 2012-02-29 2012-02-29 Floating object detection device and floating object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012044826A JP2013181795A (en) 2012-02-29 2012-02-29 Floating object detection device and floating object detection method

Publications (1)

Publication Number Publication Date
JP2013181795A true JP2013181795A (en) 2013-09-12

Family

ID=49272555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012044826A Pending JP2013181795A (en) 2012-02-29 2012-02-29 Floating object detection device and floating object detection method

Country Status (1)

Country Link
JP (1) JP2013181795A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015045717A1 (en) * 2013-09-26 2015-04-02 日本電気株式会社 Anomalous tide level fluctuation sensing device, anomalous tide level fluctuation sensing method, and anomalous tide level fluctuation sensing program
JP2015109063A (en) * 2013-10-21 2015-06-11 大樹 谷口 Toilet watching method by edge detection and toilet watching device to be used for the same
JP2016020817A (en) * 2014-07-11 2016-02-04 東京瓦斯株式会社 Device for detecting oil spilled at sea
CN109636758A (en) * 2018-12-15 2019-04-16 四创科技有限公司 A kind of floating on water object detecting method based on space-time dynamic operator
US10282622B2 (en) 2016-12-09 2019-05-07 Hitachi Kokusai Electric Inc. Marine intrusion detection system and method
JP2019219414A (en) * 2013-10-23 2019-12-26 レーダー リミテッドLadar Limited Laser detection and ranging device for detecting object under water surface
CN113658250A (en) * 2021-08-25 2021-11-16 中冶京诚工程技术有限公司 Floater position prediction method and device
CN116503767A (en) * 2023-06-02 2023-07-28 合肥众安睿博智能科技有限公司 River course floater recognition system based on semantic image processing
KR102578809B1 (en) * 2022-11-23 2023-09-15 주식회사 제이디 Method for providing data of floating object using autonomous water drone and system thereof

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9989361B2 (en) 2013-09-26 2018-06-05 Nec Corporation Anomalous tide level fluctuation sensing device, anomalous tide level fluctuation sensing method, and anomalous tide level fluctuation sensing program
WO2015045717A1 (en) * 2013-09-26 2015-04-02 日本電気株式会社 Anomalous tide level fluctuation sensing device, anomalous tide level fluctuation sensing method, and anomalous tide level fluctuation sensing program
JP2015109063A (en) * 2013-10-21 2015-06-11 大樹 谷口 Toilet watching method by edge detection and toilet watching device to be used for the same
JP2019219414A (en) * 2013-10-23 2019-12-26 レーダー リミテッドLadar Limited Laser detection and ranging device for detecting object under water surface
JP2016020817A (en) * 2014-07-11 2016-02-04 東京瓦斯株式会社 Device for detecting oil spilled at sea
US10282622B2 (en) 2016-12-09 2019-05-07 Hitachi Kokusai Electric Inc. Marine intrusion detection system and method
CN109636758A (en) * 2018-12-15 2019-04-16 四创科技有限公司 A kind of floating on water object detecting method based on space-time dynamic operator
CN109636758B (en) * 2018-12-15 2022-10-14 四创科技有限公司 Water surface floater detection method based on space-time dynamic operator
CN113658250A (en) * 2021-08-25 2021-11-16 中冶京诚工程技术有限公司 Floater position prediction method and device
CN113658250B (en) * 2021-08-25 2024-03-08 中冶京诚工程技术有限公司 Floating object position prediction method and device
KR102578809B1 (en) * 2022-11-23 2023-09-15 주식회사 제이디 Method for providing data of floating object using autonomous water drone and system thereof
WO2024111761A1 (en) * 2022-11-23 2024-05-30 주식회사 제이디 Apparatus for providing marine floating object data by using autonomous water drone, and method therefor
CN116503767A (en) * 2023-06-02 2023-07-28 合肥众安睿博智能科技有限公司 River course floater recognition system based on semantic image processing
CN116503767B (en) * 2023-06-02 2023-09-22 合肥众安睿博智能科技有限公司 River course floater recognition system based on semantic image processing

Similar Documents

Publication Publication Date Title
JP2013181795A (en) Floating object detection device and floating object detection method
CN106210698B (en) The control method of depth camera
JP6062122B2 (en) Driving support device, driving support method and program
US10846866B2 (en) Irradiation system, irradiation method, and program storage medium
JP2007334751A (en) Vehicle periphery monitoring device
JP2009187135A (en) Vehicle periphery monitoring device, vehicle, program for monitoring vehicle periphery, and vehicle periphery monitoring method
US20200221006A1 (en) Image processing device, image processing method, program and image processing system
JP2015068748A (en) Dynamic elevation measuring apparatus, dynamic elevation measuring method, and dynamic elevation measuring program
EP3163604B1 (en) Position detection apparatus, position detection method, information processing program, and storage medium
JP2011053197A (en) Method and device for automatically recognizing object
JP2007298376A (en) Method and device for determining boundary position, program for making computer function as boundary position determination device, and recording medium
JP4753053B2 (en) Object type determination apparatus, object type determination method, and object type determination program
JP2023542863A (en) Systems and methods for generating panoramic acoustic images and virtualizing acoustic imaging devices by segmentation
JP2007003455A (en) Object searching method at sea and system, and recording medium for executing object searching method
US20130208091A1 (en) Ambient light alert for an image sensor
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2014142832A (en) Image processing apparatus, control method of image processing apparatus, and program
JP4875652B2 (en) Action recognition system and method
JP5502149B2 (en) Vehicle periphery monitoring device
JP2012198802A (en) Intrusion object detection system
JP2009193130A (en) Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
JP6735594B2 (en) Image processing apparatus, image processing apparatus control method, and program
US20160073087A1 (en) Augmenting a digital image with distance data derived based on acoustic range information
US20210315540A1 (en) Ultrasonic diagnostic apparatus and body mark display method
EP2845165A2 (en) Ambient light alert for an image sensor