JP6915812B2 - Warning devices, warning methods, and warning programs for safe navigation - Google Patents

Warning devices, warning methods, and warning programs for safe navigation Download PDF

Info

Publication number
JP6915812B2
JP6915812B2 JP2019199447A JP2019199447A JP6915812B2 JP 6915812 B2 JP6915812 B2 JP 6915812B2 JP 2019199447 A JP2019199447 A JP 2019199447A JP 2019199447 A JP2019199447 A JP 2019199447A JP 6915812 B2 JP6915812 B2 JP 6915812B2
Authority
JP
Japan
Prior art keywords
image
image data
data
ship
binarization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019199447A
Other languages
Japanese (ja)
Other versions
JP2021072003A (en
Inventor
聡 新谷
聡 新谷
英樹 仲井
英樹 仲井
義和 奥村
義和 奥村
和樹 長澤
和樹 長澤
Original Assignee
りんかい日産建設株式会社
株式会社システム計画研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by りんかい日産建設株式会社, 株式会社システム計画研究所 filed Critical りんかい日産建設株式会社
Priority to JP2019199447A priority Critical patent/JP6915812B2/en
Publication of JP2021072003A publication Critical patent/JP2021072003A/en
Application granted granted Critical
Publication of JP6915812B2 publication Critical patent/JP6915812B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、船舶の安全航行のための警報装置、警報方法、及び警報プログラムに関する。 The present invention relates to an alarm device, an alarm method, and an alarm program for safe navigation of a ship.

港湾、沿岸等における工事の施工にあたっては、海上を航行する船舶が安全に航海できるように工事区域付近に海上標識、例えば、灯浮標、灯標が設置される。しかし船舶からの海上標識の視認は容易ではなく、又、海上工事の施工期間は短いことが多く海上標識の海図への反映はされないことが多い。 When constructing works at harbors, coasts, etc., maritime signs, such as buoys and buoys, are installed near the construction area so that vessels navigating the sea can sail safely. However, it is not easy to visually recognize the marine sign from a ship, and the construction period of the marine work is often short, and the marine sign is often not reflected in the nautical chart.

従って、工事施工管理者側が、工事区域付近の海上を監視し、工事区域に接近する船舶に対して警報を発するようにすることが望ましい。例えば、工事区域にレーダーを設置して、接近する船舶を検出して警報を発する方法がある。国際VHFを使用した自動船舶識別装置(AIS:Automatic Identification System)を設置して、接近する船舶を検出して警報を発したりする方法がある。しかし、いずれの方法も電波発信をするためアンテナ設置や運用するために無線技術の資格を必要とする。 Therefore, it is desirable that the construction management manager monitors the sea near the construction area and issues an alarm to the vessels approaching the construction area. For example, there is a method of installing a radar in a construction area to detect an approaching ship and issue an alarm. There is a method of installing an automatic identification system (AIS) using an international VHF to detect an approaching ship and issue an alarm. However, both methods require wireless technology qualifications to install and operate antennas in order to transmit radio waves.

そこで、デジタルカメラを工事区域に設置し、画像認識技術を用いて工事区域に接近する船舶を検出して警報を発する方法がある。例えば、特許文献1には、モニタテレビと監視カメラを備え、テレビモニタの画面に侵入検知区域を表示する複数のセンサ点をマウスで設定し、設定されたセンサ点に接触する侵入物を検出する監視センサが開示されている。 Therefore, there is a method in which a digital camera is installed in the construction area and an image recognition technology is used to detect a ship approaching the construction area and issue an alarm. For example, Patent Document 1 includes a monitor TV and a surveillance camera, sets a plurality of sensor points for displaying an intrusion detection area on the screen of the TV monitor with a mouse, and detects an intruder in contact with the set sensor points. Surveillance sensors are disclosed.

特開2009−188964号公報Japanese Unexamined Patent Publication No. 2009-18896

しかし、特許文献1に記載の発明は、設定されたセンサ点に接触したことしか検出できず、船舶はセンサ点に接触したのみで工事区域には接近しない場合まで、警報を発することになる。又、従来の画像認識技術では、海水面での白波の発生や太陽光の照り返し等を排除することができない。 However, the invention described in Patent Document 1 can only detect that the ship has touched the set sensor point, and issues an alarm until the ship only touches the sensor point and does not approach the construction area. Further, with the conventional image recognition technology, it is not possible to eliminate the generation of white waves on the sea surface and the reflection of sunlight.

本発明は、上述の問題を解決するためになされたものであり、海上を航行する船舶が安全に航海できるように工事区域付近に接近する船舶に警報を発する装置を提案することを課題とする。 The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to propose a device for issuing an alarm to a ship approaching a construction area so that a ship sailing on the sea can sail safely. ..

上記目的を達成するため、本発明に係る警報装置は、工事区域に設置されたビデオカメラから海面を含む画像の画像信号を取得する画像取得部と、取得した画像信号からフレームごとに所定の画像水平方向を長辺とする矩形画像データを複数の監視領域画像データとして切り出す画像切出部と、監視領域画像データを所定の二値化閾値を用いて画像二値化データを生成する二値化データ処理部と、画像二値化データを所定の加算時間に亘って加算して短期サマリ画像データを生成する短期サマリ部と、各短期サマリ画像データの画像解析を順次行い、船舶候補に該当する画像領域を検出するとともに、船舶候補の画像トラッキングを行い記船舶候補が工事区域に向かっている船舶である可能性が高いか否かを判定する長期サマリ部と、船舶候補が工事区域に向かっている船舶である可能性が高いと判定されたとき、警報機に警報信号を出力する警報信号出力部と、を有することを特徴とする。 In order to achieve the above object, the alarm device according to the present invention includes an image acquisition unit that acquires an image signal of an image including the sea surface from a video camera installed in a construction area, and a predetermined image for each frame from the acquired image signal. An image cutout portion that cuts out rectangular image data having a long side in the horizontal direction as a plurality of monitoring area image data, and binarization that generates image binarization data using a predetermined binarization threshold for the monitoring area image data. A data processing unit, a short-term summary unit that generates short-term summary image data by adding image binarization data over a predetermined addition time, and an image analysis of each short-term summary image data are performed in sequence to correspond to a ship candidate. A long-term summary section that detects the image area and tracks the image of the ship candidate to determine whether or not the ship candidate is likely to be heading for the construction area, and the ship candidate heading for the construction area. It is characterized by having an alarm signal output unit that outputs an alarm signal to an alarm when it is determined that the ship is likely to be a ship.

更に、本発明に係る警報装置は、二値化データ処理部が、第1の時間に亘る複数の監視領域画像データの一部から背景画像データを生成する背景画像生成部と、背景画像データと複数の監視領域画像データの内第1の時間から第2の時間経過した所定の監視領域画像データとの背景差分をとり、二値化閾値を用いて画像二値化データを生成する背景差分二値化部と、を有することが好ましい。 Further, in the alarm device according to the present invention, the binarization data processing unit includes a background image generation unit that generates background image data from a part of a plurality of monitoring area image data over a first time, and a background image data. Background difference 2 that takes the background difference from the predetermined monitoring area image data after the first time to the second time of the plurality of monitoring area image data and generates the image binarization data using the binarization threshold. It is preferable to have a binarization unit.

更に、本発明に係る警報装置は、二値化データ処理部が、監視領域画像データに含まれるR、G、B色データの各平均値を計算する色相平均部と、監視領域画像データの各画素の色相値と色データの各平均値の差に関連する色差分画像データを生成し、色差分閾値を用いて色差分画像二値化データを生成する色差分二値化部と、を有することが好ましい。 Further, in the alarm device according to the present invention, the binarization data processing unit calculates the average value of each of the R, G, and B color data included in the monitoring area image data, and the hue averaging unit and each of the monitoring area image data. It has a color difference binarization unit that generates color difference image data related to the difference between the hue value of the pixel and each average value of the color data, and generates color difference image binarization data using the color difference threshold. Is preferable.

更に、本発明に係る警報装置は、海面を含む画像は海面と空又は海面と陸との境界を含む画像であり、監視領域画像データは境界を含む画像データであることが好ましい。 Further, in the alarm device according to the present invention, it is preferable that the image including the sea surface is an image including the boundary between the sea surface and the sky or the sea surface and the land, and the monitoring area image data is the image data including the boundary.

本発明に係る警報方法は、工事区域に設置されたビデオカメラから海面を含む画像の画像信号を取得することと、取得した画像信号からフレームごとに所定の画像水平方向を長辺とする矩形画像データを複数の監視領域画像データとして切り出すことと、監視領域画像データを所定の二値化閾値を用いて画像二値化データを生成することと、画像二値化データを所定の加算時間に亘って加算して短期サマリ画像データを生成することと、各短期サマリ画像データの画像解析を順次行い、船舶候補に該当する画像領域を検出するとともに、船舶候補の画像トラッキングを行い船舶候補が工事区域に向かっている船舶である可能性が高いか否かを判定することと、船舶候補が工事区域に向かっている船舶である可能性が高いと判定されたとき、警報機に警報信号を出力することと、を有することを特徴とする。 The alarm method according to the present invention is to acquire an image signal of an image including the sea surface from a video camera installed in a construction area, and to obtain a rectangular image having a predetermined image horizontal direction as a long side for each frame from the acquired image signal. The data is cut out as a plurality of monitoring area image data, the image binarization data is generated from the monitoring area image data using a predetermined binarization threshold, and the image binarization data is used for a predetermined addition time. The short-term summary image data is generated by adding the data, and the image analysis of each short-term summary image data is performed in sequence to detect the image area corresponding to the ship candidate, and the image tracking of the ship candidate is performed so that the ship candidate is in the construction area. It determines whether or not the ship is heading toward the construction area, and outputs an alarm signal to the alarm when it is determined that the ship candidate is likely to be heading to the construction area. It is characterized by having.

本発明に係る警報プログラムは、コンピュータを動作させるプログラムであって、工事区域に設置されたビデオカメラから海面を含む画像の画像信号を取得することと、取得した画像信号からフレームごとに所定の画像水平方向を長辺とする矩形画像データを複数の監視領域画像データとして切り出すことと、監視領域画像データを所定の二値化閾値を用いて画像二値化データを生成することと、画像二値化データを所定の加算時間に亘って加算して短期サマリ画像データを生成することと、各短期サマリ画像データの画像解析を順次行い、船舶候補に該当する画像領域を検出するとともに、船舶候補の画像トラッキングを行い船舶候補が工事区域に向かっている船舶である可能性が高いか否かを判定することと、船舶候補が工事区域に向かっている船舶である可能性が高いと判定されたとき、警報機に警報信号を出力することと、をコンピュータに実行させることを特徴とする。 The alarm program according to the present invention is a program for operating a computer, which acquires an image signal of an image including the sea surface from a video camera installed in a construction area, and a predetermined image for each frame from the acquired image signal. Cutting out rectangular image data having a long side in the horizontal direction as a plurality of monitoring area image data, generating image binarization data using the monitoring area image data using a predetermined binarization threshold, and image binar value. The short-term summary image data is generated by adding the conversion data over a predetermined addition time, and the image analysis of each short-term summary image data is sequentially performed to detect the image area corresponding to the ship candidate and the ship candidate. When it is determined by performing image tracking whether or not the ship candidate is likely to be a ship heading for the construction area, and when it is determined that the ship candidate is likely to be a ship heading for the construction area. It is characterized by outputting an alarm signal to an alarm device and causing a computer to execute the data.

本発明に係る警報装置によれば、海上を航行する船舶が安全に航海できるように工事区域付近に接近する船舶に警報を発することが可能となる。 According to the alarm device according to the present invention, it is possible to issue an alarm to a ship approaching the vicinity of the construction area so that the ship sailing on the sea can sail safely.

警報装置の一例の概要を説明する図である。It is a figure explaining the outline of an example of an alarm device. 警報装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block composition of an alarm device. 警報装置が行う処理フローの一例を示す図である。It is a figure which shows an example of the processing flow performed by an alarm device. 統計的な背景差分の一例を説明する図である。It is a figure explaining an example of statistical background subtraction. 背景画像データの生成から十分な時間が経過後に背景差分を取る効果を説明する図であり、(a)は前の画像を背景画像として、1フレーム後の画像を前景画像として背景差分を取り二値化した例を示す図であり、(b)は背景画像データの生成から十分な時間が経過後に背景差分を取り二値化した例を示す図である。It is a figure explaining the effect of taking background subtraction after a sufficient time elapses from the generation of background image data, and (a) takes background subtraction with the previous image as the background image and the image after one frame as the foreground image. It is a figure which shows the example which digitized, and (b) is the figure which shows the example which took the background subtraction and binarized after a lapse of sufficient time from the generation of the background image data. 長期サマリ処理の一例を示すフローチャートである。It is a flowchart which shows an example of a long-term summary processing. 警報装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block composition of an alarm device. 警報装置が行う処理フローの一例を示す図である。It is a figure which shows an example of the processing flow performed by an alarm device.

以下、本開示の一側面に係る警報装置、警報方法、及び警報プログラムについて、図を参照しつつ説明する。但し、本開示の技術的範囲はそれらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。尚、以下の説明及び図において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, the alarm device, the alarm method, and the alarm program according to one aspect of the present disclosure will be described with reference to the drawings. However, it should be noted that the technical scope of the present disclosure is not limited to those embodiments, but extends to the inventions described in the claims and their equivalents. In the following description and figures, components having the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

[第1実施形態に係る警報装置の概要]
図1は、第1実施形態に係る警報装置の一例の概要を説明する図である。
[Overview of the alarm device according to the first embodiment]
FIG. 1 is a diagram illustrating an outline of an example of an alarm device according to the first embodiment.

警報装置1は、港湾、沿岸等における工事区域内に設置され、同じく工事区域内に設置されるビデオカメラ2及び警報機3に接続されている。ビデオカメラ2は、工事区域の付近の海面を撮影する。ビデオカメラ2は、例えば、カラービデオカメラ、高解像度カラーカメラ、高速撮影ビデオカメラ、及び高解像度高速カラービデオカメラである。ビデオカメラ2が撮影した画像は、例えば、破線で示される画像4である。画像4は画像信号として警報装置1に送信される。画像信号に基づき、警報装置1が工事区域に接近する船舶の有無を判定するためである。 The alarm device 1 is installed in a construction area in a harbor, a coast, or the like, and is connected to a video camera 2 and an alarm 3 also installed in the construction area. The video camera 2 photographs the sea surface near the construction area. The video camera 2 is, for example, a color video camera, a high-resolution color camera, a high-speed shooting video camera, and a high-resolution high-speed color video camera. The image taken by the video camera 2 is, for example, the image 4 shown by the broken line. The image 4 is transmitted to the alarm device 1 as an image signal. This is because the alarm device 1 determines whether or not there is a ship approaching the construction area based on the image signal.

警報装置1が工事区域に接近する船舶が有ると判定すると警報信号を警報機3に出力する。警報機3は、警報装置1から制御され、警報信号を受信したとき、工事事区域に接近する船舶に警報を発する、例えば、パトライト(登録商標)、フラッシュ発光器、サイレン、スピーカである。警報装置1は、ビデオカメラ2からの画像信号に基づいて、工事区画に接近する船舶が有るか否かを判定して、船舶が有った場合には接近する船舶に警報機3を使用して工事区画が近いことを知らせる警報を発し、船舶の安全を図ることが可能となる。 When the alarm device 1 determines that there is a ship approaching the construction area, it outputs an alarm signal to the alarm device 3. The alarm device 3 is controlled by the alarm device 1 and, when receiving an alarm signal, issues an alarm to a ship approaching the construction area, for example, a patrol light (registered trademark), a flash light emitter, a siren, and a speaker. The alarm device 1 determines whether or not there is a ship approaching the construction section based on the image signal from the video camera 2, and if there is a ship, the alarm device 3 is used for the approaching ship. It is possible to ensure the safety of the ship by issuing an alarm notifying that the construction section is near.

ビデオカメラ2が撮影する画像4の範囲は、縦方向に関しては、水平線すなわち海面と空との境として見える境界線41から工事区域の境界までを含み、横方向に関し工事区域の左右端部を含むように設定されることが好ましい。海上を航行する船舶が工事区域から最も遠方に見えるのは水平線付近であり、水平線付近から工事区域までの海面を監視することができるからである。画像4の範囲は、横方向に関し工事区域の左右端部近傍を含むように設定されてもよい。したがって、ビデオカメラ2は広角カメラであることが好ましい。警報装置1は、ビデオカメラ2の撮影した画像に基づいて、工事区画に接近する船舶の判定を行う。 The range of the image 4 captured by the video camera 2 includes the horizon, that is, the boundary line 41 seen as the boundary between the sea surface and the sky in the vertical direction to the boundary of the construction area, and includes the left and right ends of the construction area in the horizontal direction. It is preferable that it is set as follows. Vessels sailing on the sea can be seen farthest from the construction area near the horizon, because the sea level from near the horizon to the construction area can be monitored. The range of the image 4 may be set to include the vicinity of the left and right ends of the construction area in the lateral direction. Therefore, the video camera 2 is preferably a wide-angle camera. The alarm device 1 determines a ship approaching the construction section based on the image taken by the video camera 2.

工事区域の遠方に陸地がある場合は、ビデオカメラ2が撮影する画像4の範囲は、縦方向に関しては、海面と陸地との境として見える境界線から工事区域の境界までを含み、工事区画の横方向に関し工事区域の左右端部を含むように設定されることが好ましい。海上を航行する船舶が最も遠方に見えるのは陸地の対岸付近であり、対岸付近から工事区域までの海面を監視することができるからである。 When there is land far away from the construction area, the range of image 4 taken by the video camera 2 includes the boundary line visible as the boundary between the sea surface and the land in the vertical direction to the boundary of the construction area, and the construction area. It is preferable to set so as to include the left and right ends of the construction area in the lateral direction. Vessels sailing on the sea can be seen farthest from the land near the opposite shore, because the sea level from the opposite shore to the construction area can be monitored.

ビデオカメラ2の撮影範囲の設定は、例えば警報装置1の操作者が警報装置1の表示画面(不図示)を確認して行う。例えば、天候によって、ビデオカメラ2の撮影画像から視認できる海面と空の境界線の位置が変化するからである。又、警報装置1がビデオカメラ2の画像から、例えば水平線、工事区域の境界を自動識別して、ビデオカメラ2の撮影範囲を制御してもよい。例えば、画像の水平方向の輝度が大きく変化する境を警報装置1が機別して水平線、工事区域の境界を設定することができる。 For example, the operator of the alarm device 1 confirms the display screen (not shown) of the alarm device 1 to set the shooting range of the video camera 2. For example, the position of the boundary line between the sea surface and the sky that can be visually recognized from the image captured by the video camera 2 changes depending on the weather. Further, the alarm device 1 may automatically identify, for example, the horizon and the boundary of the construction area from the image of the video camera 2 to control the shooting range of the video camera 2. For example, the alarm device 1 can set the horizon and the boundary of the construction area for each boundary where the brightness in the horizontal direction of the image changes significantly.

工事区画に接近する船舶の判定にあたっては、例えば、警報装置1がビデオカメラ2の撮影画像全領域に亘って分析して、工事区画に接近しているかを判別する方法がある。しかし、画像処理の負荷が大きく、警報装置1の処理速度が遅くなってしまう。 In determining a ship approaching the construction section, for example, there is a method in which the alarm device 1 analyzes the entire area of the captured image of the video camera 2 to determine whether the ship is approaching the construction section. However, the load of image processing is large, and the processing speed of the alarm device 1 becomes slow.

そこで、船舶が工事区画に接近しているかを監視する画像領域は小さいことが好ましい。例えば、警報装置1の操作者は、水平線すなわち海面と空との境として見える境界線41を第1接近線41として、第1接近線を含む矩形エリアを第1監視領域画像42に設定する。次に、警報装置1の操作者は、工事区域から2.0Km離れた海上に仮想の水平な第2接近線43を設け、第2接近線を含む矩形エリアを第2監視領域画像44に設定する。更に、警報装置1の操作者は工事区域から1Km離れた海上に仮想の水平な第3接近線45を設け、第3接近線を含む矩形エリアを第3監視領域画像46に設定する。警報装置1は、設定された各監視領域画像を記憶する。 Therefore, it is preferable that the image area for monitoring whether the ship is approaching the construction section is small. For example, the operator of the alarm device 1 sets the horizontal line, that is, the boundary line 41 seen as the boundary between the sea surface and the sky as the first approach line 41, and sets the rectangular area including the first approach line in the first monitoring area image 42. Next, the operator of the alarm device 1 provides a virtual horizontal second approach line 43 on the sea 2.0 km away from the construction area, and sets a rectangular area including the second approach line in the second monitoring area image 44. do. Further, the operator of the alarm device 1 provides a virtual horizontal third approach line 45 on the sea 1 km away from the construction area, and sets a rectangular area including the third approach line in the third monitoring area image 46. The alarm device 1 stores each set monitoring area image.

警報装置1は、各監視領域画像内に船舶画像が含まれているか否かを検出し、更に検出された船舶画像が工事区画に接近しているか否かを判定して、工事区域に船舶が接近している場合は、警報装置1は警報機3を動作させて警報を発する。画像処理の負荷が小さくなるので、警報装置1の処理速度は速くなる。本実施例では、仮想の接近線は、3本としたが、2本以下又は4本以上に設定してもよい。 The alarm device 1 detects whether or not the ship image is included in each monitoring area image, further determines whether or not the detected ship image is close to the construction section, and the ship is placed in the construction area. When they are approaching, the alarm device 1 operates the alarm device 3 to issue an alarm. Since the load of image processing is reduced, the processing speed of the alarm device 1 is increased. In this embodiment, the number of virtual approach lines is three, but it may be set to two or less or four or more.

又、港湾の海上には、航行中の船舶だけでなく、静的構造物、例えば、堤防、ケーソン、停泊中の船舶、ブイがある。更には静止自然物、例えば岩礁が露出していることがある。以下、静的構造物及び静止自然物を静止物という。例えば、図1の画像4内の第1監視領域画像42には、横方向に航行するコンテナ船51、工事区域に向かって航行するプレジャーボート52、浮標53、停泊中のクレーン船のアーム54にそれぞれ対応する画像が含まれている。更に、海面の波55や太陽の反射光56の画像が含まれる。警報装置1は、様々な対象を含む第1監視領域画像42に基づき、工事区画に接近する船舶が有るか否かを判定して、船舶が有った場合には接近する船舶に警報機3を使用して工事区画が近いこと知らせる警報信号を出力する処理を行う。 In addition, there are static structures such as embankments, caissons, berthed vessels, and buoys on the sea of the harbor as well as vessels in transit. In addition, stationary natural objects, such as reefs, may be exposed. Hereinafter, static structures and stationary natural objects will be referred to as stationary objects. For example, in the first monitoring area image 42 in the image 4 of FIG. 1, a container ship 51 navigating in the lateral direction, a pleasure boat 52 navigating toward the construction area, a buoy 53, and an arm 54 of an anchored crane vessel are shown. Each contains a corresponding image. Further included are images of waves 55 on the sea surface and reflected light 56 of the sun. The alarm device 1 determines whether or not there is a ship approaching the construction section based on the first monitoring area image 42 including various objects, and if there is a ship, the alarm device 3 warns the approaching ship. Is used to output an alarm signal indicating that the construction area is near.

[ビデオカメラについて]
ビデオカメラ2は、例えば、解像度が3840×2160ピクセル、1秒間に60フレームの画像を撮影可能である高解像度カラービデオカメラである。ビデオカメラ2が各画素(ピクセル)の座標は(x,y):1≦x≦3840、1≦y≦2160、で表現される。ビデオカメラ2からの画像データは画素ごとに、例えば、赤(R)の色データ:R(x,y)、緑(G)の色データ:G(x,y)、及び青(B)の色データ:B(x,y)の3つを有する。すべての画素について3つの色データを出力せず、画素1つおきに出力するカメラもあるが、説明を簡単にするため本実施例ではすべての画素について3つの色データが出力されるものとする。
[About video camera]
The video camera 2 is, for example, a high-resolution color video camera capable of capturing an image having a resolution of 3840 × 2160 pixels and 60 frames per second. The coordinates of each pixel of the video camera 2 are represented by (x, y): 1 ≦ x ≦ 3840, 1 ≦ y ≦ 2160. The image data from the video camera 2 is for each pixel, for example, red (R) color data: R (x, y), green (G) color data: G (x, y), and blue (B). It has three color data: B (x, y). Some cameras do not output three color data for all pixels and output every other pixel, but for the sake of simplicity, it is assumed that three color data are output for all pixels in this embodiment. ..

[警報装置のブロック構成]
図2は、第1実施形態に係る警報装置のブロック構成の一例を示す図である。
[Alarm device block configuration]
FIG. 2 is a diagram showing an example of a block configuration of the alarm device according to the first embodiment.

警報装置1は、表示部11、操作部12、及び制御部13を有し、各部はバスラインで接続されている。表示部11は、例えばディスプレイ装置である。操作部12は、例えば、キーボード、マウスである。表示部11と操作部12は、例えば、タッチパネルディスプレイ装置のように一体となっていてもよい。更に、警報装置1には、ビデオカメラ2及び警報機3がインターフェース14を介して接続されている。 The alarm device 1 has a display unit 11, an operation unit 12, and a control unit 13, and each unit is connected by a bus line. The display unit 11 is, for example, a display device. The operation unit 12 is, for example, a keyboard and a mouse. The display unit 11 and the operation unit 12 may be integrated, for example, as in a touch panel display device. Further, the video camera 2 and the alarm device 3 are connected to the alarm device 1 via the interface 14.

制御部13は、制御記憶部131と制御処理部132とを有する。制御記憶部131は、1つ又は複数の半導体メモリにより構成される。例えば、RAMや、フラッシュメモリ、EPROM、EEPROM等の不揮発性メモリの少なくとも一つを有する。制御記憶部131は、制御処理部132による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。 The control unit 13 has a control storage unit 131 and a control processing unit 132. The control storage unit 131 is composed of one or a plurality of semiconductor memories. For example, it has at least one of RAM, flash memory, EPROM, EEPROM, and other non-volatile memories. The control storage unit 131 stores driver programs, operating system programs, application programs, data, and the like used for processing by the control processing unit 132.

制御記憶部131は、ドライバプログラムとして、ビデオカメラ2、警報機3、表示部11、操作部12等を制御するデバイスドライバプログラムを記憶する。コンピュータプログラムは、例えば、CD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて制御記憶部131にインストールされてもよい。また、プログラムサーバ等からダウンロードしてインストールしてもよい。 The control storage unit 131 stores as a driver program a device driver program that controls the video camera 2, the alarm device 3, the display unit 11, the operation unit 12, and the like. The computer program may be installed in the control storage unit 131 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like. Alternatively, it may be downloaded from a program server or the like and installed.

更に、制御記憶部131は、所定の処理に係る一時的なデータを一時的に記憶してもよい。制御記憶部131は、監視領域設定ファイル1311、差分時間設定ファイル1312、二値化閾値設定ファイル1313、加算時間ファイル1314、クラスタ判定ファイル1315、トラッキング判定ファイル1316、及びその他の処理パラメータファイル1317等を記憶する。 Further, the control storage unit 131 may temporarily store temporary data related to a predetermined process. The control storage unit 131 stores the monitoring area setting file 1311, the difference time setting file 1312, the binarization threshold setting file 1313, the addition time file 1314, the cluster determination file 1315, the tracking determination file 1316, and other processing parameter files 1317. Remember.

制御処理部132は、一又は複数個のプロセッサ及びその周辺回路を有する。制御処理部132は、警報装置1の動作を統括的に制御するものであり、例えば、MPU(Micro Processor Unit)等のプロセッサである。制御処理部132は複数のMPUにより構成されていてもよい。 The control processing unit 132 includes one or more processors and peripheral circuits thereof. The control processing unit 132 comprehensively controls the operation of the alarm device 1, and is, for example, a processor such as an MPU (Micro Processor Unit). The control processing unit 132 may be composed of a plurality of MPUs.

制御処理部132は、制御記憶部131に記憶されているプログラム(オペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、制御処理部132は、複数のプログラム(アプリケーションプログラム等)を並列に実行してもよい。制御処理部132は、画像取得部1321、画像切出部1322、二値化データ処理部等1323、背景画像生成部1324、背景差分二値化部1325、短期サマリ部1326、長期サマリ部1327等を有する。 The control processing unit 132 executes processing based on a program (operating system program, driver program, application program, etc.) stored in the control storage unit 131. Further, the control processing unit 132 may execute a plurality of programs (application programs and the like) in parallel. The control processing unit 132 includes an image acquisition unit 1321, an image cutting unit 1322, a binarized data processing unit, etc. 1323, a background image generation unit 1324, a background difference binarization unit 1325, a short-term summary unit 1326, a long-term summary unit 1327, etc. Has.

制御処理部132が有するこれらの各部は、独立した集積回路、回路モジュール、マイクロプロセッサ、又はファームウェアとして警報装置1に実装されてもよい。 Each of these units included in the control processing unit 132 may be mounted on the alarm device 1 as an independent integrated circuit, circuit module, microprocessor, or firmware.

[第1実施形態に係る警報装置が行う処理フローの概略]
図3は、第1実施形態に係る警報装置が行う処理フローの一例を示す図である。
[Outline of processing flow performed by the alarm device according to the first embodiment]
FIG. 3 is a diagram showing an example of a processing flow performed by the alarm device according to the first embodiment.

警報装置1の画像取得部1321は、ビデオカメラ2が撮影した監視海面を含む画像の画像信号を取得する(ST301)。画像切出部1322は、取得した画像信号から画像データを生成し、工事区画に接近する船舶を検出するため、設定された監視領域画像データを切り出す(ST302)。 The image acquisition unit 1321 of the alarm device 1 acquires an image signal of an image including the monitored sea surface taken by the video camera 2 (ST301). The image cutting unit 1322 generates image data from the acquired image signal, and cuts out the set monitoring area image data in order to detect a ship approaching the construction section (ST302).

背景画像生成部1324は、監視領域画像データに含まれる3つの色データについて第1の時間に対応するフレーム、例えばn=1〜5の5フレームに対応する3つの色データについて統計的処理を行い、背景画像データを生成する(ST303)。統計的処理は、例えば5フレームの3つの色データごとに加算してそれぞれを5で除した平均値を取り背景画像データとする処理である。画素(x,y)の背景画像データは色データごとの平均値を成分とするベクトルデータである。 The background image generation unit 1324 performs statistical processing on the three color data included in the monitoring area image data for the frames corresponding to the first time, for example, the three color data corresponding to the five frames of n = 1 to 5. , Generate background image data (ST303). The statistical processing is, for example, a processing of adding each of three color data of 5 frames and dividing each by 5 to obtain an average value as background image data. The background image data of the pixels (x, y) is vector data whose component is the average value of each color data.

背景差分二値化部1325は、第1の時間経過後から第2時間が経過した監視領域画像データを前景画像データとして、各色の背景画像データとの背景差分を取る(ST304)。背景差分二値化部1325は、各画素の各色の背景差分データをそれぞれの色の二値化閾値と比較し各画素の背景差分データが3つの色RGBすべてについて二値化閾値以上のとき1、それ以外のとき0として、背景差分画像二値化データを生成する(ST305)。背景差分画像二値化データは海面上の静止物に関連する画像ノイズが除去されたデータとなる。 The background subtraction binarization unit 1325 uses the monitoring area image data for which the second time has passed since the first time has elapsed as the foreground image data, and takes the background difference from the background image data of each color (ST304). The background difference binarization unit 1325 compares the background difference data of each color of each pixel with the binarization threshold of each color, and when the background difference data of each pixel is equal to or more than the binarization threshold for all three color RGB 1 , In other cases, it is set to 0 to generate background difference image binarization data (ST305). The background subtraction image binarization data is data in which image noise related to a stationary object on the sea surface is removed.

背景差分画像二値化データの作成は、逐次行われ、二値化データ処理部1323により警報装置1の制御記憶部131に記憶される(ST306)。すなわち、第1の時間経過後から第2の時間経過した後は、各フレームに対応した背景差分画像二値化データが生成され、記憶される。 The background subtraction image binarization data is sequentially created and stored in the control storage unit 131 of the alarm device 1 by the binarization data processing unit 1323 (ST306). That is, after the lapse of the first time and after the lapse of the second time, the background subtraction image binarization data corresponding to each frame is generated and stored.

短期サマリ部1326は、第3の時間に亘って背景差分画像二値化データを加算して、短期サマリ画像データを作成する短期サマリ処理を行う(ST307)。短期サマリ画像データは、海面上に一時的に表れたノイズ、例えば、波、海面の光の反射、静止物の微小な揺れが除去される。 The short-term summary unit 1326 performs a short-term summary process for creating short-term summary image data by adding background subtraction image binarization data over a third time (ST307). The short-term summary image data removes noise that temporarily appears on the surface of the sea, such as waves, reflections of light on the surface of the sea, and minute shaking of stationary objects.

長期サマリ部1327は、短期サマリ画像データの画像解析を順次行い、船舶候補に該当する画像領域を検出する。更に、船舶候補の画像トラッキングを行い船舶候補が工事区域に向かっている船舶であることを判定する長期サマリ処理を行う(ST308)。 The long-term summary unit 1327 sequentially performs image analysis of the short-term summary image data and detects an image region corresponding to the ship candidate. Further, image tracking of the ship candidate is performed, and a long-term summarization process for determining that the ship candidate is a ship heading for the construction area is performed (ST308).

警報信号出力部1328は、長期サマリ処理によって、船舶候補が工事区域に向かっている船舶であると判定されたとき、警報機3に警報信号を出力する(ST309)。警報機3、例えばパトライト(登録商標)は警報のための光を点滅させる。 The alarm signal output unit 1328 outputs an alarm signal to the alarm 3 when it is determined by the long-term summarization process that the ship candidate is a ship heading for the construction area (ST309). The alarm 3, for example Patrite®, flashes an alarm light.

[背景差分について]
背景差分は、撮影画像と事前に取得しておいた画像を比較することで、事前に取得した画像には存在しない物体を抽出する処理を可能にする。事前に取得した画像を背景画像と呼び、背景画像と比較する撮影画像を前景画像と呼ぶ。前の画像を背景画像として、1フレーム後の画像を前景画像として背景差分を取る単純な背景差分方法は、両フレームに存在する静止物に関する画像は消滅するが、検出したい移動体、例えば船舶に関する画像の一部も消えてしまう。また、海上の日照変動の発生や、カメラの移動、静止物が消失したときは適切な背景差分が得られない。本実施形態では、複数の画像を統計的に処理して背景画像を生成する。
[About background subtraction]
The background subtraction enables a process of extracting an object that does not exist in the image acquired in advance by comparing the captured image with the image acquired in advance. The image acquired in advance is called a background image, and the captured image to be compared with the background image is called a foreground image. In the simple background subtraction method in which the previous image is used as the background image and the image after one frame is used as the foreground image, the images related to the stationary objects existing in both frames disappear, but the moving object to be detected, for example, a ship, is used. Part of the image also disappears. In addition, when sunshine fluctuations occur on the sea, the camera moves, or stationary objects disappear, appropriate background subtraction cannot be obtained. In the present embodiment, a plurality of images are statistically processed to generate a background image.

図4は、第1実施形態における統計的な背景差分の一例を説明する図である。 FIG. 4 is a diagram illustrating an example of statistical background subtraction in the first embodiment.

警報装置1の背景画像生成部1324は、第1の時間分のフレーム、例えばn=1〜5の5フレームに対応する監視領域画像データの系列M1、M2、M3,M4、M5について統計的処理を行い、背景画像データMS1を生成する。統計的処理は、例えば3つの色データごとに5フレームのデータ値の和を取りフレーム数の5で除した平均値を背景画像データMS1とする処理である。画素座標(x,y)に対す背景画像データMS1は、赤の色データの平均値RB1(x,y),緑の色データの平均値GB1(x,y),青の色データの平均値BB1(x,y)とすると、ベクトル[RB1(x,y),GB1(x,y),BB1(x,y)]で表される。例えば、赤の色データの平均値RB1(x,y)は、

Figure 0006915812
と表わされる。統計的処理を行うことにより、静止物の揺らぎが少ない安定した背景画像データが得られる。又、日照変動による画像内の微小な輝度変化に対応することができる。 The background image generation unit 1324 of the alarm device 1 statistically processes the series M1, M2, M3, M4, and M5 of the monitoring area image data corresponding to the frames for the first time, for example, 5 frames of n = 1 to 5. To generate background image data MS1. The statistical processing is, for example, a processing in which the sum of the data values of 5 frames for each of the 3 color data is taken and the average value obtained by dividing by 5 of the number of frames is used as the background image data MS1. Background image data MS1 to against the pixel coordinates (x, y) is the average value of the red color data R B1 (x, y), the average value G B1 green color data (x, y), the blue color data Assuming that the average value is B B1 (x, y), it is represented by a vector [ RB1 (x, y), GB1 (x, y), BB1 (x, y)]. For example, the average value R B1 (x, y) of the red color data is
Figure 0006915812
It is expressed as. By performing statistical processing, stable background image data with little fluctuation of stationary objects can be obtained. In addition, it is possible to deal with minute changes in brightness in the image due to fluctuations in sunshine.

背景差分二値化部1325は、背景画像テータ作成に使用したフレーム数に対応する第1の時間経過後、第2の時間が経過したときの監視領域画像データP1に含まれる3つの色データのベクトル[RP1(x,y),GP1(x,y),BP1(x,y)]を前景画像データとして、背景画像データMS1と前景画像データPとのベクトル差分を取る。第2の時間は第1の時間よりも十分長いことが好ましい。例えば、ビデオカメラ2のフレームレートが60fpsのとき、第1の時間が5フレーム分の時間とすると、第2の時間は2分程度であることが好ましい。第2の時間を第1の時間よりも十分長くすることで、船舶に関連する画像データが消滅しないようにすることができる。 The background subtraction binarization unit 1325 describes the three color data included in the monitoring area image data P1 when the second time elapses after the first time elapses corresponding to the number of frames used to create the background image data. Using the vector [ RP1 (x, y), GP1 (x, y), BP1 (x, y)] as the foreground image data, the vector difference between the background image data MS1 and the foreground image data P is taken. The second time is preferably sufficiently longer than the first time. For example, when the frame rate of the video camera 2 is 60 fps and the first time is 5 frames, the second time is preferably about 2 minutes. By making the second time sufficiently longer than the first time, it is possible to prevent the image data related to the ship from disappearing.

第1の時間1/12秒経過後、第2の時間2分であるのときの前景画像テータP1の画素座標(x,y)に対応する赤の色データはRP1(x,y;(1/12)+120)と表わされる。差分画像データD1の画素座標(x、y)の赤の色データは、RD1(x,y)=RP1(x,y;(1/12)+120)−RB1(x,y)と表わされる。緑の色データは、GD1(x,y)=GP1(x,y;(1/12)+120)−G(x,y)と表わされる。青の色データは、BD1(x,y)=BP1(x,y;(1/12)+120)−B(x,y)と表わされる。時間経過とともに、差分画像データD1、D2、D3、・・・が逐次作成される。背景差分二値化部1325は、差分画像データD1、D2、D3、・・・を制御記憶部131に記憶する。 After the lapse of the first time 1/12 second, the red color data corresponding to the pixel coordinates (x, y) of the foreground image data P1 at the time of the second time 2 minutes is R P1 (x, y; (. It is expressed as 1/12) +120). Pixel coordinates (x, y) of the difference image data D1 red color data of, R D1 (x, y) = R P1 (x, y; (1/12) +120) -R B1 (x, y) and Represented. Green color data, G D1 (x, y) = G P1 (x, y; (1/12) +120) represented -G B (x, y) and. Color data of blue, B D1 (x, y) = B P1 (x, y; (1/12) +120) -B B (x, y) is expressed as. With the passage of time, the difference image data D1, D2, D3, ... Are sequentially created. The background subtraction binarization unit 1325 stores the difference image data D1, D2, D3, ... In the control storage unit 131.

背景差分二値化部1325は、3つの二値化閾値DTH、DTH、DTHを使用して、差分画像データD1、D2、D3、・・・を背景差分画像二値化データDB1、DB2、DB3、・・・に変換する。DTHは赤の二値化閾値、DTHは緑の二値化閾値、DTHは青の二値化閾値である。例えば、気象、時間帯に応じて、3つの二値化閾値DTH、DTH、DTHを調整することにより、船舶の検出精度が高くなる可能性がある。 The background difference binarization unit 1325 uses the three binarization thresholds DTH R , DTH G , and DTH B to convert the difference image data D1, D2, D3, ... Convert to DB2, DB3, .... DTH R is the red binarization threshold, DTH G is the green binarization threshold, and DTH B is the blue binarization threshold. For example, by adjusting the three binarization thresholds DTH R , DTH G , and DTH B according to the weather and the time zone, the detection accuracy of the ship may be improved.

例えば、画素座標(x,y)における差分画像データD1が[RD1(x,y),GD1(x,y),BD1(x,y)]であるとすると、二値化データの値FDB1(x,y)は、
D1(x,y)≧DTH、且つ、GD1(x,y)≧DTH、且つ、BD1(x,y)≧DTHのとき、FDB1(x,y)=1
D1(x,y)<DTH、又は、GD1(x,y)<DTH、又は、BD1(x,y)<DTHのとき、FDB1(x,y)=0
である。二値化することにより計算量が少なくなるので、警報装置1の処理速度が速くなり、処理アルゴリズムも簡単になる。本例では、FDB1(x、y)が取り得る値を0と1としたが、例えば0と255の組み合わせでもよい。
For example, if the difference image data D1 at the pixel coordinates (x, y) is [ RD1 (x, y), G D1 (x, y), BD1 (x, y)], the binarized data The value F DB1 (x, y) is
R D1 (x, y) ≧ DTH R, and, G D1 (x, y) ≧ DTH G, and, B D1 (x, y) when ≧ DTH B, F DB1 (x , y) = 1
R D1 (x, y) < DTH R, or, G D1 (x, y) <DTH G, or, B D1 (x, y) < When DTH B, F DB1 (x, y) = 0
Is. Since the amount of calculation is reduced by binarizing, the processing speed of the alarm device 1 is increased, and the processing algorithm is also simplified. In this example, the values that F DB1 (x, y) can take are 0 and 1, but a combination of 0 and 255 may be used, for example.

別の例として、背景差分二値化は、各色データの差分和を取り1つの閾値DTHとの比較をしてもよい。例えば、画素座標(x,y)における差分画像データD1が[RD1(x,y),GD1(x,y),BD1(x,y)]であるとすると、二値化データの値FDB1(x,y)は、
|RD1(x,y)|+|GD1(x,y)|+|BD1(x,y)|≧DTHのとき、
DB1(x,y)=1
|RD1(x,y)|+|GD1(x,y)|+|BD1(x,y)|<DTHのとき、
DB1(x,y)=0
である。
As another example, in background subtraction binarization, the sum of the differences of each color data may be taken and compared with one threshold value DTH. For example, if the difference image data D1 at the pixel coordinates (x, y) is [ RD1 (x, y), G D1 (x, y), BD1 (x, y)], the binarized data The value F DB1 (x, y) is
| R D1 (x, y) | + | G D1 (x, y) | + | BD1 (x, y) |
F DB1 (x, y) = 1
| R D1 (x, y) | + | G D1 (x, y) | + | BD1 (x, y) |
F DB1 (x, y) = 0
Is.

図5は、背景画像データの生成から十分な時間が経過後に背景差分を取る効果を説明する図であり、(a)は前の画像を背景画像として、1フレーム後の画像を前景画像として背景差分を取り二値化した例を示す図であり、(b)は背景画像データの生成から十分な時間が経過後に背景差分を取り二値化した例を示す図である。 FIG. 5 is a diagram for explaining the effect of taking background subtraction after a sufficient time has elapsed from the generation of background image data, and FIG. 5A shows the background image with the previous image as the background image and the image after one frame as the foreground image. It is a figure which shows the example which took subtraction and binarized, and (b) is the figure which shows the example which took the background subtraction and binarized after a sufficient time has elapsed from the generation of background image data.

背景画像の工事区域に接近する船舶が水平線上にあるときの位置と,1フレーム後、すなわち1/12秒後の前景画像の船舶の位置は、ビデオカメラ2の位置から水平線までの距離が大きく、船舶の移動距離が少ないことからほとんど同じである。二値化データでは、背景画像の船舶と前景画像の船舶の画像とが重なってしまい、船舶画像はほとんど認識されない。(b)の背景画像データの生成から十分な時間が経過後、例えば2分後に背景差分を取り二値化したでは、2分の間に船舶200メートルほどビデオカメラの方向に接近するので、船舶画像が認識される。 The distance from the position of the video camera 2 to the horizon is large between the position when the ship approaching the construction area in the background image is on the horizon and the position of the ship in the foreground image one frame later, that is, 1/12 second later. , It is almost the same because the moving distance of the ship is short. In the binarized data, the image of the ship in the background image and the image of the ship in the foreground image overlap, and the ship image is hardly recognized. If sufficient time elapses from the generation of the background image data in (b), for example, 2 minutes later, the background subtraction is taken and binarized, the ship approaches the direction of the video camera by about 200 meters in 2 minutes. The image is recognized.

[背景差分処理の変形例]
実施例では、背景差分処理は、監視領域画像データに含まれる3つの色データに対応したベクトルとして処理したが、ベクトル量をスカラー量に変換して処理してもよい。
[Modification example of background subtraction processing]
In the embodiment, the background subtraction processing is performed as a vector corresponding to the three color data included in the monitoring area image data, but the vector amount may be converted into a scalar amount and processed.

1つの例として、背景差分処理には、画素(x,y)ごとの輝度データY(x,y)を使用してもよい。輝度データY(x,y)は、RGB色データから変換することができ、
Y(x,y)=kR(x,y)+(1−k−k)G(x,y)+kB(x,y)
である。k、kは変換係数であり、例えば、ITU−R B.709方式では、(k,k)=(0.2126,0.0722),ITU−R B.601方式では、(k,k)=(0.299,0.114)である。例えば、輝度(Y)データ、色差(U,V)データを直接出力するビデオカメラであれば、変換は不要である。
As one example, the luminance data Y (x, y) for each pixel (x, y) may be used for background subtraction processing. Luminance data Y (x, y) can be converted from RGB color data,
Y (x, y) = k R R (x, y) + (1-k R −k B ) G (x, y) + k B B (x, y)
Is. k R and k B are conversion coefficients, for example, ITU-RB. In the 709 method, (k R , k B ) = (0.2126, 0.0722), ITU-RB. In the 601 method, (k R , k B ) = (0.299, 0.114). For example, in the case of a video camera that directly outputs luminance (Y) data and color difference (U, V) data, conversion is not necessary.

輝度データYを使用した背景差分処理を説明する。警報装置1の背景画像生成部1324は、第1の時間分のフレーム、例えばn=1〜5の5フレームに対応する監視領域画像データの系列M1、M2、M3,M4、M5についての輝度データYに統計的処理を行い、背景画像データを生成する。統計的処理は、画素座標(x,y)について5フレームの輝度データの和を取りフレーム数の5で除した平均値を背景画像データMS1の画素座標(x,y)についての輝度データとする処理である。画素座標(x,y)に対す背景画像データの輝度YB1は、

Figure 0006915812
と表わされる。統計的処理を行うことにより、静止物の揺らぎが少ない安定した背景画像データが得られる。又、日照変動による画像内の微小な輝度変化に対応することができる。 The background subtraction processing using the luminance data Y will be described. The background image generation unit 1324 of the alarm device 1 determines the brightness data for the series M1, M2, M3, M4, and M5 of the monitoring area image data corresponding to the frames for the first time, for example, 5 frames of n = 1 to 5. Statistical processing is performed on Y to generate background image data. In the statistical processing, the sum of the luminance data of 5 frames for the pixel coordinates (x, y) is taken and the average value divided by 5 of the number of frames is used as the luminance data for the pixel coordinates (x, y) of the background image data MS1. It is a process. The brightness Y B1 of the background image data with respect to the pixel coordinates (x, y) is
Figure 0006915812
It is expressed as. By performing statistical processing, stable background image data with little fluctuation of stationary objects can be obtained. In addition, it is possible to deal with minute changes in brightness in the image due to fluctuations in sunshine.

背景差分二値化部1325は、背景画像テータ作成に使用したフレーム数に対応する第1の時間経過後、第2の時間が経過したときの監視領域画像データに含まれる輝度データP1を前景画像データとして、背景画像データMS1と前景画像データP1との差分を取る。第2の時間は第1の時間よりも十分長いことが好ましい。例えば、ビデオカメラ2のフレームレートが60fpsのとき、第1の時間が5フレーム分の時間とすると、第2の時間は2分程度であることが好ましい。第2の時間を第1の時間よりも十分長くすることで、船舶に関連する画像データが消滅しないようにすることができる。 The background subtraction binarization unit 1325 uses the brightness data P1 included in the monitoring area image data when the second time elapses after the first time elapses corresponding to the number of frames used to create the background image data as the foreground image. As the data, the difference between the background image data MS1 and the foreground image data P1 is taken. The second time is preferably sufficiently longer than the first time. For example, when the frame rate of the video camera 2 is 60 fps and the first time is 5 frames, the second time is preferably about 2 minutes. By making the second time sufficiently longer than the first time, it is possible to prevent the image data related to the ship from disappearing.

第1の時間1/12秒経過後、第2の時間2分であるのときの前景画像テータP1の画素座標(x,y)に対応する輝度はYP1(x,y;(1/12)+120)と表わされる。差分画像データD1の画素座標(x、y)の輝度YD1は、YD1(x,y)=YP1(x,y;(1/12)+120)−YB1(x,y)と表わされる。時間経過とともに、差分画像データD1、D2、D3、・・・が逐次作成される。背景差分二値化部1325は、差分画像データD1、D2、D3、・・・を制御記憶部131に記憶する。 After the lapse of the first time 1/12 second, the brightness corresponding to the pixel coordinates (x, y) of the foreground image data P1 at the time of the second time 2 minutes is Y P1 (x, y; (1/12). ) + 120). Luminance Y D1 of the pixel coordinates (x, y) of the difference image data D1 is, Y D1 (x, y) = Y P1 (x, y; (1/12) +120) represented -Y B1 (x, y) and Is done. With the passage of time, the difference image data D1, D2, D3, ... Are sequentially created. The background subtraction binarization unit 1325 stores the difference image data D1, D2, D3, ... In the control storage unit 131.

背景差分二値化部1325は、二値化閾値YTHを使用して差分画像データD1、D2、D3、・・・を背景差分画像二値化データDB1、DB2、DB3、・・・に変換する。例えば、差分画像データD1の画素座標(x,y)の輝度YD1(x,y)であるとすると、二値化データの値YD1B(x,y)は、
D1(x,y)≧YTHのとき、YD1B(x,y)=1
D1(x,y)<YTHのとき、YD1B(x,y)=0
である。
The background difference binarization unit 1325 converts the difference image data D1, D2, D3, ... To the background difference image binarization data DB1, DB2, DB3, ... Using the binarization threshold YTH. .. For example, assuming that the brightness Y D1 (x, y) of the pixel coordinates (x, y) of the difference image data D1, the value Y D1B (x, y) of the binarized data is
When Y D1 (x, y) ≥ YTH, Y D1B (x, y) = 1
When Y D1 (x, y) <YTH, Y D1B (x, y) = 0
Is.

別の例として、背景差分処理には、画素(x,y)ごとの3つの色データの和の関数
C(x,y)=R(x,y)+G(x,y)+B(x,y)
を使用を使用してもよい。演算処理を簡略化できる。
As another example, for background subtraction processing, a function C (x, y) = R (x, y) + G (x, y) + B (x,) of the sum of three color data for each pixel (x, y). y)
May be used. Arithmetic processing can be simplified.

別の例として、重み付け係数W、W、Wを有する3つの色データの和の関数
(x,y)=W×R(x,y)+W×G(x,y)+W×B(x,y)
を使用してもよい。例えば、海面の色は青(B)系が主色であるとすると、青の重み付け係数Wを、他の重み付け係数W、Wより小さくすれば、青(B)以外の色を主に有する物体が強調されることになる。
As another example, weighting factor W R, W G, the function C W (x, y) of the sum of the three color data having a W B = W R × R ( x, y) + W G × G (x, y ) + W B × B (x , y)
May be used. For example, the color of the sea blue (B) system is to be the main color, the weighting coefficient W B of blue, the other weighting coefficients W R, if less than W G, colors other than blue (B) primary The object held in is emphasized.

[短期サマリ処理について]
短期サマリ部1326は、第3の時間に亘って背景差分画像二値化データDB1、DB2、DB3、・・・を加算して、短期サマリ画像データSS1、SS2.SS3・・・を作成する短期サマリ処理を行う。短期サマリ処理によって、短期サマリ画像データは、海面上に一時的に表れたノイズ、例えば、波、海面の光の揺らぎ、静止物の微小な揺れが除去される。第3の時間は、ノイズ除去の効果が大きくなるように、波の発生周期、海面の上下動周期に合わせて適宜変更することが好ましい。例えば第3の時間は、1秒以上30秒以下が好ましい。短期サマリデータの画素座標(x,y)に対応するデータ値は、0又は1に限られず、0又は0以上の正数であることに留意されたい。
[About short-term summary processing]
The short-term summary unit 1326 adds background subtraction image binarization data DB1, DB2, DB3, ... Over a third time, and short-term summary image data SS1, SS2. Perform short-term summary processing to create SS3 ... By the short-term summarization process, the short-term summarization image data is removed from noises temporarily appearing on the sea surface, such as waves, fluctuations of light on the sea surface, and minute fluctuations of stationary objects. It is preferable that the third time is appropriately changed according to the wave generation cycle and the vertical movement cycle of the sea surface so that the effect of noise removal becomes large. For example, the third time is preferably 1 second or more and 30 seconds or less. It should be noted that the data value corresponding to the pixel coordinates (x, y) of the short-term summary data is not limited to 0 or 1, but is a positive number of 0 or 0 or more.

[長期サマリ処理について]
背景差分処理と短期サマリ処理により、静止物、振動する静止物、及び海面上に一時的に表れたノイズは除去され、短期サマリ画像データSS1、SS2.SS3・・・は、移動する物体に関する画像を含む画像データとなっている。長期サマリ部1327は、各短期サマリ画像データSS1、SS2.SS3・・・の画像解析を順次行い、船舶候補に該当する画像領域を検出するとともに、船舶候補の画像トラッキングを行い船舶候補が工事区域に向かっている船舶であることを判定する。
[Long-term summary processing]
By background subtraction processing and short-term summarization processing, stationary objects, vibrating stationary objects, and noise temporarily appearing on the sea surface are removed, and short-term summarization image data SS1, SS2. SS3 ... Is image data including an image relating to a moving object. The long-term summary unit 1327 has the short-term summary image data SS1, SS2. Image analysis of SS3 ... Is performed sequentially to detect an image area corresponding to the ship candidate, and image tracking of the ship candidate is performed to determine that the ship candidate is a ship heading for the construction area.

図6は、長期サマリ処理の一例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of long-term summarization processing.

長期サマリ部1327は、トラッキングカウンタTRCを0にセットする(ST601).短期サマリ画像データSS1を読み込み、クラスタ分析を行う(ST602)。長期サマリ部1327は、船舶候補に該当する画像に対するクラスタ領域を有するか否かを検出する(ST603)。船舶候補に該当する画像に対するクラスタ領域を検出する条件は、例えば領域内の画素座標(x、y)における短期サマリ画像データの値FSS(x、y)は所定の判定閾値Fth以上であり、且つ領域の面積Sが所定の面積Sth以上であることである。船舶候補に該当する画像に対するクラスタ領域が検出されない場合(ST603:NO)、処理はステップST601に戻る。 The long-term summary unit 1327 sets the tracking counter TRC to 0 (ST601). The short-term summary image data SS1 is read and cluster analysis is performed (ST602). The long-term summary unit 1327 detects whether or not it has a cluster area for an image corresponding to a ship candidate (ST603). Conditions for detecting the cluster area for an image corresponding to the ship candidate value F SS (x, y) of the short summary image data in, for example, pixels in the region coordinates (x, y) is a predetermined determination threshold Fth or more, Moreover, the area S of the region is equal to or larger than the predetermined area Sth. If the cluster area for the image corresponding to the ship candidate is not detected (ST603: NO), the process returns to step ST601.

船舶候補に該当する画像に対するクラスタ領域が検出された場合(ST603:YES)、長期サマリ部1327は、クラスタ領域の中心座標O(x、y)、及び領域の最下端Y座標を計算し、制御記憶部131に記憶する(ST604)。長期サマリ部1327は、トラッキングカウンタTRCに1を加算する(ST605)。長期サマリ部1327は、トラッキングカウンタTRCの値が1を超えるか否かを判定する(ST606)。 When the cluster area for the image corresponding to the ship candidate is detected (ST603: YES), the long-term summary unit 1327 calculates and controls the center coordinates O (x, y) of the cluster area and the lowermost Y coordinate of the area. It is stored in the storage unit 131 (ST604). The long-term summarization unit 1327 adds 1 to the tracking counter TRC (ST605). The long-term summary unit 1327 determines whether or not the value of the tracking counter TRC exceeds 1 (ST606).

長期サマリ部1327は、トラッキングカウンタTRCの値が1である場合(ST606:NO)、長期サマリ部1327は、次の短期サマリ画像データについてステップST602〜ST606を繰り返す。トラッキングカウンタTRCの値が1を超える場合(ST606:YES)、時系列的に連続する短期サマリ画像データの両方に船舶候補に該当する画像に対するクラスタ領域が検出されたことになる。 When the value of the tracking counter TRC is 1 (ST606: NO), the long-term summary unit 1327 repeats steps ST602 to ST606 for the next short-term summary image data. When the value of the tracking counter TRC exceeds 1 (ST606: YES), it means that the cluster area for the image corresponding to the ship candidate is detected in both the short-term summary image data that are continuous in time series.

トラッキングカウンタTRCの値が1を超える場合(ST606:YES)、長期サマリ部1327は、検出された船舶候補は工事区域に向かっている船舶である可能性が高いか否かを判定する(ST607)。長期サマリ部1327は、前後の短期サマリ画像データを比較する。例えば、クラスタ領域の中心座標O(x、y)が画像の下方に移動し、面積Sが増加し、且つ、領域の最下端Y座標は下がっている場合、検出された船舶候補は工事区域に向かっている船舶である可能性が高いと判定される。 When the value of the tracking counter TRC exceeds 1 (ST606: YES), the long-term summary unit 1327 determines whether or not the detected vessel candidate is likely to be a vessel heading for the construction area (ST607). .. The long-term summary unit 1327 compares the short-term summary image data before and after. For example, when the center coordinates O (x, y) of the cluster area move to the lower part of the image, the area S increases, and the lowermost Y coordinate of the area decreases, the detected ship candidate is in the construction area. It is determined that the vessel is likely to be heading.

検出された船舶候補は工事区域に向かっている船舶である可能性が高くないと判定された場合(ST607:NO)、トラッキングの連続性は途絶えたとしてステップST601に戻る。検出された船舶候補は工事区域に向かっている船舶である可能性が高いと判定された場合(ST607:YES)、長期サマリ部1327は、トラッキングカウンタTRCに1を加算する(ST608)。長期サマリ部1327は、トラッキングカウンタは所定の閾値TRCth以上か否かを判定する(ST609)。トラッキングカウンタは所定の閾値TRCth未満の場合(ST609:NO)、ステップST602に戻る。トラッキングカウンタが所定の閾値TRCth以上の場合(ST609:YES)、警報信号出力部1328は、警報機3に警報信号を出力する(ST610)。処理は終了する。 If it is determined that the detected vessel candidate is not likely to be a vessel heading for the construction area (ST607: NO), the tracking continuity is considered to be interrupted and the process returns to step ST601. When it is determined that the detected ship candidate is likely to be a ship heading for the construction area (ST607: YES), the long-term summary unit 1327 adds 1 to the tracking counter TRC (ST608). The long-term summary unit 1327 determines whether or not the tracking counter is equal to or higher than a predetermined threshold value TRCth (ST609). If the tracking counter is less than the predetermined threshold value TRCth (ST609: NO), the process returns to step ST602. When the tracking counter is equal to or higher than the predetermined threshold value TRCth (ST609: YES), the alarm signal output unit 1328 outputs an alarm signal to the alarm device 3 (ST610). The process ends.

[第2実施形態に係る警報装置の概要]
第1実施形態では、背景差分法により船舶画像を検出したが、第2実施形態では、色差分法により船舶画像を検出する。
[Overview of the alarm device according to the second embodiment]
In the first embodiment, the ship image is detected by the background subtraction method, but in the second embodiment, the ship image is detected by the color difference method.

[警報装置のブロック構成]
図7は、第2実施形態に係る警報装置のブロック構成の一例を示す図である。
[Alarm device block configuration]
FIG. 7 is a diagram showing an example of the block configuration of the alarm device according to the second embodiment.

警報装置7は、表示部71、操作部72、及び制御部73を有し、各部はバスラインで接続されている。表示部71は、例えばディスプレイ装置である。操作部72は、例えば、キーボード、マウスである。表示部71と操作部72は、例えば、タッチパネルディスプレイ装置のように一体となっていてもよい。更に、警報装置7には、ビデオカメラ2及び警報機3がインターフェース74を介して接続されている。 The alarm device 7 has a display unit 71, an operation unit 72, and a control unit 73, and each unit is connected by a bus line. The display unit 71 is, for example, a display device. The operation unit 72 is, for example, a keyboard and a mouse. The display unit 71 and the operation unit 72 may be integrated, for example, as in a touch panel display device. Further, the video camera 2 and the alarm device 3 are connected to the alarm device 7 via the interface 74.

制御部73は、制御記憶部731と制御処理部732とを有する。制御記憶部731は、1つ又は複数の半導体メモリにより構成される。例えば、RAMや、フラッシュメモリ、EPROM、EEPROM等の不揮発性メモリの少なくとも一つを有する。制御記憶部731は、制御処理部732による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。 The control unit 73 includes a control storage unit 731 and a control processing unit 732. The control storage unit 731 is composed of one or a plurality of semiconductor memories. For example, it has at least one of RAM, flash memory, EPROM, EEPROM, and other non-volatile memories. The control storage unit 731 stores driver programs, operating system programs, application programs, data, and the like used for processing by the control processing unit 732.

制御記憶部731は、ドライバプログラムとして、ビデオカメラ2、警報機3、表示部71、操作部72等を制御するデバイスドライバプログラムを記憶する。コンピュータプログラムは、例えば、CD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて制御記憶部731にインストールされてもよい。また、プログラムサーバ等からダウンロードしてインストールしてもよい。 The control storage unit 731 stores as a driver program a device driver program that controls the video camera 2, the alarm device 3, the display unit 71, the operation unit 72, and the like. The computer program may be installed in the control storage unit 731 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like. Alternatively, it may be downloaded from a program server or the like and installed.

更に、制御記憶部731は、所定の処理に係る一時的なデータを一時的に記憶してもよい。制御記憶部731は、監視領域設定ファイル7311、色相重み設定ファイル7312、二値化閾値設定ファイル7313、加算時間ファイル7314、クラスタ判定ファイル7315、トラッキング判定ファイル7316及びその他の処理パラメータファイル7317等を記憶する。 Further, the control storage unit 731 may temporarily store temporary data related to a predetermined process. The control storage unit 731 stores the monitoring area setting file 7311, the hue weight setting file 7312, the binarization threshold setting file 7313, the addition time file 7314, the cluster determination file 7315, the tracking determination file 7316, and other processing parameter files 7317. do.

制御処理部732は、一又は複数個のプロセッサ及びその周辺回路を有する。制御処理部732は、警報装置7の動作を統括的に制御するものであり、例えば、MPU(Micro Processor Unit)等のプロセッサである。制御処理部732は複数のMPUにより構成されていてもよい。 The control processing unit 732 includes one or more processors and peripheral circuits thereof. The control processing unit 732 comprehensively controls the operation of the alarm device 7, and is, for example, a processor such as an MPU (Micro Processor Unit). The control processing unit 732 may be composed of a plurality of MPUs.

制御処理部732は、制御記憶部731に記憶されているプログラム(オペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、制御処理部732は、複数のプログラム(アプリケーションプログラム等)を並列に実行してもよい。制御処理部732は、画像取得部7321、画像切出部7322、二値化データ処理部7323、色相平均部7324、色差分二値化部7325、短期サマリ部1326、長期サマリ部1327等を有する。 The control processing unit 732 executes processing based on a program (operating system program, driver program, application program, etc.) stored in the control storage unit 731. Further, the control processing unit 732 may execute a plurality of programs (application programs and the like) in parallel. The control processing unit 732 includes an image acquisition unit 7321, an image cutout unit 7322, a binarization data processing unit 7323, a hue averaging unit 7324, a color difference binarization unit 7325, a short-term summary unit 1326, a long-term summary unit 1327, and the like. ..

制御処理部732が有するこれらの各部は、独立した集積回路、回路モジュール、マイクロプロセッサ、又はファームウェアとして警報装置7に実装されてもよい。
[色差分画像二値化データの生成]
ビデオカメラ2は、例えば、解像度がM×Nピクセルの性能を有する。各画素の座標は(x,y):1≦x≦M、1≦y≦N、で表現される。ビデオカメラ2からの画像データは画素(ピクセル)ごとに、赤(R)の色データ:R(x,y)、緑(G)の色データ:G(x,y)、及び青(B)の色データ:B(x,y)の3つを有する。すべての画素について3つの色データを出力せず、画素1つおきに出力するカメラもあるが、説明を簡単にするため本実施例ではすべての画素について色データが出力されるものとする。又、RGB色データ以外の、例えば輝度(Y)データ、色差(U,V)データを出力するカメラもあるが、RGBデータとYUVとの間の変換が可能であるので、以下、RGB色データを例にして説明する。
Each of these parts included in the control processing unit 732 may be mounted on the alarm device 7 as an independent integrated circuit, circuit module, microprocessor, or firmware.
[Generation of color difference image binarization data]
The video camera 2 has a performance of, for example, a resolution of M × N pixels. The coordinates of each pixel are represented by (x, y): 1 ≦ x ≦ M, 1 ≦ y ≦ N. The image data from the video camera 2 is red (R) color data: R (x, y), green (G) color data: G (x, y), and blue (B) for each pixel. Color data: B (x, y). Some cameras do not output three color data for all pixels, but output every other pixel, but for the sake of simplicity, it is assumed that color data is output for all pixels in this embodiment. There are also cameras that output, for example, brightness (Y) data and color difference (U, V) data other than RGB color data, but since conversion between RGB data and YUV is possible, the RGB color data will be described below. Will be described as an example.

色相平均部7324は、例えば、監視領域画像データに含まれる全画素座標(x,y)のR、G、B色データの平均値av(R)、av(G),av(B)を計算する。R、G、B色データの平均値は、監視領域画像データの海面領域と空領域とに分けてよい。別の例として、例えば画像データを64×64の画素ブロックに分割して、ブロックごとに差分画像データを生成してもよい。 The hue averaging unit 7324 calculates, for example, the average values av (R), av (G), av (B) of the R, G, and B color data of all pixel coordinates (x, y) included in the monitoring area image data. do. The average value of the R, G, and B color data may be divided into a sea surface region and an empty region of the monitoring region image data. As another example, for example, the image data may be divided into 64 × 64 pixel blocks, and the difference image data may be generated for each block.

色差分二値化部7325は、関数
(x,y)=(R(x,y)−av(R))+(G(x,y)−av(G))+(B(x,y)−av(B))
を用いてR、G、B色データを成分とするベクトル値をスカラー値に変換した色差分画像データを生成する。
Color difference binarization unit 7325, the function F C (x, y) = (R (x, y) -av (R)) 2 + (G (x, y) -av (G)) 2 + (B (X, y) -av (B)) 2
Is used to generate color difference image data obtained by converting vector values having R, G, and B color data as components into scalar values.

別の例として、色差分二値化部7325は、監視画像データに含まれる各画素座標(x,y)のR、G、Bの色相重み付け係数W、W、Wを有する関数
(x,y)=W(R(x,y)−av(R))+W(G(x,y)−av(G))+W(B(x,y)−av(B))
を用いて色差分画像データを生成してもよい。例えば、海面の色は青(B)系が主色相であるとすると、青の重み付け係数Wを、他の重み付け係数W、Wより小さくすれば、青(B)以外の色相を主に有する物体が強調されることになる。
As another example, the color difference binarization unit 7325, R of each pixel coordinates included in the monitoring image data (x, y), G, hue weighting coefficient W R of B, W G, the function has a W B F W (x, y) = W R (R (x, y) -av (R)) + W G (G (x, y) -av (G)) + W B (B (x, y) -av (B )))
May be used to generate color difference image data. For example, the color of the sea blue (B) system is to be the main color, the weighting coefficient W B of blue, the other weighting coefficients W R, if less than W G, the hue other than blue (B) primary The object held in is emphasized.

色差分二値化部7325は、色差分閾値CBthを用いて関数F(x,y)を二値関数FCB(x、y)に変換する。
(x,y)≧CBthのとき、FCB(x,y)=1
(x,y)<CBthのとき、FCB(x,y)=0
である。FCB(x、y)は、画素(x、y)の色差分二値化処理されたデータを示している。本例では、FCB(x、y)が取り得る値を0と1としたが、例えば0と255の組み合わせでもよい。
Color difference binarization unit 7325 converts the function F C (x, y) to a two-valued function F CB (x, y) by using the color difference threshold Cbth.
F C (x, y) when ≧ CBth, F CB (x, y) = 1
F C (x, y) <When CBth, F CB (x, y ) = 0
Is. FCB (x, y) indicates the color difference binarized data of the pixel (x, y). In this example, the values that FCB (x, y) can take are 0 and 1, but a combination of 0 and 255 may be used, for example.

色差分閾値CBthは固定された値ではなく、可変としてもよい。例えば、水平線を第1接近線として、第1接近線を含む矩形エリアが第1監視領域に設定され、工事区域から2.0Km離れた海上の仮想の水平な第2接近線を含む矩形エリアが第2監視領域に設定されているとする。各監視領域に対応する画像は同一ではないのでそれぞれの監視領域に応じてCBthを設定することが好ましい。CBthは、時刻、例えば、朝方、昼、夕方、夜に応じて設定されることが好ましい。更に、気象や海象、例えば、晴れ、曇り、雨や海流、波、潮汐等に応じて設定されることが好ましい。海面の状況が、時刻、気象によって変化するからである。 The color difference threshold CBth is not a fixed value but may be variable. For example, with the horizontal line as the first approach line, a rectangular area including the first approach line is set as the first monitoring area, and a rectangular area including a virtual horizontal second approach line on the sea 2.0 km away from the construction area is set. It is assumed that it is set in the second monitoring area. Since the images corresponding to each monitoring area are not the same, it is preferable to set CBth according to each monitoring area. The CBth is preferably set according to the time of day, for example, morning, noon, evening, and night. Further, it is preferable to set according to the weather and the sea condition, for example, sunny, cloudy, rain, ocean current, wave, tide and the like. This is because the sea level conditions change depending on the time of day and the weather.

色差分閾値CBthは、多くのサンプルデータを用いて統計的に設定されてもよい。変動要素が多くあるため、例えば、回帰分析やベイズ推定の統計的手法を用いることが好ましい。 The color difference threshold CBth may be set statistically using many sample data. Since there are many variable factors, it is preferable to use, for example, a statistical method of regression analysis or Bayesian estimation.

色差分二値化部7325は、重み付け係数W、W、Wを有する関数
(x,y)=W(R(x,y)−av(R))+W(G(x,y)−av(G))+W(B(x,y)−av(B))
を用いて色差分画像データを生成する場合も同様に色差分二値化処理することができる。重み付け係数W、W、W多くのサンプルデータを用いて統計的に設定されてもよい。変動要素が多くあるため、例えば、回帰分析やベイズ推定の統計的手法を用いることが好ましい。
Color difference binarization unit 7325, the weighting factor W R, W G, the function F W (x, y) with W B = W R (R ( x, y) -av (R)) + W G (G ( x, y) -av (G) ) + W B (B (x, y) -av (B))
When the color difference image data is generated by using the above, the color difference binarization processing can be performed in the same manner. Weighting factor W R, W G, W B can be statistically set using a number of sample data. Since there are many variable factors, it is preferable to use, for example, a statistical method of regression analysis or Bayesian estimation.

[第2実施形態に係る警報装置が行う処理フローの概略]
図8は、第2実施形態に係る警報装置が行う処理フローの一例を示す図である。
[Outline of processing flow performed by the alarm device according to the second embodiment]
FIG. 8 is a diagram showing an example of a processing flow performed by the alarm device according to the second embodiment.

警報装置7の画像取得部7321は、ビデオカメラ2が撮影した監視海面を含む画像の画像信号を取得する(ST801)。画像切出部7322は、取得した画像信号から画像データを生成し、工事区画に接近する船舶を検出するため、設定された監視領域画像データを切り出す{ST802)。 The image acquisition unit 7321 of the alarm device 7 acquires an image signal of an image including the monitored sea surface taken by the video camera 2 (ST801). The image cutting unit 7322 generates image data from the acquired image signal, and cuts out the set monitoring area image data in order to detect a ship approaching the construction section {ST802).

色相平均部7324は、監視領域画像データに含まれる全画素座標(x,y)のR、G、B色データの平均値av(R)、av(G),av(B)を計算する(ST803)。 The hue averaging unit 7324 calculates the average values av (R), av (G), av (B) of the R, G, and B color data of all pixel coordinates (x, y) included in the monitoring area image data ( ST803).

色差分二値化部7325は、関数
(x,y)=(R(x,y)−av(R))+(G(x,y)−av(G))+(B(x,y)−av(B))
を用いてR、G、B色データを成分とするベクトル値をスカラー値に変換した色差分画像データを生成する(ST804)。
Color difference binarization unit 7325, the function F C (x, y) = (R (x, y) -av (R)) 2 + (G (x, y) -av (G)) 2 + (B (X, y) -av (B)) 2
Is used to generate color difference image data obtained by converting vector values having R, G, and B color data as components into scalar values (ST804).

色差分二値化部7325は、色差分閾値CBthを用いて関数F(x,y)を二値関数FCB(x、y)に変換して色差分画像二値化データを生成する(ST805)。色差分画像二値化データの作成は、逐次行われ、二値化データ処理部7323により警報装置7の記憶部731に記憶される(ST806)。すなわち、各フレームに対応した色差分画像二値化データが生成され、記憶される。 Color difference binarization unit 7325, the function F C (x, y) and converted into binary function F CB (x, y) to generate a color difference image binarized data by using the color difference threshold Cbth ( ST805). The color difference image binarization data is sequentially created and stored in the storage unit 731 of the alarm device 7 by the binarization data processing unit 7323 (ST806). That is, the color difference image binarization data corresponding to each frame is generated and stored.

短期サマリ部7326は、所定の加算時間に亘って色差分画像二値化データを加算して、短期サマリ画像データを作成する短期サマリ処理を行う(ST807)。短期サマリ画像データは、海面上に一時的に表れたノイズ、例えば、波、海面の光の反射、静止物の微小な揺れが除去される。 The short-term summarization unit 7326 performs a short-term summarization process for creating short-term summarization image data by adding color difference image binarization data over a predetermined addition time (ST807). The short-term summary image data removes noise that temporarily appears on the surface of the sea, such as waves, reflections of light on the surface of the sea, and minute shaking of stationary objects.

長期サマリ部1327は、短期サマリ画像データの画像解析を順次行い、船舶候補に該当する画像領域を検出するとともに、船舶候補の画像トラッキングを行い船舶候補が工事区域に向かっている船舶であることを判定する長期サマリ処理を行う(ST808)。 The long-term summary unit 1327 sequentially performs image analysis of the short-term summary image data, detects an image area corresponding to the ship candidate, and tracks the image of the ship candidate to determine that the ship candidate is heading for the construction area. Perform a long-term summarization process for determination (ST808).

警報信号出力部7328は、長期サマリ処理によって、船舶候補が工事区域に向かっている船舶であると判定されたとき、警報機3に警報信号を出力する(ST809)。警報機3、例えばパトライト(登録商標)は警報のための光を点滅させる。 The alarm signal output unit 7328 outputs an alarm signal to the alarm 3 when it is determined by the long-term summarization process that the ship candidate is a ship heading for the construction area (ST809). The alarm 3, for example Patrite®, flashes an alarm light.

当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換、及び修正をこれに加えることが可能であることを理解されたい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made to this without departing from the spirit and scope of the invention.

1、7 警報装置
11、71 表示部
12,72 操作部
13、73 制御部
131、731 制御記憶部
132、732 制御処理部
14、74 インターフェース
2 ビデオカメラ
3 警報機
1,7 Alarm device 11,71 Display unit 12,72 Operation unit 13,73 Control unit 131,731 Control storage unit 132,732 Control processing unit 14,74 Interface 2 Video camera 3 Alarm

Claims (6)

工事区域に設置されたビデオカメラから海面を含む画像の画像信号を取得する画像取得部と、
前記取得した画像信号からフレームごとに前記海面と空又は前記海面と陸との境界に平行な方向を長辺とする矩形画像データを複数の監視領域画像データとして切り出す画像切出部と、
前記監視領域画像データを所定の二値化閾値を用いて画像二値化データを生成する二値化データ処理部と、
前記画像二値化データを所定の加算時間に亘って加算して短期サマリ画像データを生成する短期サマリ部と、
各前記短期サマリ画像データの画像解析を順次行い、船舶候補に該当する画像領域を検出するとともに、前記船舶候補の画像トラッキングを行い前記船舶候補が前記短期サマリ画像データの前記工事区域側の長辺に向かっているときは、前記工事区域に向かっている船舶である可能性が高いと判定する長期サマリ部と、
前記船舶候補が前記工事区域に向かっている船舶である可能性が高いと判定されたとき、警報機に警報信号を出力する警報信号出力部と、
を有する警報装置。
An image acquisition unit that acquires image signals of images including the sea surface from a video camera installed in the construction area,
An image cutout portion that cuts out rectangular image data having a long side in a direction parallel to the boundary between the sea surface and the sky or the sea surface and the land as a plurality of monitoring area image data for each frame from the acquired image signal.
A binarization data processing unit that generates image binarization data using the monitoring area image data using a predetermined binarization threshold, and a binarization data processing unit.
A short-term summary unit that generates short-term summary image data by adding the image binarization data over a predetermined addition time, and
Image analysis of each short-term summary image data is sequentially performed to detect an image area corresponding to the ship candidate, image tracking of the ship candidate is performed, and the ship candidate is the length of the short-term summary image data on the construction area side. When heading to the side , the long-term summary section, which determines that the ship is likely to be heading to the construction area,
When the marine vessel candidate is determined to be likely a ship headed in the construction zone, a warning signal output unit for outputting an alarm signal to an alarm device,
Alarm device with.
前記二値化データ処理部は、
第1の時間に亘る前記複数の監視領域画像データの一部から背景画像データを生成する背景画像生成部と、
前記背景画像データと前記複数の監視領域画像データの内前記第1の時間から第2の時間経過した所定の監視領域画像データとの背景差分をとり、前記二値化閾値を用いて前記画像二値化データを生成する背景差分二値化部と、
を有する請求項1に記載の警報装置。
The binarized data processing unit
A background image generation unit that generates background image data from a part of the plurality of monitoring area image data over the first time, and a background image generation unit.
A background difference between the background image data and a predetermined monitoring area image data in which a second time has passed from the first time among the plurality of monitoring area image data is taken, and the binarization threshold is used to obtain the image 2. Background subtraction binarization unit that generates valued data,
The alarm device according to claim 1.
前記二値化データ処理部は、
前記監視領域画像データに含まれるR、G、B色データの各平均値を計算する色相平均部と、
前記監視領域画像データの各画素の色相値と前記色データの各平均値の差に関連する色差分画像データを生成し、色差分閾値を用いて前記画像二値化データを生成する色差分二値化部と、
を有する請求項1に記載の警報装置。
The binarized data processing unit
A hue averaging unit for calculating the average value of each of the R, G, and B color data included in the monitoring area image data, and a hue averaging unit.
Color difference 2 that generates color difference image data related to the difference between the hue value of each pixel of the monitoring area image data and each average value of the color data, and generates the image binarization data using the color difference threshold. The binarization department and
The alarm device according to claim 1.
前記複数の監視領域画像データは前記境界を含む画像データを含む、請求項1〜3のいずれか一項に記載の警報装置。 Wherein the plurality of monitoring areas image data includes image data including the boundary, alarm device according to any one of claims 1 to 3. 工事区域に設置されたビデオカメラから海面を含む画像の画像信号を取得することと、
前記取得した画像信号からフレームごとに前記海面と空又は前記海面と陸との境界に平行な方向を長辺とする矩形画像データを複数の監視領域画像データとして切り出すことと、
前記監視領域画像データを所定の二値化閾値を用いて画像二値化データを生成することと、
前記画像二値化データを所定の加算時間に亘って加算して短期サマリ画像データを生成することと、
各前記短期サマリ画像データの画像解析を順次行い、船舶候補に該当する画像領域を検出するとともに、前記船舶候補の画像トラッキングを行い前記船舶候補が前記短期サマリ画像データの前記工事区域側の長辺に向かっているときは、前記工事区域に向かっている船舶である可能性が高いと判定することと、
前記船舶候補が前記工事区域に向かっている船舶である可能性が高いと判定されたとき、警報機に警報信号を出力することと、
を有する警報方法。
Obtaining image signals of images including the sea surface from a video camera installed in the construction area,
From the acquired image signal, rectangular image data having a long side in a direction parallel to the boundary between the sea surface and the sky or the sea surface and the land is cut out as a plurality of monitoring area image data for each frame.
To generate image binarization data using a predetermined binarization threshold value for the monitoring area image data,
To generate short-term summary image data by adding the image binarization data over a predetermined addition time.
Image analysis of each short-term summary image data is sequentially performed to detect an image area corresponding to the ship candidate, image tracking of the ship candidate is performed, and the ship candidate is the length of the short-term summary image data on the construction area side. When heading to the side , it is judged that there is a high possibility that the ship is heading to the construction area.
When the marine vessel candidate is determined to be likely a ship headed in the construction zone, and outputting an alarm signal to an alarm device,
Alarm method with.
コンピュータを動作させるプログラムであって、
工事区域に設置されたビデオカメラから海面を含む画像の画像信号を取得することと、
前記取得した画像信号からフレームごとに前記海面と空又は前記海面と陸との境界に平行な方向を長辺とする矩形画像データを複数の監視領域画像データとして切り出すことと、
前記監視領域画像データを所定の二値化閾値を用いて画像二値化データを生成することと、
前記画像二値化データを所定の加算時間に亘って加算して短期サマリ画像データを生成することと、
各前記短期サマリ画像データの画像解析を順次行い、船舶候補に該当する画像領域を検出するとともに、前記船舶候補の画像トラッキングを行い前記船舶候補が前記短期サマリ画像データの前記工事区域側の長辺に向かっているときは、前記工事区域に向かっている船舶である可能性が高いと判定することと、
前記船舶候補が前記工事区域に向かっている船舶である可能性が高いと判定されたとき、警報機に警報信号を出力することと、
をコンピュータに実行させる警報プログラム。
A program that runs a computer
Obtaining image signals of images including the sea surface from a video camera installed in the construction area,
From the acquired image signal, rectangular image data having a long side in a direction parallel to the boundary between the sea surface and the sky or the sea surface and the land is cut out as a plurality of monitoring area image data for each frame.
To generate image binarization data using a predetermined binarization threshold value for the monitoring area image data,
To generate short-term summary image data by adding the image binarization data over a predetermined addition time.
Image analysis of each short-term summary image data is sequentially performed to detect an image area corresponding to the ship candidate, image tracking of the ship candidate is performed, and the ship candidate is the length of the short-term summary image data on the construction area side. When heading to the side , it is judged that there is a high possibility that the ship is heading to the construction area.
When the marine vessel candidate is determined to be likely a ship headed in the construction zone, and outputting an alarm signal to an alarm device,
An alarm program that causes the computer to run.
JP2019199447A 2019-10-31 2019-10-31 Warning devices, warning methods, and warning programs for safe navigation Active JP6915812B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019199447A JP6915812B2 (en) 2019-10-31 2019-10-31 Warning devices, warning methods, and warning programs for safe navigation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199447A JP6915812B2 (en) 2019-10-31 2019-10-31 Warning devices, warning methods, and warning programs for safe navigation

Publications (2)

Publication Number Publication Date
JP2021072003A JP2021072003A (en) 2021-05-06
JP6915812B2 true JP6915812B2 (en) 2021-08-04

Family

ID=75713205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199447A Active JP6915812B2 (en) 2019-10-31 2019-10-31 Warning devices, warning methods, and warning programs for safe navigation

Country Status (1)

Country Link
JP (1) JP6915812B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117818851A (en) * 2024-03-04 2024-04-05 成都锦城学院 Ship monitoring system and method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05145928A (en) * 1991-11-21 1993-06-11 Hitachi Zosen Corp Digital image transmitter
JPH06319141A (en) * 1993-05-10 1994-11-15 Toshiba Corp Supervisory equipment
JPH09288732A (en) * 1996-04-23 1997-11-04 Mitsubishi Heavy Ind Ltd Steamer under way recognizing device
JP4487180B2 (en) * 2004-03-18 2010-06-23 ソニー株式会社 Information generating apparatus and information generating method
JP2008204105A (en) * 2007-02-19 2008-09-04 Shikoku Chuboki Seizo Kk Automatic food intake measuring system and automatic dietary intake measuring method
JP5597454B2 (en) * 2010-06-17 2014-10-01 東芝テリー株式会社 Abnormal traveling vehicle detection system and road monitoring program
JP2018073049A (en) * 2016-10-27 2018-05-10 株式会社リコー Image recognition device, image recognition system, and image recognition method

Also Published As

Publication number Publication date
JP2021072003A (en) 2021-05-06

Similar Documents

Publication Publication Date Title
KR102171122B1 (en) Vessel detection method and system based on multidimensional features of scene
US10121078B2 (en) Method and system for detection of foreign objects in maritime environments
JP6319785B2 (en) Abnormal tide level fluctuation detection device, abnormal tide level fluctuation detection method, and abnormal tide level fluctuation detection program
CN104297758B (en) A kind of auxiliary berthing device and its method based on 2D pulse type laser radars
JP4937029B2 (en) Object detection apparatus and program
KR102345873B1 (en) The method and System of Wave Observation Using Camera Module for Ocean Observation Buoy
JP3583659B2 (en) Liquid level detection method
CN111123251B (en) Target object detection method and device of radar
JP6915812B2 (en) Warning devices, warning methods, and warning programs for safe navigation
JP2022153507A (en) Image processing device, image processing method, program, and image processing system
JP4776324B2 (en) Monitoring terminal device
JP2001160146A (en) Method and device for recognizing image
JP4302801B2 (en) Object tracking method and object tracking apparatus
US8433139B2 (en) Image processing apparatus, image processing method and program for segmentation based on a degree of dispersion of pixels with a same characteristic quality
JP2007257078A (en) Image retrieving device
JP3785824B2 (en) Automatic ship wake detection device
JP4686773B2 (en) Moving object recognition method and moving object recognition apparatus
CN108737814B (en) Video shot detection method based on dynamic mode decomposition
CN111665499A (en) Judgment method for reducing marine oil spill early warning misjudgment rate of shipborne radar
JP7270537B2 (en) Object detection device, ship, and object detection method
CN115083211B (en) Distributed ship height detection system based on multi-view stereoscopic vision
Smith et al. The statistical characterization of the sea for the segmentation of maritime images
KR20240039754A (en) Image-based maritime object recognition and distance estimation method
Pedersen et al. A Model Based Approach to Radar Oil Spill Detection
CN117152689A (en) River channel target detection method and system based on vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210706

R150 Certificate of patent or registration of utility model

Ref document number: 6915812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350