JP2005277705A - Harbor surveillance system - Google Patents

Harbor surveillance system Download PDF

Info

Publication number
JP2005277705A
JP2005277705A JP2004087132A JP2004087132A JP2005277705A JP 2005277705 A JP2005277705 A JP 2005277705A JP 2004087132 A JP2004087132 A JP 2004087132A JP 2004087132 A JP2004087132 A JP 2004087132A JP 2005277705 A JP2005277705 A JP 2005277705A
Authority
JP
Japan
Prior art keywords
camera
target
ship
sub
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004087132A
Other languages
Japanese (ja)
Other versions
JP4301051B2 (en
Inventor
Morihiro Okazaki
守宏 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004087132A priority Critical patent/JP4301051B2/en
Publication of JP2005277705A publication Critical patent/JP2005277705A/en
Application granted granted Critical
Publication of JP4301051B2 publication Critical patent/JP4301051B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a harbor surveillance system by which the existence of a vessel sailing in the shadow of an adjacent vessel can be surely detected even when a plurality of vessels adjacently sail. <P>SOLUTION: The harbor surveillance system is provided with a surface radar for detecting a target under way in a harbor or in a surrounding sea area; a main camera with a zoom function which is arranged adjacently to the surface radar and photographs the target detected by the surface radar so as to include it within the visual field; a plurality of sub-cameras with a zoom function which have a directivity direction different from the main camera, are separately arranged, and photograph the vessels under way in waters far from the target detected by the surface radar so as to include them within the visual field; and a display unit which screen-displays photographed images of the respective cameras on the basis of the photographed images and visual angles of the respective cameras, and displays visual angle ranges of the respective cameras respectively corresponding to the photographed images by overlapping them with a map image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、港湾内および港湾周辺の水域を航行中の船舶を監視する港湾監視システムに関する。   The present invention relates to a harbor monitoring system that monitors a ship that is navigating in a water area in and around a harbor.

近年、港湾を舞台とする不正輸出や、コンテナを利用した密航事件が多発、増加する傾向にあり、港湾セキュリティの充実が求められている。
従来、所定領域の海上保安管理および船舶に関する安全管理を行うことを目的として、所定領域内を航行および停泊する船舶の船名を読取り、この読取った船名から船舶の情報を入手する港湾監視システムが知られている。
In recent years, illegal exports set in harbors and smuggling incidents using containers tend to occur and increase, and enhancement of port security is required.
Conventionally, for the purpose of performing maritime security management in a predetermined area and safety management for ships, a port monitoring system that reads ship names of ships navigating and anchoring in a predetermined area and obtains ship information from the read ship names. It has been known.

従来の港湾監視システムは、広角カメラおよびレーダにより認識した船舶の位置情報に基づいて、赤外照明装置、赤外線カメラ、を作動させ、赤外線カメラで船舶の船名を含む情景画像を撮像し、制御・表示装置において、この情景画像から船名を読取るようになっていた(例えば、特許文献1参照)。   The conventional port monitoring system operates the infrared illumination device and infrared camera based on the position information of the ship recognized by the wide-angle camera and radar, and captures and controls the scene image including the ship's name with the infrared camera. In the display device, the ship name is read from the scene image (see, for example, Patent Document 1).

特開平11−368845号公報(第1−第2頁、第1、第2図参照)Japanese Patent Laid-Open No. 11-368845 (see pages 1 and 2 and FIGS. 1 and 2)

しかしながら、従来の港湾監視システムは、屋外の港湾、海峡を含む所定海域の海上を一望できる所定の場所の1箇所に配置されたレーダとカメラを用いて、船舶の位置情報を認識していた。
このため、複数の船舶が接近して航行している場合、カメラ視野の手前側に位置する船舶に対してカメラ視野の奥行き方向に在る他の船舶が、当該カメラの死角領域に位置することがある。この際、他の船舶は手前側の船舶に遮蔽されており、カメラの画像からはその存在認識ができず、その位置情報を得られないという問題があった。
従って、不審船が大型船の陰に隠れて港湾内へ入港した場合に、従来の港湾監視システムでは、不審船の存在を検出することができなかった。
However, the conventional port monitoring system recognizes the position information of the ship using a radar and a camera arranged at one place in a predetermined place overlooking the sea in a predetermined sea area including an outdoor port and a strait.
For this reason, when a plurality of ships are navigating close to each other, other ships located in the depth direction of the camera field of view are located in the blind spot region of the camera with respect to the ship located on the near side of the camera field of view. There is. At this time, there is a problem that other ships are shielded by the ship on the near side, their presence cannot be recognized from the image of the camera, and their position information cannot be obtained.
Therefore, when a suspicious ship enters the harbor behind the large ship, the conventional harbor monitoring system cannot detect the presence of the suspicious ship.

この発明は係る課題を解決するために為されたものであり、隣接して航行中の複数の船舶から個々の船舶を特定して、隣接する船舶の陰に隠れた船舶の存在を検出することを目的とする。   The present invention has been made to solve the above-described problems, and identifies each ship from a plurality of ships that are adjacent to each other and detects the presence of a ship hidden behind an adjacent ship. With the goal.

この発明による港湾監視システムは、港湾内及び周辺海域を航行中の目標を検出する水上レーダと、前記水上レーダに隣接して配置され、前記水上レーダで検出された目標を、視野内に含むように撮影するズーム付きの主カメラと、前記主カメラと異なる視向方向を有して離隔配置され、前記水上レーダで検出された目標より以遠の水域を航行中の船舶を、視野内に含むように撮影する複数のズーム付きの副カメラと、前記各カメラの撮影画像と視野角に基づいて、前記各カメラの撮影画像を画面表示するとともに、当該撮影画像に夫々対応した前記各カメラの視野角範囲を、地図画像に重ね合わせて表示する表示部とを備えたものである。   A port monitoring system according to the present invention includes a water radar that detects a target navigating in a port and a surrounding sea area, and a target that is disposed adjacent to the water radar and detected by the water radar in a field of view. A main camera with a zoom to be photographed at a time, and a ship that is spaced apart from the main camera and is traveling in a water area farther than a target detected by the water radar And a plurality of sub-cameras with zoom, and the captured images of the cameras based on the captured images and the viewing angles of the cameras, and the viewing angles of the cameras corresponding to the captured images, respectively. And a display unit that displays the range superimposed on the map image.

この発明によれば、複数の船舶が隣接して航行している場合であっても、水上レーダと指向方向の異なる少なくとも2つ以上の監視カメラを用いて港湾内を監視することによって、隣接する船舶の陰に隠れて航行する船舶の存在を、確実に検出することができる。   According to the present invention, even when a plurality of ships are navigating adjacent to each other, they are adjacent to each other by monitoring the inside of a harbor using at least two monitoring cameras having different directivity directions from the water radar. It is possible to reliably detect the presence of a ship that is hidden behind the ship and navigates.

実施の形態1.
図1はこの発明の実施の形態1による港湾監視システムを構成する各センサ配置を示す斜視図である。
図において、港湾1は、周辺及び湾内の水域に船舶が出入りする。港湾1の湾内には突堤2a、2bが設けられている。図1は突堤2a、2bの間を通過して、図の下方から港湾1の湾内に、船舶10、11が入港している状態を示している。船舶10は大型〜中型の船であり、船舶11は船舶10よりも小型の船である。船舶10、11は互いに接近して航行している。突堤2a、2bには、港湾監視システムのセンサ系として、レーダ装置300、主カメラ4、副カメラ6、及び副カメラ8を含む監視用の各センサが設けられている。各センサは、港湾1の周辺及び湾内の水域を出入りする船舶を監視目標として捉えて、目標画像や目標検出情報を取得する。
なお、他に複数の監視用のセンサを設けても良いが、ここでは説明の都合上割愛する。
Embodiment 1 FIG.
1 is a perspective view showing the arrangement of sensors constituting a harbor monitoring system according to Embodiment 1 of the present invention.
In the figure, in the port 1, a ship enters and exits the water area around and in the bay. Jetty 2a and 2b are provided in the bay of the harbor 1. FIG. 1 shows a state in which the ships 10 and 11 have entered the bay of the port 1 from the lower side of the drawing through the jetty 2a and 2b. The ship 10 is a large to medium-sized ship, and the ship 11 is a ship smaller than the ship 10. Ships 10 and 11 are sailing close to each other. The jetty 2a, 2b is provided with each sensor for monitoring including the radar apparatus 300, the main camera 4, the sub camera 6, and the sub camera 8 as a sensor system of the harbor monitoring system. Each sensor acquires a target image and target detection information by regarding a ship entering and leaving the vicinity of the harbor 1 and the water area in the bay as a monitoring target.
In addition, a plurality of monitoring sensors may be provided, but are omitted here for convenience of explanation.

レーダ装置300は、突堤2aの先端部に配置された支持塔22の上に設置され、アンテナ装置3を備えており、目標の距離・方位を検出する水上レーダ(センサ)として用いられる。大型船舶が複数入港しても、各船舶の存在を識別できるように、支持塔22の高さは30m〜50m程度であることが望ましい。
レーダ装置3の周辺には監視カメラとして主カメラ4が配置されている。主カメラ4は支持塔500上に配置されている。主カメラ4とレーダ装置3の水平方向の距離差は概ね30m以内程度にするのが好ましく、差が小さい程良い。
突堤2aの根元部には監視カメラとして副カメラ6が配置されている。副カメラ6は支持塔700上に配置されている。
突堤2bの根元部には監視カメラとして他の副カメラ8が配置されている。副カメラ8は支持塔900上に配置されている。
支持塔500、700、900の高さは、夫々30m程度であることが望ましい。
突堤2bには無線装置44が配置されており、無線装置44は離隔配置された信号処理器と配線ケーブルやネットワーク回線で接続されている。各センサの夫々の周辺には図示しないミリ波無線伝送装置が設けられている(図2で後述する)。
The radar device 300 is installed on the support tower 22 disposed at the tip of the jetty 2a, and includes the antenna device 3, and is used as a water radar (sensor) that detects a target distance and direction. It is desirable that the height of the support tower 22 is about 30 to 50 m so that the presence of each ship can be identified even when a plurality of large ships enter the port.
A main camera 4 is disposed around the radar apparatus 3 as a monitoring camera. The main camera 4 is disposed on the support tower 500. The horizontal distance difference between the main camera 4 and the radar device 3 is preferably about 30 m or less, and the smaller the difference, the better.
A sub camera 6 is arranged as a monitoring camera at the base of the jetty 2a. The sub camera 6 is disposed on the support tower 700.
Another sub camera 8 is disposed as a monitoring camera at the base of the jetty 2b. The sub camera 8 is disposed on the support tower 900.
The heights of the support towers 500, 700, and 900 are each preferably about 30 m.
A wireless device 44 is arranged on the jetty 2b, and the wireless device 44 is connected to a signal processor arranged at a distance by a wiring cable or a network line. A millimeter-wave wireless transmission device (not shown) is provided around each sensor (described later in FIG. 2).

船舶10は主カメラ4の視野内で手前側に位置する。船舶11は、船舶10よりも主カメラ4の視野の奥行き方向に存在する。すなわち、船舶11は、船舶10に遮蔽されて主カメラ4視野内の死角領域に位置しており、主カメラ4からは存在確認ができない。 The ship 10 is located on the near side in the field of view of the main camera 4. The ship 11 exists in the depth direction of the visual field of the main camera 4 than the ship 10. That is, the ship 11 is shielded by the ship 10 and is located in a blind spot area in the field of view of the main camera 4, and it cannot be confirmed from the main camera 4.

図2はこの発明の実施の形態1による港湾監視システムの構成を示す図である。
アンテナ装置3はレーダ信号処理器20に接続され、レーダ信号処理器20はレーダ制御器21に接続されている。アンテナ装置3は所定の利得特性を有したビームを形成し、ビームのメインローブの方位角は一定となっている。レーダ信号処理器20は、アンテナ装置3から送信され目標で反射されたアンテナ装置3の受信信号に基いて、目標の距離・方位を検出する。レーダ制御器21は、回転台3bを回転駆動する。レーダ制御器21は回転台3bによって駆動されるアンテナ装置3の回転角を検出する。レーダ制御器21は、検出した回転角に基づいてレーダ信号処理器20で検出された目標の距離・方位・移動速度を、レーダ装置300に固定されたレーダ基準座標系に座標変換して、目標の距離・方位・移動速度を目標情報として出力する。
FIG. 2 is a diagram showing the configuration of the port monitoring system according to Embodiment 1 of the present invention.
The antenna device 3 is connected to a radar signal processor 20, and the radar signal processor 20 is connected to a radar controller 21. The antenna device 3 forms a beam having a predetermined gain characteristic, and the azimuth angle of the main lobe of the beam is constant. The radar signal processor 20 detects the target distance and direction based on the received signal of the antenna device 3 transmitted from the antenna device 3 and reflected by the target. The radar controller 21 rotationally drives the turntable 3b. The radar controller 21 detects the rotation angle of the antenna device 3 driven by the turntable 3b. The radar controller 21 converts the target distance, azimuth, and moving speed detected by the radar signal processor 20 into a radar reference coordinate system fixed to the radar apparatus 300 based on the detected rotation angle, and performs target conversion. Is output as target information.

レーダ制御器21にはミリ波無線伝送装置30が接続されている。アンテナ装置3は回転台3b上に回転自在に支持されており、垂直軸周りにアンテナ装置3を旋回駆動する。回転台3bは図1の支持塔22上に配置されている(図1では図示せず)。ミリ波無線伝送装置30はレーダ制御器21に接続され、レーダ制御器21からの目標情報を無線装置44に送信する。 A millimeter wave radio transmission device 30 is connected to the radar controller 21. The antenna device 3 is rotatably supported on the turntable 3b, and rotates the antenna device 3 around the vertical axis. The turntable 3b is disposed on the support tower 22 of FIG. 1 (not shown in FIG. 1). The millimeter wave wireless transmission device 30 is connected to the radar controller 21 and transmits target information from the radar controller 21 to the wireless device 44.

主カメラ4はカメラ制御器25に接続され、カメラ制御器25はミリ波無線伝送装置31に接続されている。主カメラ4で撮影された撮影画像は、カメラ制御器25を介してミリ波無線伝送装置31に送出される。主カメラ4はカメラ台5上の直交二軸に回転自在に支持されて、水平軸周りの回転角度である俯角(チルト)/垂直軸周りの回転角度である旋回角(パン)の2つの回転角を成して回転する。カメラ台5は図1の支持塔500上に配置されている(図1では図示せず)。
カメラ台5はカメラ制御器25によって駆動制御される。カメラ制御器25はカメラ台5の駆動に伴なう主カメラ4の姿勢角(俯角/旋回角)を検出して、主カメラ4の指向方向の角度(カメラ台5の設置位置を基準としたカメラ基準座標系に対するカメラ視軸の角度。基準座標系を主カメラ4の姿勢角に一致させている場合は俯角/旋回角)を計測する。ミリ波無線伝送装置31は、カメラ制御器25の撮影画像と、主カメラ4のズーム比とカメラ制御器25で検出される主カメラ4の指向方向の角度とを含むカメラ制御情報を、無線装置44に伝送する。
The main camera 4 is connected to the camera controller 25, and the camera controller 25 is connected to the millimeter wave wireless transmission device 31. A captured image captured by the main camera 4 is sent to the millimeter wave wireless transmission device 31 via the camera controller 25. The main camera 4 is rotatably supported by two orthogonal axes on the camera base 5 and is rotated in two rotations: a tilt angle that is a rotation angle around a horizontal axis and a turning angle that is a rotation angle around a vertical axis. Rotate at a corner. The camera base 5 is disposed on the support tower 500 of FIG. 1 (not shown in FIG. 1).
The camera base 5 is driven and controlled by a camera controller 25. The camera controller 25 detects the attitude angle (the depression angle / turning angle) of the main camera 4 as the camera base 5 is driven, and the angle in the direction of the main camera 4 (based on the installation position of the camera base 5) The angle of the camera visual axis with respect to the camera reference coordinate system, or the depression angle / turning angle when the reference coordinate system is matched with the attitude angle of the main camera 4 is measured. The millimeter-wave wireless transmission device 31 transmits camera control information including a photographed image of the camera controller 25, a zoom ratio of the main camera 4, and an angle of the directing direction of the main camera 4 detected by the camera controller 25 to the wireless device. 44.

副カメラ6はカメラ制御器26に接続され、カメラ制御器26はミリ波無線伝送装置32に接続されている。副カメラ6で撮影された撮影画像は、カメラ制御器26を介してミリ波無線伝送装置32に送出される。副カメラ6はカメラ台7上の直交二軸に回転自在に支持されて、水平軸周りの回転角度である俯角(チルト)/垂直軸周りの回転角度である旋回角(パン)の2つの回転角を成して回転する。カメラ台7は図1の支持塔700上に配置されている(図1では図示せず)。
副カメラ6はカメラ制御器26によって駆動制御され、カメラ制御器26はカメラ台7の駆動に伴なう副カメラ6の姿勢角(俯角/旋回角)を検出して副カメラ6の指向方向の角度(カメラ台7の設置位置を基準としたカメラ基準座標系に対するカメラ視軸の角度。基準座標系を副カメラ6の姿勢角に一致させている場合は俯角/旋回角)を計測する。ミリ波無線伝送装置32は、カメラ制御器26の撮影画像と、副カメラ6のズーム比とカメラ制御器26で検出される副カメラ6の指向方向の角度とを含むカメラ制御情報を、無線装置44に伝送する。
The sub camera 6 is connected to the camera controller 26, and the camera controller 26 is connected to the millimeter wave wireless transmission device 32. The captured image captured by the sub camera 6 is sent to the millimeter wave wireless transmission device 32 via the camera controller 26. The sub camera 6 is rotatably supported on two orthogonal axes on the camera base 7 and is rotated in two directions: a tilt angle (tilt) which is a rotation angle around a horizontal axis and a turning angle (pan) which is a rotation angle around a vertical axis. Rotate at a corner. The camera base 7 is disposed on the support tower 700 of FIG. 1 (not shown in FIG. 1).
The secondary camera 6 is driven and controlled by the camera controller 26, and the camera controller 26 detects the attitude angle (the depression angle / turning angle) of the secondary camera 6 with the driving of the camera base 7 and determines the orientation direction of the secondary camera 6. The angle (the angle of the camera visual axis with respect to the camera reference coordinate system with the installation position of the camera base 7 as a reference, or the depression angle / turning angle when the reference coordinate system matches the attitude angle of the sub camera 6) is measured. The millimeter-wave wireless transmission device 32 transmits camera control information including a captured image of the camera controller 26, a zoom ratio of the secondary camera 6, and an angle of the directing direction of the secondary camera 6 detected by the camera controller 26 to the wireless device. 44.

副カメラ8はカメラ制御器27に接続され、カメラ制御器27はミリ波無線伝送装置33に接続されている。副カメラ8で撮影された撮影画像は、カメラ制御器27を介してミリ波無線伝送装置33に送出する。副カメラ8はカメラ台9上の直交二軸に回転自在に支持されて、水平軸周りの回転角度である俯角(チルト)/垂直軸周りの回転角度である旋回角(パン)の2つの回転角を成して回転する。カメラ台9は図1の支持塔900上に配置されている(図1では図示せず)。
副カメラ8はカメラ制御器27によって駆動制御され、カメラ制御器27はカメラ台9の駆動に伴なう副カメラ8の姿勢角(俯角/旋回角)を検出して副カメラ8の指向方向の角度(カメラ台9の設置位置を基準としたカメラ基準座標系に対するカメラ視軸の角度。基準座標系を副カメラ8の姿勢角に一致させている場合は俯角/旋回角)を計測する。ミリ波無線伝送装置33は、カメラ制御器27の撮影画像と、副カメラ8のズーム比とカメラ制御器27で検出される副カメラ8の指向方向の角度とを含むカメラ制御情報を、無線装置44に伝送する。
The sub camera 8 is connected to the camera controller 27, and the camera controller 27 is connected to the millimeter wave wireless transmission device 33. The captured image captured by the sub camera 8 is sent to the millimeter wave wireless transmission device 33 via the camera controller 27. The sub camera 8 is rotatably supported by two orthogonal axes on the camera base 9 and is rotated in two directions: a tilt angle that is a rotation angle around a horizontal axis and a turning angle that is a rotation angle around a vertical axis. Rotate at a corner. The camera base 9 is disposed on the support tower 900 of FIG. 1 (not shown in FIG. 1).
The secondary camera 8 is driven and controlled by the camera controller 27. The camera controller 27 detects the attitude angle (the depression angle / turning angle) of the secondary camera 8 as the camera base 9 is driven, and determines the orientation direction of the secondary camera 8. The angle (the angle of the camera visual axis with respect to the camera reference coordinate system with the installation position of the camera base 9 as a reference. If the reference coordinate system is matched with the attitude angle of the sub camera 8, the depression angle / turning angle) is measured. The millimeter-wave wireless transmission device 33 transmits camera control information including a captured image of the camera controller 27, a zoom ratio of the secondary camera 8, and an angle in the direction of the secondary camera 8 detected by the camera controller 27 to the wireless device. 44.

無線装置44は、センサ系の各ミリ波無線伝送装置と無線通信で接続される。無線装置44は、ミリ波伝送装置40、41、42、43を備えており、夫々ミリ波伝送装置30、31、32、33に無線通信で接続されて伝送情報の送受信が行われる。無線装置44は信号処理器550に接続され、信号処理器550は表示装置62に接続される。ミリ波無線伝送装置は、例えば50GHz帯のミリ波を用いて無線通信を行うものであって、単位時間当たりの信号伝送量が多く、数km以内の短距離間での画像信号の伝送に適している。
ミリ波無線伝送装置は、音声信号と画像信号の2チャンネルで無線通信することができ、音声信号を利用して目標情報や各カメラの指向方向の角度などの制御情報を伝送することができる。
The wireless device 44 is connected to each millimeter wave wireless transmission device of the sensor system by wireless communication. The wireless device 44 includes millimeter wave transmission devices 40, 41, 42, and 43, which are connected to the millimeter wave transmission devices 30, 31, 32, and 33 by wireless communication, and transmit and receive transmission information. The wireless device 44 is connected to the signal processor 550, and the signal processor 550 is connected to the display device 62. The millimeter-wave wireless transmission device performs wireless communication using, for example, a 50 GHz-band millimeter wave, has a large amount of signal transmission per unit time, and is suitable for image signal transmission within a short distance of several kilometers. ing.
The millimeter wave wireless transmission apparatus can wirelessly communicate with two channels of an audio signal and an image signal, and can transmit control information such as target information and an angle in the direction of each camera using the audio signal.

入力部61はマウスやボタンやキーボードなどの入力部品で構成され、信号処理器550に入力情報を入力する。また、入力部61は表示装置62に、カーソル位置やボタンの選択有無などの表示用の情報を入力する。また、各カメラの指向方向を所望の方向に移動させて、ズーム比を所望の大きさとするように、各カメラとカメラ台をマニュアル操作するための指定情報を入力することができる。
地図データベース60は港湾1の地図データが格納されており、突堤の位置、領域、各センサ位置などの情報が事前に格納されている。
表示装置62は、複数の画面表示ディスプレイを有しており、地図情報や入力部61の入力情報、船舶の位置、各センサのセンシング領域(レーダの方位角やカメラの視野角範囲など)の表示や、各カメラの撮影画像の表示を行う。
The input unit 61 includes input parts such as a mouse, buttons, and a keyboard, and inputs input information to the signal processor 550. Further, the input unit 61 inputs display information such as the cursor position and the presence / absence of button selection to the display device 62. Also, designation information for manually operating each camera and camera stand can be input so that the directivity direction of each camera is moved to a desired direction and the zoom ratio is set to a desired size.
The map database 60 stores map data of the port 1, and stores information such as the position of the jetty, the area, and the position of each sensor in advance.
The display device 62 has a plurality of screen display displays, and displays map information, input information of the input unit 61, ship position, sensing area of each sensor (radar azimuth angle, camera viewing angle range, etc.). Also, the captured image of each camera is displayed.

図3は信号処理器、および表示装置の構成を示す図である。
図において、信号処理器550は、画像処理器52a、52b、52cを備えている。各画像処理器52a、52b、52cは、夫々ミリ波無線伝送装置41、42、43で受信した撮影画像に基づいて、画像処理を行う。この撮影画像は、所定のフレームレート(1/30秒)を有したビデオ信号を構成している。画像処理器52a、52b、52cで画像処理されて得られた目標画像情報は、追尾処理器53a、53b、53cに伝送される。また、ミリ波無線伝送装置41、42、43で受信した撮影画像は、表示処理器54a、54b、54cに直接送出される。
FIG. 3 is a diagram showing the configuration of the signal processor and the display device.
In the figure, the signal processor 550 includes image processors 52a, 52b, and 52c. Each of the image processors 52a, 52b, and 52c performs image processing based on the captured images received by the millimeter wave wireless transmission devices 41, 42, and 43, respectively. This captured image constitutes a video signal having a predetermined frame rate (1/30 second). The target image information obtained by image processing by the image processors 52a, 52b, and 52c is transmitted to the tracking processors 53a, 53b, and 53c. The captured images received by the millimeter wave wireless transmission devices 41, 42, 43 are directly sent to the display processors 54a, 54b, 54c.

制御器50は、画像処理器52a、52b、52cからの目標画像情報を演算器51に送出する。また、制御器50は、ミリ波無線伝送装置41、42、43で受信した各カメラの指向方向の角度、ズーム比を含むカメラ制御情報を、演算器51に送出する。
制御器50は、ミリ波無線伝送装置40で受信した目標情報を受信し、演算器51に送出する。
演算器51には、予めレーダ装置300の設置位置とその基準座標系、主カメラ4の設置位置とその基準座標系、副カメラ6の設置位置とその基準座標系、副カメラ8の設置位置とその基準座標系等の座標情報が設定されている。
The controller 50 sends the target image information from the image processors 52a, 52b, and 52c to the computing unit 51. In addition, the controller 50 sends camera control information including the angle of the directivity direction of each camera and the zoom ratio received by the millimeter-wave wireless transmission devices 41, 42, and 43 to the calculator 51.
The controller 50 receives the target information received by the millimeter wave wireless transmission device 40 and sends it to the computing unit 51.
The computing unit 51 includes an installation position of the radar device 300 and its reference coordinate system, an installation position of the main camera 4 and its reference coordinate system, an installation position of the secondary camera 6 and its reference coordinate system, and an installation position of the secondary camera 8. Coordinate information such as the reference coordinate system is set.

この座標情報に基づいて、演算器51では所定の演算処理が行われて、各種情報をシステム座標系の座標値で表現する。例えば、目標方向・目標までの距離・目標移動方向等の目標情報と、各カメラで計測されたカメラの指向方向の角度・ズーム比などのカメラ制御情報を、システム座標系に座標変換する。また、演算器51は、カメラのズーム比に基づいてカメラの視野角範囲を演算する。例えば、ズーム比が1倍のときにカメラの視野角範囲φ=30°(指向方向基準の視野角は±15°)であるので、ミリ波無線伝送装置41、42、43で受信したカメラ制御情報中のズーム比wで除算することによって、視野角範囲をφ=φ/wとして求めることができる。 Based on this coordinate information, the calculator 51 performs a predetermined calculation process, and expresses various types of information as coordinate values in the system coordinate system. For example, the target information such as the target direction, the distance to the target, the target moving direction, and the camera control information such as the angle of the direction of the camera and the zoom ratio measured by each camera are coordinate-converted into the system coordinate system. The calculator 51 calculates the viewing angle range of the camera based on the zoom ratio of the camera. For example, since the viewing angle range of the camera is φ 0 = 30 ° when the zoom ratio is 1 (the viewing angle based on the pointing direction is ± 15 °), the cameras received by the millimeter wave wireless transmission devices 41, 42, and 43 By dividing by the zoom ratio w in the control information, the viewing angle range can be obtained as φ = φ 0 / w.

演算器51は、目標情報をシステム座標系から各カメラのカメラ基準座標に座標変換して、座標変換したカメラ基準座標での目標情報を、制御器50に送出する。
演算器51は、演算処理したシステム座標系基準の目標情報及びカメラ情報を、制御器50経由で追尾処理器53a、53b、53cと、地図表示部71に伝送する。
制御器50は、各カメラのカメラ基準座標での目標情報を、無線装置44を経由して各ミリ波無線伝送装置31、32、33に送出する。
また、制御器50は、各カメラの指向方向とズーム比を設定するためのカメラ制御目標情報を生成する。生成したカメラ制御目標情報の指向方向を各カメラのカメラ基準座標で座標変換して、座標変換した指向方向を含むカメラ制御目標情報を、無線装置44を経由して、各ミリ波無線伝送装置31、32、33に送出する。
The computing unit 51 converts the target information from the system coordinate system to the camera reference coordinates of each camera, and sends the target information at the camera reference coordinates after the coordinate conversion to the controller 50.
The computing unit 51 transmits the computed system coordinate system reference target information and camera information to the tracking processing units 53 a, 53 b, 53 c and the map display unit 71 via the controller 50.
The controller 50 sends target information at the camera reference coordinates of each camera to each millimeter-wave wireless transmission device 31, 32, 33 via the wireless device 44.
The controller 50 also generates camera control target information for setting the directivity direction and zoom ratio of each camera. The direction of the generated camera control target information is coordinate-converted with the camera reference coordinates of each camera, and the camera control target information including the coordinate-directed direction of orientation is transmitted to each millimeter-wave wireless transmission device 31 via the wireless device 44. , 32, 33.

追尾処理器53a、53b、53cは、画像処理器52a、52b、52cで取得された目標画像情報に基づいて、目標の追尾処理を行う。追尾対象は、入力部61の入力情報に基づいて、選択回路55によって適宜設定される。
追尾処理では、現在の目標画像のマッチングパターンを形成し記憶する。同時に、目標画像の重心位置を計算する。そして、次のフレーム時間での画像信号中の目標画像と、記憶されたマッチングパターンとの間で、相関性を加味したパターンマッチング処理を行う。これによって、目標画像を追尾する。同時に、次のフレーム時間での目標画像の重心位置を計算して、漸次重心位置を演算する。演算された重心位置情報は制御器50に出力される。なお、追尾処理に際して各種追尾フィルターを用いても良いことは言うまでもない。
制御器50は、重心位置情報に基づいて各カメラ基準座標での指向方向を設定し、設定された指向方向を、各カメラ制御器に対してカメラ制御目標情報として伝送する。各カメラ制御器は当該カメラ制御目標情報中の指向方向を向くように、指向方向を制御する。
追尾処理器53a、53b、53cは、過去のフレーム時間と現在のフレーム時間との重心位置の移動量が、所定範囲内であった場合は、追尾が外れていないと判断して、そのまま追尾を続行する。また、過去のフレーム時間と現在のフレーム時間との重心位置の移動量が、所定範囲(所定の許容追尾誤差範囲)外であった場合は、追尾外れが生じていると判断する。
また、追尾処理器53a、53b、53cで演算された重心位置は、追尾目標位置情報として、地図表示部71に送出される。
The tracking processors 53a, 53b, and 53c perform target tracking processing based on the target image information acquired by the image processors 52a, 52b, and 52c. The tracking target is appropriately set by the selection circuit 55 based on the input information of the input unit 61.
In the tracking process, a matching pattern of the current target image is formed and stored. At the same time, the center of gravity position of the target image is calculated. Then, a pattern matching process taking into account the correlation is performed between the target image in the image signal at the next frame time and the stored matching pattern. Thus, the target image is tracked. At the same time, the centroid position of the target image at the next frame time is calculated, and the gradual centroid position is calculated. The calculated barycentric position information is output to the controller 50. Needless to say, various tracking filters may be used in the tracking process.
The controller 50 sets a directivity direction at each camera reference coordinate based on the gravity center position information, and transmits the set directivity direction as camera control target information to each camera controller. Each camera controller controls the directivity direction so as to face the directivity direction in the camera control target information.
The tracking processors 53a, 53b, and 53c determine that tracking is not off when the movement amount of the center of gravity position between the past frame time and the current frame time is within a predetermined range, and perform tracking as it is. continue. Further, if the amount of movement of the center of gravity position between the past frame time and the current frame time is outside the predetermined range (predetermined allowable tracking error range), it is determined that the tracking error has occurred.
Further, the barycentric position calculated by the tracking processors 53a, 53b, 53c is sent to the map display unit 71 as tracking target position information.

地図表示部71は、制御器50を介して地図データベース60に格納された地図情報が表示される。地図データベース60には、各センサ位置と、突堤の位置と形状図、及び突堤の面する港湾内の水域とが、色分けされて表示される。また、地図データベース60には、実際の港湾内の水域の位置と、地図上の対応位置との縮尺比率が格納されている。地図表示部71は、システム座標系での目標の座標値を入力することによって、地図上の対応する縮尺された位置が表示されるように成されている。地図表示部71は、制御器50から送られた目標情報及びカメラ情報に基づいて、画面表示用の表示情報を生成して、生成画面を画面表示する。
表示装置72は表示部72a、72b、72cで構成される。表示処理器54a、54b、54cは、夫々ミリ波無線伝送装置41、42、43から送出された撮影画像を表示処理し、表示部72a、72b、72cに画面表示する。
The map display unit 71 displays map information stored in the map database 60 via the controller 50. In the map database 60, each sensor position, the position and shape of the jetty, and the water area in the harbor facing the jetty are displayed in different colors. Further, the map database 60 stores the scale ratio between the actual position of the water area in the harbor and the corresponding position on the map. The map display unit 71 is configured to display a corresponding scaled position on the map by inputting a target coordinate value in the system coordinate system. The map display unit 71 generates display information for screen display based on the target information and camera information sent from the controller 50 and displays the generated screen on the screen.
The display device 72 includes display units 72a, 72b, and 72c. The display processors 54a, 54b, and 54c display the captured images sent from the millimeter wave wireless transmission devices 41, 42, and 43, respectively, and display them on the display units 72a, 72b, and 72c.

なお、画像処理器を1台の構成として、ミリ波無線伝送装置40、41、42、43から受信する画像情報を時分割で処理し、制御器50や画像処理器52a、52b、52c、及び表示処理器54a、54b、54cに伝送しても良い。   The image processor is configured as a single unit, and the image information received from the millimeter wave wireless transmission devices 40, 41, 42, 43 is processed in a time-sharing manner, and the controller 50 and the image processors 52a, 52b, 52c, and You may transmit to display processor 54a, 54b, 54c.

次に、図2、図3について各構成の動作について説明する。
アンテナ装置3は、回転台3bのアクチュエータに回転駆動されて一定の回転速度で正転/反転し、目標を捜索する。アンテナ装置3から送信電波が出力され、港湾内及び周辺の水域を航行中の船舶で送信電波が反射して、反射波がアンテナ装置3に再入射し受信される。レーダ信号処理器20は、アンテナ装置3の受信信号についてモノパルス測角処理を行って目標方向(方位)を計測し、送信パルスの送信から受信までの時間に基づいて目標までの距離を計測する。また、受信信号中のドップラー周波数を検波することによって、目標の速度を計測する。
Next, the operation of each component will be described with reference to FIGS.
The antenna device 3 is driven to rotate by the actuator of the turntable 3b and rotates forward / reversely at a constant rotational speed to search for a target. A transmission radio wave is output from the antenna device 3, the transmission radio wave is reflected by a ship that is navigating in and around the harbor, and the reflected wave is incident again on the antenna device 3 and received. The radar signal processor 20 performs monopulse angle measurement processing on the received signal of the antenna device 3 to measure the target direction (orientation), and measures the distance to the target based on the time from transmission pulse transmission to reception. Further, the target speed is measured by detecting the Doppler frequency in the received signal.

これによって、目標までの距離、目標の存在方向、目標の移動速度を計測することができる。レーダ制御器21は、回転台3bのアクチュエータを駆動して回転角度を検出する。また、レーダ制御器21は、レーダ装置300に固定された座標系を基底として回転台3bの回転角度を用いることによって方向余弦行列を生成し、レーダ信号処理器20で計測された目標の方位・移動速度の方向ベクトルを座標変換するとともに、距離と方位に基づいて位置座標を生成することによって、レーダ装置300の固定座標系を基準とした目標方向・目標までの距離・移動速度の目標情報を得る。ミリ波無線伝送装置30は、レーダ制御器21で得られた目標情報を無線装置44に送信し、送信情報が信号処理器550に入力される。
なお、アンテナ装置3の距離分解能は、50m以下であることが望ましい。これによって、異なる船舶が隣接して航行していても、50m以上離れている船舶同士を識別することができる。また、副カメラ6、副カメラ8の視野角が倍率1倍で30度であるとした場合、500m先の船舶を5倍の倍率で見ても、50m以内に隣接する船舶を視野角内に納めることができる。
As a result, the distance to the target, the direction in which the target exists, and the moving speed of the target can be measured. The radar controller 21 detects the rotation angle by driving the actuator of the turntable 3b. Further, the radar controller 21 generates a direction cosine matrix by using the rotation angle of the turntable 3b with the coordinate system fixed to the radar apparatus 300 as a base, and the target direction / measurement measured by the radar signal processor 20 is generated. By converting the direction vector of the moving speed and generating position coordinates based on the distance and azimuth, the target information of the target direction / distance to the target / moving speed based on the fixed coordinate system of the radar apparatus 300 is obtained. obtain. The millimeter wave radio transmission apparatus 30 transmits the target information obtained by the radar controller 21 to the radio apparatus 44, and the transmission information is input to the signal processor 550.
The distance resolution of the antenna device 3 is desirably 50 m or less. Thereby, even if different ships are navigating adjacent to each other, ships that are separated by 50 m or more can be identified. Also, assuming that the viewing angle of the sub camera 6 and the sub camera 8 is 30 degrees at a magnification of 1 time, even if a ship 500 m ahead is viewed at a magnification of 5 times, adjacent ships within 50 m are within the viewing angle. Can be paid.

信号処理器550では、レーダ制御器21で得られた目標情報が制御器50に入力されると、制御器50は演算器51に入力情報を送出する。演算器51は、予め設定されたレーダ装置300のレーダ基準座標系(直交座標系)の情報と、システム座標系(直交座標系)の情報に基づいて、座標変換行列(レーダ基準座標系とシステム座標系との方向余弦行列)を生成する。生成された座標変換行列とレーダ装置300の設置位置情報に基づいて、目標情報中の目標方向をシステム座標系で表現する。   In the signal processor 550, when the target information obtained by the radar controller 21 is input to the controller 50, the controller 50 sends the input information to the calculator 51. The computing unit 51 generates a coordinate transformation matrix (radar reference coordinate system and system) based on information on the radar reference coordinate system (orthogonal coordinate system) of the radar apparatus 300 and information on the system coordinate system (orthogonal coordinate system). Direction cosine matrix). Based on the generated coordinate transformation matrix and the installation position information of the radar apparatus 300, the target direction in the target information is expressed in the system coordinate system.

次に、演算器51は、予め設定された主カメラ4のカメラ座標系(直交座標系)の情報と、システム座標系(直交座標系)の情報に基づいて、座標変換行列(カメラ座標系とシステム座標系との方向余弦行列)を生成する。生成された座標変換行列に基づいて、システム座標系を基底とする目標方向pを、主カメラ4のカメラ座標系で表現する。主カメラ4はレーダ装置300に近接配置されているので、レーダ装置300の目標方向と主カメラ4の目標方向がほぼ一致していると見なす。また、演算器51は、無線装置44の受信したカメラ制御情報中の主カメラ4のズーム比と目標情報中の目標までの距離とに基づいて、画像内に目標を捉えるようにカメラに設定すべきズーム比gを演算する。例えば、船舶の大きさを最大で100mとしたときには、ズーム比gをg=15°/tan−1(50m/目標までの距離Lm)の倍率に設定する。これによって、主カメラ4は画面内に目標画像を捉える。図1に示す例では、主カメラ4は船舶10を目標画像として捉える。同時に、ズーム比gによって、主カメラ4の視野角範囲をφ1=φ/gとして求める。 Next, the computing unit 51 determines a coordinate transformation matrix (camera coordinate system and the camera coordinate system) based on information on the camera coordinate system (orthogonal coordinate system) of the main camera 4 set in advance and information on the system coordinate system (orthogonal coordinate system). Generate a direction cosine matrix with the system coordinate system. Based on the generated coordinate transformation matrix, the target direction p based on the system coordinate system is expressed in the camera coordinate system of the main camera 4. Since the main camera 4 is disposed close to the radar apparatus 300, it is considered that the target direction of the radar apparatus 300 and the target direction of the main camera 4 substantially coincide. The computing unit 51 sets the camera to capture the target in the image based on the zoom ratio of the main camera 4 in the camera control information received by the wireless device 44 and the distance to the target in the target information. The power zoom ratio g is calculated. For example, when the maximum size of the ship is 100 m, the zoom ratio g is set to a magnification of g = 15 ° / tan −1 (50 m / distance Lm to the target). As a result, the main camera 4 captures the target image in the screen. In the example illustrated in FIG. 1, the main camera 4 captures the ship 10 as a target image. At the same time, the viewing angle range of the main camera 4 is obtained as φ1 = φ 0 / g by the zoom ratio g.

制御器50は、演算器51で演算された、主カメラ4のカメラ座標系で表現された目標方向pとズーム比gとを、カメラ制御目標情報として、無線装置44およびミリ波無線伝送装置31を介してカメラ制御器25に送出する。カメラ制御器25は、カメラ台5を駆動制御して主カメラ4の指向方向を目標方向に向けるように制御する。
操作者は、入力部61に主カメラ4とカメラ台5とをマニュアル操作するための指定情報を入力することができる。この指定情報の入力によって、主カメラ4のズーム比を適宜調整し、主カメラ4をズーミングして目標画像を表示部72aの画面内に捉えるようにする。
The controller 50 uses the target direction p and the zoom ratio g expressed in the camera coordinate system of the main camera 4 calculated by the calculator 51 as camera control target information, and the wireless device 44 and the millimeter wave wireless transmission device 31. To the camera controller 25. The camera controller 25 controls the camera base 5 so as to direct the directivity direction of the main camera 4 to the target direction.
The operator can input designation information for manually operating the main camera 4 and the camera base 5 to the input unit 61. By inputting the designation information, the zoom ratio of the main camera 4 is appropriately adjusted, and the main camera 4 is zoomed so that the target image is captured in the screen of the display unit 72a.

主カメラ4で捉えた船舶10の画像は、カメラ制御器25、ミリ波無線伝送装置31、及びミリ波無線伝送装置41を介して、画像処理器52aに入力される。画像処理器52aでは、主カメラ4の撮影画像について、二値化処理、エッジ抽出処理、鮮鋭化処理などの各種画像フィルタリング処理を行うことによって、目標画像を抽出する。抽出された目標画像の重心を算出することによって、カメラ基準座標系での目標方向を算定する。算定された目標方向は制御器50に送出される。先にレーダ装置300から得られた目標までの距離が所定値(例えば1000m)以下の近距離である場合、画像処理器52aからの目標方向に基づいて、演算器51でシステム座標基準における目標位置が演算される。
また、主カメラ4で捉えた船舶10の画像は、表示処理器54aに入力される。表示処理器54aでは、船舶10の画像を表示する。
更に、制御器50は、演算された目標位置を地図表示部71上に表示する。このとき、制御器50は目標位置を地図表示部71に入力することによって、地図表示部71は、表示する地図上で対応する目標の位置を、船舶を示す記号を用いて地図表示部71上に表示する。
The image of the ship 10 captured by the main camera 4 is input to the image processor 52a via the camera controller 25, the millimeter wave wireless transmission device 31, and the millimeter wave wireless transmission device 41. The image processor 52a extracts a target image by performing various image filtering processes such as a binarization process, an edge extraction process, and a sharpening process on the captured image of the main camera 4. The target direction in the camera reference coordinate system is calculated by calculating the center of gravity of the extracted target image. The calculated target direction is sent to the controller 50. When the distance to the target previously obtained from the radar apparatus 300 is a short distance equal to or less than a predetermined value (for example, 1000 m), based on the target direction from the image processor 52a, the computing unit 51 uses the target position in the system coordinate reference. Is calculated.
The image of the ship 10 captured by the main camera 4 is input to the display processor 54a. The display processor 54a displays an image of the ship 10.
Further, the controller 50 displays the calculated target position on the map display unit 71. At this time, the controller 50 inputs the target position to the map display unit 71, so that the map display unit 71 displays the corresponding target position on the map to be displayed on the map display unit 71 using a symbol indicating a ship. To display.

図4を用いて目標の位置演算の計算例を示す。図4(a)は主カメラ4による目標方向を示した斜視図、図4(b)は上面図である。カメラ座標系での目標方向が俯角E、旋回角Bとして表現される場合、海面高さが0m、主カメラ4の設置高さがHmとすると、主カメラ4のカメラ基準座標系での目標位置座標(図の例では船舶10の位置座標)は、図4(a)、(b)に示したX、Y座標を用いて、
X=tan(90°−E)×cosB (1)
Y=tan(90°−E)×sinB (2)
式(1)、(2)によって演算される。
A calculation example of target position calculation will be described with reference to FIG. 4A is a perspective view showing a target direction by the main camera 4, and FIG. 4B is a top view. When the target direction in the camera coordinate system is expressed as a depression angle E and a turning angle B, assuming that the sea level is 0 m and the installation height of the main camera 4 is Hm, the target position of the main camera 4 in the camera reference coordinate system The coordinates (position coordinates of the ship 10 in the example of the figure) are the X and Y coordinates shown in FIGS. 4 (a) and 4 (b).
X = tan (90 ° -E) × cosB (1)
Y = tan (90 ° -E) × sinB (2)
Calculation is performed by equations (1) and (2).

また、図5はシステム座標系で見たカメラ座標系の位置を示す図である。ここで、システム座標系とカメラ座標系の座標変換行列をCとし、主カメラ4のカメラ座標系での目標位置R=(X、Y)とすると、システム座標系での目標位置ベクトルrは、
r2=C
r=r1+r2
で演算される。但し、r1はシステム座標系での主カメラ4の位置ベクトル、r2は主カメラ4に対する目標位置ベクトル、Rは目標位置座標Rの転置行列である。
FIG. 5 is a diagram showing the position of the camera coordinate system viewed in the system coordinate system. Here, if the coordinate transformation matrix between the system coordinate system and the camera coordinate system is C, and the target position R = (X, Y) in the camera coordinate system of the main camera 4, the target position vector r in the system coordinate system is
r2 = C t R
r = r1 + r2
Calculated with Here, r1 is a position vector of the main camera 4 in the system coordinate system, r2 is a target position vector with respect to the main camera 4, and tR is a transposed matrix of the target position coordinates R.

次に、制御器50は主カメラ4の目標方向と指向方向とが直交するカメラを選択する。
ここでは、次のように演算処理が成される。
演算器51は、予め設定された副カメラ6のカメラ座標系(直交座標系)の情報と、システム座標系(直交座標系)の情報に基づいて、座標変換行列(カメラ座標系とシステム座標系との方向余弦行列)を生成する。また、目標(船舶10)位置と副カメラ6との位置差と、システム座標系と副カメラ6のカメラ座標系との座標変換行列に基づいて、システム座標系を基底とする目標方向を、副カメラ6のカメラ座標系で表現する。すなわち、目標位置を視野に捉えるための副カメラ6の指向方向を設定する。
Next, the controller 50 selects a camera in which the target direction of the main camera 4 and the directivity direction are orthogonal.
Here, the arithmetic processing is performed as follows.
The computing unit 51 generates a coordinate transformation matrix (camera coordinate system and system coordinate system) based on information on the camera coordinate system (orthogonal coordinate system) of the sub camera 6 set in advance and information on the system coordinate system (orthogonal coordinate system). Direction cosine matrix). Further, based on the position difference between the target (ship 10) position and the sub camera 6, and the coordinate transformation matrix between the system coordinate system and the camera coordinate system of the sub camera 6, the target direction based on the system coordinate system is determined as the sub direction. This is expressed in the camera coordinate system of the camera 6. That is, the orientation direction of the sub camera 6 for setting the target position in the field of view is set.

例えば、演算器51は図5で図示するベクトル演算処理を行う。
ここでは、目標位置ベクトル(座標)rと副カメラ6の位置ベクトル(座標)r3から、副カメラ6に対する目標位置ベクトル(座標)r4を、r4=r−r3として算出する。
このとき、副カメラ6に対する目標位置ベクトルr4と、主カメラ4に対する目標位置ベクトルr2の成す角度を求めると、例えば成す角θ1=60°となる。
For example, the calculator 51 performs the vector calculation process illustrated in FIG.
Here, the target position vector (coordinate) r4 for the sub camera 6 is calculated as r4 = r−r3 from the target position vector (coordinate) r and the position vector (coordinate) r3 of the sub camera 6.
At this time, when the angle formed by the target position vector r4 for the sub camera 6 and the target position vector r2 for the main camera 4 is obtained, for example, the formed angle θ1 = 60 °.

次に、同様にして、演算器51は、予め設定された副カメラ6のカメラ座標系(直交座標系)の情報と、システム座標系(直交座標系)の情報に基づいて、座標変換行列(カメラ座標系とシステム座標系との方向余弦行列)を生成する。また、目標位置と副カメラ6との位置差と、上述の生成した座標変換行列に基づいて、システム座標系を基底とする目標方向を、副カメラ6のカメラ座標系で表現する。   Next, in the same manner, the computing unit 51 determines a coordinate transformation matrix (based on the information of the preset camera coordinate system (orthogonal coordinate system) and the information of the system coordinate system (orthogonal coordinate system). (Cosine matrix of camera coordinate system and system coordinate system) is generated. Further, the target direction based on the system coordinate system is expressed in the camera coordinate system of the sub camera 6 based on the position difference between the target position and the sub camera 6 and the coordinate conversion matrix generated as described above.

例えば、図5に示すように演算器51が演算を行う。
ここでは、目標位置ベクトル(座標)rと副カメラ8の位置ベクトル(座標)r6から、副カメラ8に対する目標位置ベクトル(座標)r5を、r5=r−r6として算出する。
このとき、副カメラ8に対する目標位置ベクトルr5と主カメラ4に対する目標位置ベクトルr2の成す角度を求めると、例えば成す角θ2=100°となる。
For example, as shown in FIG. 5, the calculator 51 performs the calculation.
Here, the target position vector (coordinate) r5 for the sub camera 8 is calculated as r5 = r−r6 from the target position vector (coordinate) r and the position vector (coordinate) r6 of the sub camera 8.
At this time, when the angle formed by the target position vector r5 for the sub camera 8 and the target position vector r2 for the main camera 4 is obtained, for example, the formed angle θ2 = 100 °.

制御器50は、演算器51の演算結果に基づいて、主カメラ4から見た目標の方向と副カメラ6から見た目標の方向との成す角θ1よりも、主カメラ4から見た目標の方向と副カメラ8から見た目標の方向との成す角θ2の方が、直交(90°)に近いことを判定する。
これによって、制御器51は副カメラ8を選択して、副カメラ8の視野内に目標を捉える。このとき、システム座標系と副カメラ8のカメラ基準座標系との座標変換行列Cを用いて、得られたr5から、副カメラ6から見た目標方向をCr5として算定する。
なお、所定のカメラを選択した場合、画像枠に色を付ける、画像を点滅させる、画像を大きくするなどの画像表示処理を行って、選択した副カメラの画像を、他の副カメラの画像と識別のできる情報を、画像中もしくは専用表示器に表示すると良い。
Based on the calculation result of the calculator 51, the controller 50 determines the target direction and the sub direction viewed from the main camera 4 rather than the angle θ <b> 1 between the target direction viewed from the main camera 4 and the target direction viewed from the sub camera 6. It is determined that the angle θ2 formed with the target direction viewed from the camera 8 is closer to orthogonal (90 °).
As a result, the controller 51 selects the sub camera 8 and captures the target within the field of view of the sub camera 8. At this time, using the coordinate transformation matrix C 2 of the system coordinate system and a camera reference coordinate system of the sub-camera 8, from the resulting r5, it calculates the target direction as seen from the sub camera 6 as a C 2 r5.
When a predetermined camera is selected, image display processing such as adding a color to the image frame, blinking the image, or enlarging the image is performed, and the image of the selected sub camera is changed to the image of the other sub camera. Information that can be identified is preferably displayed in an image or on a dedicated display.

制御器50は、演算器51で演算された、副カメラ8のカメラ座標系で表現された目標方向を、ミリ波無線伝送装置43およびミリ波無線伝送装置33を介して、カメラ制御器27に送出する。カメラ制御器27は、カメラ台7を駆動制御して副カメラ8の指向方向を目標方向に向けるように制御する。これによって、副カメラ8は目標画像を取得する。副カメラ8の取得画像は、ミリ波無線伝送装置33およびミリ波無線伝送装置43を介して、画像処理器52cに送出される。画像処理器52cでは目標画像から目標の位置、目標の重心位置、目標の大きさなどの画像情報を取得する。
ここで、目標の位置を算定するときは、図4(a)、図4(b)で説明した内容と同様に、カメラ座標系での目標位置を算定する。この場合、副カメラ8に対応したカメラ制御情報から副カメラ8の指向方向を得て、目標方向を俯角E、旋回角Bとする。この目標方向について、上述の式(1)、(2)を用いて、目標位置座標(すなわち、船舶11の位置座標)を算定すれば良い。
なお、副カメラ8から船舶11までの距離が所定値(例えば1000m)を超える場合は、副カメラ6で船舶11を捉え、副カメラ6と副カメラ8の指向方向の交点から船舶11の位置を算定して、位置算定精度を向上させることができる(これについては、図9の説明で後述する)。
The controller 50 sends the target direction calculated by the calculator 51 and expressed in the camera coordinate system of the sub camera 8 to the camera controller 27 via the millimeter wave wireless transmission device 43 and the millimeter wave wireless transmission device 33. Send it out. The camera controller 27 controls the camera base 7 so as to direct the direction of the sub camera 8 in the target direction. Thereby, the sub camera 8 acquires the target image. The acquired image of the sub camera 8 is sent to the image processor 52c via the millimeter wave wireless transmission device 33 and the millimeter wave wireless transmission device 43. The image processor 52c acquires image information such as a target position, a target center-of-gravity position, and a target size from the target image.
Here, when the target position is calculated, the target position in the camera coordinate system is calculated in the same manner as described with reference to FIGS. 4 (a) and 4 (b). In this case, the orientation direction of the sub camera 8 is obtained from the camera control information corresponding to the sub camera 8, and the target direction is set as the depression angle E and the turning angle B. About this target direction, what is necessary is just to calculate a target position coordinate (namely, position coordinate of the ship 11) using above-mentioned Formula (1), (2).
In addition, when the distance from the sub camera 8 to the ship 11 exceeds a predetermined value (for example, 1000 m), the ship 11 is captured by the sub camera 6 and the position of the ship 11 is determined from the intersection of the orientation directions of the sub camera 6 and the sub camera 8. The position calculation accuracy can be improved by calculating (this will be described later in the description of FIG. 9).

図1に示す例では、副カメラ8は船舶10を目標画像として捉える。このとき、副カメラ8は船舶10の方向から、主カメラ4の視野の奥行へ向かう水平方向へ、所定の角度分(例えば30°)だけ指向方向を移動させる。この際、主カメラ4の奥行き方向は、副カメラ8に対する目標位置ベクトル(r5)が主カメラ4に対して目標位置ベクトル(r2)の方向へ移動するように、回転角度を設定すれば良い。例えば、ベクトルr2×ベクトルr5=絶対値(r2)×絶対値(r5)×sinθ2とした場合に、θ2を小さくする方向に回転させる。   In the example illustrated in FIG. 1, the sub camera 8 captures the ship 10 as a target image. At this time, the sub camera 8 moves the pointing direction by a predetermined angle (for example, 30 °) from the direction of the ship 10 to the horizontal direction toward the depth of the visual field of the main camera 4. At this time, the depth direction of the main camera 4 may be set so that the target position vector (r5) for the sub camera 8 moves in the direction of the target position vector (r2) with respect to the main camera 4. For example, when vector r2 × vector r5 = absolute value (r2) × absolute value (r5) × sin θ2, the rotation is performed in the direction of decreasing θ2.

これによって、船舶10に遮蔽されて主カメラ4の視野内に入らずに、船舶10から所定距離(例えば300m)だけ離れた位置で航行中の船舶11を、目標として捉えることができる。この際、表示部72cに表示される副カメラ8の画像情報に基づいて、操作者が船舶10の後ろに存在する船舶11の存在を見つける。
また、操作者は副カメラ8のズーム比を適宜調整して、船舶11を画面内一杯に捉えるようにする。この調整は、入力部61に副カメラ8のズーム比を入力することによって、適宜成される。この調整が成された後、操作者は入力部61に適宜設けられた指定完了指示キーを押下することによって、船舶10の死角に存在する船舶を捕捉する操作が完了したことを示す、副カメラの指定完了通知を制御器50に対して伝達する。
また、演算器51は、無線装置44の受信したカメラ制御情報中の副カメラ8のズーム比と目標情報中の目標までの距離とに基づいて、画像内に目標を捉えるようにカメラに設定すべきズーム比gを演算しても良い。例えば、船舶の大きさを最大で100mとしたときには、ズーム比gをg=15°/tan−1(50m/目標までの距離Lm)の倍率に設定する。これによって、副カメラ8は画面内に目標画像を捉える。
ズーム比が設定されると、ズーム比gによって副カメラ8の視野角範囲をφ2=φ/gとして求める。
Accordingly, the ship 11 that is navigating at a position away from the ship 10 by a predetermined distance (for example, 300 m) without being shielded by the ship 10 and entering the field of view of the main camera 4 can be recognized as a target. At this time, the operator finds the presence of the ship 11 existing behind the ship 10 based on the image information of the sub camera 8 displayed on the display unit 72c.
In addition, the operator adjusts the zoom ratio of the sub camera 8 as appropriate so that the ship 11 is fully captured in the screen. This adjustment is appropriately performed by inputting the zoom ratio of the sub camera 8 to the input unit 61. After this adjustment is made, the operator depresses a designation completion instruction key appropriately provided in the input unit 61 to indicate that the operation for capturing the ship existing in the blind spot of the ship 10 is completed. Is transmitted to the controller 50.
The computing unit 51 sets the camera to capture the target in the image based on the zoom ratio of the sub camera 8 in the camera control information received by the wireless device 44 and the distance to the target in the target information. The power zoom ratio g may be calculated. For example, when the maximum size of the ship is 100 m, the zoom ratio g is set to a magnification of g = 15 ° / tan −1 (50 m / distance Lm to the target). Thereby, the sub camera 8 captures the target image in the screen.
When the zoom ratio is set, the viewing angle range of the sub camera 8 is obtained as φ2 = φ 0 / g based on the zoom ratio g.

次に、制御器50は、演算器51で先に演算された、副カメラ6のカメラ座標系で表現された目標方向を、ミリ波無線伝送装置42およびミリ波無線伝送装置32を介して、カメラ制御器26に送出する。ここでは、目標方向として、副カメラ8で算定された船舶11までの目標方向が与えられる。カメラ制御器26は、カメラ台7を駆動制御して副カメラ6の指向方向を目標方向に向けるように制御する。これによって、副カメラ6は目標画像を取得する。
副カメラ6の取得画像は、ミリ波無線伝送装置32およびミリ波無線伝送装置42を介して、画像処理器52bに送出される。画像処理器52bでは目標画像から目標の位置、目標の重心位置、目標の大きさなどの画像情報を取得する。
ここで、目標の位置を算定するときは、図4(a)、図4(b)で説明した内容と同様に、カメラ座標系での目標位置を算定する。この場合、副カメラ6に対応したカメラ制御情報から副カメラ6の指向方向を得て、目標方向を俯角E、旋回角Bとする。この目標方向について、上述の式(1)、(2)を用いて、目標位置座標(すなわち、船舶11の位置座標)を算定すれば良い。
なお、副カメラ6から船舶11までの距離が所定値(例えば1000m)を超える場合は、副カメラ6と副カメラ8の指向方向の交点から船舶11の位置を算定して、位置算定精度を向上させることができる(これについては、図9の説明で後述する)。
副カメラ6の指向方向が設定されると、操作者は副カメラ6のズーム比を適宜調整して、船舶11を画面内一杯に捉えるようにする。この調整は、入力部61に副カメラ6のズーム比を入力することによって、適宜成される。この調整が成された後、操作者は入力部61に適宜設けられた指定完了指示キーを押下することによって、船舶を捕捉する操作が完了したことを示す、副カメラの指定完了通知を制御器50に対して伝達する。
また、演算器51は、無線装置44の受信したカメラ制御情報中の副カメラ6のズーム比と目標情報中の目標までの距離とに基づいて、画像内に目標を捉えるようにカメラに設定すべきズーム比gを演算しても良い。例えば、船舶の大きさを最大で100mとしたときには、ズーム比gをg=15°/tan−1(50m/目標までの距離Lm)の倍率に設定する。これによって、副カメラ6は画面内に目標画像として船舶11を捉える。
ズーム比が設定されると、ズーム比gによって副カメラ6の視野角範囲をφ3=φ/gとして求める。
Next, the controller 50 uses the millimeter-wave wireless transmission device 42 and the millimeter-wave wireless transmission device 32 to calculate the target direction expressed in the camera coordinate system of the sub camera 6 previously calculated by the computing unit 51. Send to camera controller 26. Here, the target direction to the ship 11 calculated by the sub camera 8 is given as the target direction. The camera controller 26 controls the camera base 7 so as to direct the direction of the sub camera 6 in the target direction. As a result, the sub camera 6 acquires the target image.
The acquired image of the sub camera 6 is sent to the image processor 52b via the millimeter wave wireless transmission device 32 and the millimeter wave wireless transmission device 42. The image processor 52b acquires image information such as a target position, a target center of gravity position, and a target size from the target image.
Here, when calculating the target position, the target position in the camera coordinate system is calculated in the same manner as the contents described with reference to FIGS. 4 (a) and 4 (b). In this case, the orientation direction of the secondary camera 6 is obtained from the camera control information corresponding to the secondary camera 6, and the target direction is set as the depression angle E and the turning angle B. About this target direction, what is necessary is just to calculate a target position coordinate (namely, position coordinate of the ship 11) using above-mentioned Formula (1), (2).
When the distance from the sub camera 6 to the ship 11 exceeds a predetermined value (for example, 1000 m), the position of the ship 11 is calculated from the intersection of the pointing directions of the sub camera 6 and the sub camera 8 to improve the position calculation accuracy. (This will be described later in the description of FIG. 9).
When the orientation direction of the sub camera 6 is set, the operator appropriately adjusts the zoom ratio of the sub camera 6 so that the ship 11 can be fully captured in the screen. This adjustment is appropriately made by inputting the zoom ratio of the sub camera 6 to the input unit 61. After this adjustment is made, the operator presses a designation completion instruction key provided as appropriate in the input unit 61 to notify the designation completion notification of the secondary camera indicating that the operation for capturing the ship is completed. Communicate to 50.
The computing unit 51 sets the camera to capture the target in the image based on the zoom ratio of the sub camera 6 in the camera control information received by the wireless device 44 and the distance to the target in the target information. The power zoom ratio g may be calculated. For example, when the maximum size of the ship is 100 m, the zoom ratio g is set to a magnification of g = 15 ° / tan −1 (50 m / distance Lm to the target). Thereby, the sub camera 6 captures the ship 11 as a target image in the screen.
When the zoom ratio is set, the viewing angle range of the sub camera 6 is obtained as φ3 = φ 0 / g based on the zoom ratio g.

次に、図6、図7に基づいて画像表示例について説明する。
図6は地図表示部71の表示画像を示す図である。図において、レーダ装置300が突堤2aの下方に位置し、主カメラ4が突堤2aの下方でレーダ装置300の周辺に位置し、副カメラ6が突堤2aの上方に位置し、副カメラ8が突堤2bの上方に位置している点が図示されている。
主カメラ4の視野角範囲90、副カメラ6の視野角範囲91、及び副カメラ8の視野角範囲92は夫々線で表示されている。視野角範囲90は、視野角線90a、90bの間を示す。視野角範囲91は、視野角線91a、91bの間を示す。視野角範囲92は、視野角線92a、92bの間を示す。これらの視野角範囲は、上述したように演算器51で事前に算定されている。図示の例では、視野角範囲90と視野角範囲91の交差領域には、船舶10、11が存在している。視野角範囲91と視野角範囲92の交差領域には、船舶11のみが存在している。ここで、各船舶10、11は、レーダ装置300もしくは主カメラ4で検出され、演算器51で演算された船舶10の位置と、副カメラ8で検出され演算器51で演算された船舶11の位置に基づいて、夫々地図上の対応位置が丸印で表示されている。船舶10と主カメラ4との距離が所定距離以内であるときには、船舶10の位置は主カメラ4の検出情報で得られる。また、船舶10と主カメラ4との距離が所定距離を超えるときには、船舶10の位置はレーダ装置300の検出情報で得られる。船舶11と副カメラ8との距離が所定距離以内であるときには、船舶11の位置は副カメラ8の検出情報で得られる。船舶11と副カメラ8との距離が所定距離を超えるときには、副カメラ8の検出情報で得られる船舶11の位置座標を仮位置としておく。正確な位置算定方法については、後述する図9で説明する。
なお、図中の2a、2bは突堤に対応する地図を示すものであり、各センサについても図1と対応する符号を便宜的に用いて、地図上の表示情報を図示している。
また、図7(a)は表示部72aによる主カメラ4の画像を示し、図7(b)は表示部72cによる副カメラ8の画像を示し、図7(c)は表示部72bによる副カメラ6の画像を示す。また、図に示す十字カーソル110、111、112、113は、入力部61でマウスなどによって入力されるものである。
Next, an example of image display will be described with reference to FIGS.
FIG. 6 is a diagram showing a display image of the map display unit 71. In the figure, the radar apparatus 300 is positioned below the jetty 2a, the main camera 4 is positioned below the jetty 2a and around the radar apparatus 300, the sub camera 6 is positioned above the jetty 2a, and the sub camera 8 is connected to the jetty. The point located above 2b is shown.
The viewing angle range 90 of the main camera 4, the viewing angle range 91 of the sub camera 6, and the viewing angle range 92 of the sub camera 8 are displayed as lines. The viewing angle range 90 indicates between the viewing angle lines 90a and 90b. The viewing angle range 91 indicates between the viewing angle lines 91a and 91b. The viewing angle range 92 indicates between the viewing angle lines 92a and 92b. These viewing angle ranges are calculated in advance by the calculator 51 as described above. In the illustrated example, the ships 10 and 11 exist in the intersection region of the viewing angle range 90 and the viewing angle range 91. Only the ship 11 exists in the intersection region of the viewing angle range 91 and the viewing angle range 92. Here, each ship 10, 11 is detected by the radar device 300 or the main camera 4, the position of the ship 10 calculated by the calculator 51, and the ship 11 detected by the sub camera 8 and calculated by the calculator 51. Based on the position, the corresponding position on the map is indicated by a circle. When the distance between the ship 10 and the main camera 4 is within a predetermined distance, the position of the ship 10 is obtained from the detection information of the main camera 4. Further, when the distance between the ship 10 and the main camera 4 exceeds a predetermined distance, the position of the ship 10 is obtained from detection information of the radar device 300. When the distance between the ship 11 and the sub camera 8 is within a predetermined distance, the position of the ship 11 is obtained from the detection information of the sub camera 8. When the distance between the ship 11 and the sub camera 8 exceeds a predetermined distance, the position coordinates of the ship 11 obtained from the detection information of the sub camera 8 are set as temporary positions. An accurate position calculation method will be described later with reference to FIG.
In addition, 2a, 2b in a figure shows the map corresponding to a jetty, and also uses the code | symbol corresponding to FIG. 1 for each sensor, and has shown the display information on a map.
7A shows an image of the main camera 4 by the display unit 72a, FIG. 7B shows an image of the sub camera 8 by the display unit 72c, and FIG. 7C shows a sub camera by the display unit 72b. 6 images are shown. Also, the cross cursors 110, 111, 112, and 113 shown in the figure are input by the input unit 61 using a mouse or the like.

入力部61の入力情報は選択回路55に送出され、選択回路55は入力情報を制御器50及び追尾処理器53a、53b、53cに送出する。制御器50は、演算器51で各カーソル(110、111、112、113)のカーソル位置に対応して、カメラ指向方向の座標を演算する。演算されたカメラ指向方向は、各ミリ波無線伝送装置を介して各カメラ制御器に送出される。各カメラ制御器は、各カメラが所望のカメラ指向方向を向くように、各カメラを制御する。
これによって、カーソル位置を所望の船舶位置に移動させてカーソルを選択することによって、対応するカメラの視野中心に所望の船舶を配置し、視野中心をカーソル位置に移動させることができる。また、所望の船舶をズームして表示することができる。
また、選択回路55で選択されたカメラ指向方向は追尾処理器53a、53b、53cに出力されて、追尾対象目標の設定に利用することができる。
このように、撮影画像中の特定部位を指定入力可能な入力部と、入力部で指定された特定部位を視野中心に据えるように副カメラの指向方向を設定し、設定情報を制御器が無線装置に伝送することによって、操作者は所望の水域や船舶を遠隔監視することができる。
さらに、各カメラの視野角範囲を地図表示部71に表示し、地図画像と重ねて表示することによって、各カメラの視野角範囲の交差領域が、港湾の水域内のどこに存在しているのかが、明確に把握できるようになる。
同時に、この視野角範囲に対応する各カメラの撮影画像を、表示部72a、72b、72cに表示することによって、視野角範囲と撮影画像との関係を明確に把握することができるようになり、例えば表示装置を見ている操作者が、船舶10に隣接する船舶11の存在を容易に検出できるようになる。
なお、表示部72a、72b、72cと地図表示部71とは、表示装置62の同一面、もしくは同一画面上で画面分割して表示することによって、各カメラの視野角範囲と各カメラの撮影画像との対応関係が、より明確に把握できるようになる。
The input information of the input unit 61 is sent to the selection circuit 55, and the selection circuit 55 sends the input information to the controller 50 and the tracking processors 53a, 53b, 53c. The controller 50 uses the calculator 51 to calculate the coordinates in the camera pointing direction corresponding to the cursor position of each cursor (110, 111, 112, 113). The calculated camera directivity direction is sent to each camera controller via each millimeter-wave wireless transmission device. Each camera controller controls each camera so that each camera faces a desired camera orientation.
Thus, by moving the cursor position to the desired ship position and selecting the cursor, the desired ship can be arranged at the center of the field of view of the corresponding camera, and the center of view can be moved to the cursor position. In addition, a desired ship can be zoomed and displayed.
Further, the camera directivity direction selected by the selection circuit 55 is output to the tracking processors 53a, 53b, and 53c, and can be used for setting the tracking target.
In this way, the input unit that can specify and input a specific part in the captured image, and the orientation direction of the secondary camera are set so that the specific part specified by the input unit is placed at the center of the visual field, and the controller wirelessly transmits the setting information. By transmitting to the device, the operator can remotely monitor a desired water area or ship.
Further, by displaying the viewing angle range of each camera on the map display unit 71 and displaying it on the map image, it is possible to determine where the intersecting area of the viewing angle range of each camera exists in the water area of the harbor. , You will be able to grasp clearly.
At the same time, by displaying the captured image of each camera corresponding to this viewing angle range on the display units 72a, 72b, 72c, it becomes possible to clearly grasp the relationship between the viewing angle range and the captured image, For example, an operator looking at the display device can easily detect the presence of the ship 11 adjacent to the ship 10.
The display units 72a, 72b, 72c and the map display unit 71 are displayed on the same surface of the display device 62 or divided on the same screen, thereby displaying the viewing angle range of each camera and the captured image of each camera. It becomes possible to grasp the correspondence relationship with more clearly.

次に、図8に基づいて、副カメラの選択例について説明する。
図8は、主カメラ4の指向方向と、副カメラ6の指向方向と、副カメラ8の指向方向を図示している。
この例では、操作者がマニュアルで副カメラを選択する場合のマニュアル選択モードを示している。マニュアル選択モードでは、地図表示部71に、現在の主カメラ4の指向方向15、副カメラ6の指向方向16、副カメラ8の指向方向17が表示される。また、各カメラの位置と、各カメラの周辺にカメラ番号が表示される(図中の白抜きの数字)。
選択操作前の段階では、地図表示部71の表示画面上には船舶10のみが表示されているものとする。なお、船舶10の位置は事前にレーダ装置300の目標情報、または主カメラ4で得られたカメラ基準座標系での目標位置座標に基づいて図示されている。
Next, an example of selecting a sub camera will be described with reference to FIG.
FIG. 8 illustrates the directivity direction of the main camera 4, the directivity direction of the sub camera 6, and the directivity direction of the sub camera 8.
This example shows a manual selection mode when the operator manually selects the sub camera. In the manual selection mode, the current directivity direction 15 of the main camera 4, the directivity direction 16 of the sub camera 6, and the directivity direction 17 of the sub camera 8 are displayed on the map display unit 71. In addition, the position of each camera and the camera number are displayed around each camera (open numbers in the figure).
It is assumed that only the ship 10 is displayed on the display screen of the map display unit 71 before the selection operation. The position of the ship 10 is illustrated based on target information of the radar apparatus 300 in advance or target position coordinates in the camera reference coordinate system obtained by the main camera 4.

次に、操作者は、地図表示部71の表示画像を見て、主カメラ4から死角になっているもので、かつ、指向方向が主カメラ4の指向方向15と直交する方向に近いカメラを、副カメラとして選択することができる。図では、操作者は入力部61に選択すべきカメラ番号を入力することによって、副カメラ8を優先的に選択することができる。この段階では、副カメラ8の指向方向は船舶10を捕捉する方向に位置する。   Next, the operator looks at the display image of the map display unit 71 and finds a camera that is blind from the main camera 4 and whose direction is close to the direction orthogonal to the direction 15 of the main camera 4. , Can be selected as a secondary camera. In the figure, the operator can preferentially select the secondary camera 8 by inputting the camera number to be selected to the input unit 61. At this stage, the pointing direction of the sub camera 8 is located in the direction in which the ship 10 is captured.

更に、副カメラ8を選択した後、船舶11を捕捉するように、図の白抜き矢印方向へカメラの指向方向を移動させ、図の矢印17の位置に配置させることによって、図7(b)に示すような船舶11の画像を得ることができる。
副カメラ8を選択した後、副カメラ8のズーム比を適宜設定して、副カメラ8を画像内に捕捉するようにすれば良い。これによって、図7(b)のような画像を得る。すなわち、副カメラ6、副カメラ8に夫々対応した表示部72b、72c共、表示画面内には1台の船舶のみが表示されるように、カメラの指向方向とズーム比を設定する。
なお、上述したように、副カメラ8の選択は、主カメラ4との交差角に基づいてある程度自動的に、優先選択されても良いことは言うまでもない。
このマニュアル選択モードを用いることによって、主カメラ4、副カメラ6、副カメラ8に対応したカメラ制御器から出力されるカメラ制御情報に基づいて、各カメラで各船舶を捕捉したときの各船舶の指向方向を、操作者の操作によって、より正確に取得することができる。
Further, after selecting the sub camera 8, the camera directing direction is moved in the direction of the white arrow in the figure so as to capture the ship 11, and is arranged at the position of the arrow 17 in the figure. An image of the ship 11 as shown in FIG.
After selecting the secondary camera 8, the zoom ratio of the secondary camera 8 may be set as appropriate so that the secondary camera 8 is captured in the image. As a result, an image as shown in FIG. 7B is obtained. That is, the camera directivity direction and zoom ratio are set so that only one ship is displayed on the display screen for both the display units 72b and 72c corresponding to the sub camera 6 and the sub camera 8, respectively.
Needless to say, the selection of the sub camera 8 may be preferentially selected to some extent automatically based on the intersection angle with the main camera 4 as described above.
By using this manual selection mode, based on the camera control information output from the camera controller corresponding to the main camera 4, the sub camera 6, and the sub camera 8, each ship when each ship is captured by each camera. The pointing direction can be obtained more accurately by the operation of the operator.

次に、図9に基づいて、副カメラ6と他の副カメラ8の交点位置での演算処理について説明する。ここでは、図8の設定によって各カメラの指向方向が設定された段階以後の動作について説明する。すなわち、副カメラ6、副カメラ8の撮影画像中に、夫々1台の船舶のみが存在している場合について説明する。
図9に示すように、副カメラ6と副カメラ8の交差領域100を、図に示すような船舶の存在領域として、例えば副カメラ6の視線と副カメラ8の視線の交線領域を○印で図示する。
次いで、演算器51はこの交差領域100の位置を演算することによって、交差領域内に存在する船舶の位置を特定することができる。例えば、副カメラ6の設置位置と指向方向、副カメラ8の設置位置と指向方向に基づき、三角測量の原理を用いて副カメラ6の視線と副カメラ8の視線との交線位置(交点)を演算することができる。
演算された交線位置は、追尾処理器53b、53cに伝送されて、夫々捕捉中の船舶の画像追尾を行うための追尾情報として利用する。例えば、この交点位置によって船舶位置が正確に特定されるので、フレーム時間間隔毎の船舶位置の移動量を演算し、移動量が所定の追尾許容誤差範囲内であるかどうかを判断することによって、船舶の追尾処理が追尾エラー(追尾が外れて別の目標を追尾している状態)を生じているかどうかを判断することができる。また、例えば、移動量が所定の追尾許容誤差範囲内であれば追尾が正常に実行され、移動量が所定の追尾許容誤差範囲外であれば追尾処理が異常であると判断する。
さらに、演算された交線位置は制御器50に送出される。制御器50では、交線位置に基づいて、その交線領域に存在する船舶の位置を正確に特定することができる。この算定位置は、上述した式(1)、(2)を用いた演算よりも高い精度で算定できる。
Next, based on FIG. 9, the calculation process in the intersection position of the subcamera 6 and the other subcamera 8 is demonstrated. Here, the operation after the stage in which the directivity direction of each camera is set by the setting of FIG. 8 will be described. That is, a case where only one ship exists in the captured images of the sub camera 6 and the sub camera 8 will be described.
As shown in FIG. 9, the intersection area 100 of the sub camera 6 and the sub camera 8 is defined as a ship existence area as shown in the figure. For example, the intersection area of the line of sight of the sub camera 6 and the line of sight of the sub camera 8 is marked with a circle. This is illustrated in FIG.
Next, the calculator 51 can determine the position of the ship existing in the intersection area by calculating the position of the intersection area 100. For example, based on the installation position and orientation direction of the secondary camera 6 and the installation position and orientation direction of the secondary camera 8, the intersection position (intersection) between the line of sight of the secondary camera 6 and the line of sight of the secondary camera 8 using the principle of triangulation. Can be calculated.
The calculated intersection line position is transmitted to the tracking processors 53b and 53c and used as tracking information for performing image tracking of the ship being captured. For example, since the ship position is accurately identified by this intersection position, the movement amount of the ship position for each frame time interval is calculated, and by determining whether the movement amount is within a predetermined tracking allowable error range, It is possible to determine whether or not the tracking process of the ship has caused a tracking error (a state in which tracking is missed and another target is being tracked). Further, for example, if the movement amount is within a predetermined tracking allowable error range, the tracking is normally executed, and if the movement amount is outside the predetermined tracking allowable error range, it is determined that the tracking process is abnormal.
Further, the calculated intersection line position is sent to the controller 50. The controller 50 can accurately identify the position of the ship existing in the intersection line area based on the intersection line position. This calculation position can be calculated with higher accuracy than the calculation using the equations (1) and (2) described above.

次に、図10に基づいて、画像追尾の表示例について説明する。
図に示すように、追尾中の船舶11を丸印180で囲む。丸印180の範囲は、追尾エラーを生じないための、フレームレート毎の所定の追尾許容誤差の大きさを示している。丸印180の中心は、各追尾処理器53a、53b、53cで演算される追尾位置情報に対応付けられた、追尾対象とする船舶の、地図表示部71で表示される追尾位置を表している。この追尾位置は、各カメラの指向方向と海面との交点にほぼ合致している。
また、図中の矢印190は、追尾目標の重心位置の移動方向を示す。この移動方向は、各追尾処理器53a、53b、53cで演算される、フレーム時間間隔毎の重心位置の移動方向から求めることができる。
または、副カメラ6の視線と副カメラ8の視線との交線位置の移動方向から、追尾中の船舶11の移動方向を特定しても良い。
Next, a display example of image tracking will be described based on FIG.
As shown in the drawing, the tracking ship 11 is surrounded by a circle 180. A range of a circle 180 indicates a predetermined tracking allowable error for each frame rate so as not to cause a tracking error. The center of the circle 180 represents the tracking position displayed on the map display unit 71 of the ship to be tracked that is associated with the tracking position information calculated by each tracking processor 53a, 53b, 53c. . This tracking position almost coincides with the intersection of the directivity direction of each camera and the sea surface.
An arrow 190 in the figure indicates the moving direction of the center of gravity position of the tracking target. This moving direction can be obtained from the moving direction of the center of gravity for each frame time interval calculated by each tracking processor 53a, 53b, 53c.
Alternatively, the movement direction of the tracking ship 11 may be specified from the movement direction of the intersection line position between the line of sight of the sub camera 6 and the line of sight of the sub camera 8.

次に、図11に基づいて、港湾監視システムの処理フローについて説明する。
ステップS101では、水上レーダ3で目標検出し、目標までの距離、方向、速度を計測する。
ステップS102では、水上レーダ3で得られた目標方向に基づいて、主カメラ4の指向方向を目標に向ける。目標まで近距離の場合、主カメラ4の指向角度と設置高さと海面高さから、目標位置Aを算定する。
ステップS103では、水上レーダ3で得られた目標方向、又は目標位置Aに基づいて、主カメラ4の指向方向と直交する方向に最も近い角度で、目標を捉える副カメラ6を選択する。
ステップS104では、主カメラ4の視野内に存在せず、副カメラ6の視野内に存在する他の船舶を表示画面上で指定する。また、指定した他の船舶のみを視野内に捉えるように、副カメラ6をズーミングする。目標まで近距離の場合、主カメラ4の指向角度と設置高さと海面高さから、目標位置Bを算定する。
ステップS105では、他の副カメラ8を選択し、副カメラ8の捉えた船舶と同じ船舶のみを他の副カメラ8の視野内に捉えるように、他の副カメラをズーミングする。目標まで近距離の場合、他の副カメラ8の指向角度と設置高さと海面高さから目標位置Cを算定する。
ステップS106では、副カメラ6と他の副カメラ8の、両視野内に存在する船舶の位置Dを、副カメラ6と他の副カメラ8の指向方向の交差点によって算出する。この交差点位置Dに存在する船舶を自動追尾する。
これによって、監視水域内の船舶の位置を正確に算定することができる。
Next, the processing flow of the port monitoring system will be described based on FIG.
In step S101, the target is detected by the water radar 3, and the distance, direction, and speed to the target are measured.
In step S102, the directivity direction of the main camera 4 is directed to the target based on the target direction obtained by the water radar 3. In the case of a short distance to the target, the target position A is calculated from the directivity angle of the main camera 4, the installation height, and the sea level.
In step S103, based on the target direction obtained by the water radar 3 or the target position A, the sub camera 6 that captures the target at an angle closest to the direction orthogonal to the directing direction of the main camera 4 is selected.
In step S104, another ship that does not exist in the field of view of the main camera 4 but exists in the field of view of the sub camera 6 is designated on the display screen. Further, the sub camera 6 is zoomed so that only the designated other ship is captured in the field of view. In the case of a short distance to the target, the target position B is calculated from the directivity angle of the main camera 4, the installation height, and the sea level.
In step S105, the other sub camera 8 is selected, and the other sub camera is zoomed so that only the same ship as the ship captured by the sub camera 8 is captured in the field of view of the other sub camera 8. In the case of a short distance to the target, the target position C is calculated from the directivity angle, the installation height, and the sea level of the other sub camera 8.
In step S <b> 106, the position D of the ship existing in both fields of view of the sub camera 6 and the other sub camera 8 is calculated from the intersection of the directing directions of the sub camera 6 and the other sub camera 8. The ship existing at the intersection position D is automatically tracked.
Thereby, the position of the ship in the monitoring water area can be accurately calculated.

以上説明したように、この実施の形態によれば、複数の船舶が隣接して航行している場合であっても、水上レーダと指向方向の異なる少なくとも2つ以上の監視カメラを用いて港湾内を監視することによって、隣接する船舶の陰に隠れて航行する船舶の存在を、確実に検出することができる。また、検出した各船舶の位置を特定することができる。   As described above, according to this embodiment, even in the case where a plurality of ships are navigating adjacent to each other, at least two surveillance cameras having different directivity directions from the water radar are used in the harbor. By monitoring the above, it is possible to reliably detect the presence of a vessel that navigates behind a neighboring vessel. Moreover, the position of each detected ship can be specified.

この発明の実施の形態1による港湾監視システムを構成する各センサ配置を示す斜視図である。It is a perspective view which shows each sensor arrangement | positioning which comprises the harbor monitoring system by Embodiment 1 of this invention. この発明の実施の形態1による港湾監視システムの構成を示す図である。It is a figure which shows the structure of the harbor monitoring system by Embodiment 1 of this invention. この発明の実施の形態1による信号処理器、および表示装置の構成を示す図である。It is a figure which shows the structure of the signal processor by Embodiment 1 of this invention, and a display apparatus. 目標の位置演算の計算例を示す図である。It is a figure which shows the example of a calculation of target position calculation. カメラからの目標方向を演算する演算処理を説明する図である。It is a figure explaining the arithmetic processing which calculates the target direction from a camera. 地図表示部の表示画像を示す図である。It is a figure which shows the display image of a map display part. 表示部による各カメラの画像を示す図である。It is a figure which shows the image of each camera by a display part. 副カメラの選択例について説明する図である。It is a figure explaining the example of selection of a subcamera. 副カメラと他の副カメラの交点位置での演算処理について説明する図である。It is a figure explaining the arithmetic processing in the intersection position of a subcamera and another subcamera. 画像追尾の表示例について説明する図である。It is a figure explaining the example of a display of image tracking. 港湾監視システムの処理フローについて説明する図である。It is a figure explaining the processing flow of a harbor monitoring system.

符号の説明Explanation of symbols

1 港湾、2 突堤、4 主カメラ、6 副カメラ、8 副カメラ、10 船舶、11 船舶、31、32、33 ミリ波無線伝送装置、40、41、42、43 ミリ波無線伝送装置、50 制御器、51 演算器、55 選択回路、60 地図データベース、61 入力部、62 表示装置、53a、53b、53c 追尾処理器、71 地図表示部、72a、72b、72c 表示部、300 レーダ装置、550 信号処理器。   1 Harbor, 2 Jetty, 4 Primary Camera, 6 Secondary Camera, 8 Secondary Camera, 10 Ship, 11 Ship, 31, 32, 33 Millimeter Wave Radio Transmission Device, 40, 41, 42, 43 Millimeter Wave Radio Transmission Device, 50 Control 51, computing unit, 55 selection circuit, 60 map database, 61 input unit, 62 display device, 53a, 53b, 53c tracking processor, 71 map display unit, 72a, 72b, 72c display unit, 300 radar device, 550 signal Processor.

Claims (7)

港湾内及び周辺海域を航行中の目標を検出する水上レーダと、
前記水上レーダに隣接して配置され、前記水上レーダで検出された目標を、視野内に含むように撮影するズーム付きの主カメラと、
前記主カメラと異なる視向方向を有して離隔配置され、前記水上レーダで検出された目標より以遠の水域を航行中の船舶を、視野内に含むように撮影する複数のズーム付きの副カメラと、
前記各カメラの撮影画像と視野角に基づいて、前記各カメラの撮影画像を画面表示するとともに、当該撮影画像に夫々対応した前記各カメラの視野角範囲を、地図画像に重ね合わせて表示する表示部と、
を備えた港湾監視システム。
A water radar that detects targets navigating in and around the port; and
A main camera with a zoom that is arranged adjacent to the water radar and shoots the target detected by the water radar so as to be included in the field of view;
A plurality of sub-cameras with a zoom, which are spaced apart from each other and have a different viewing direction from the main camera and shoot a ship navigating a water area farther than the target detected by the water radar so as to include in the field of view. When,
Based on the captured image and the viewing angle of each camera, the captured image of each camera is displayed on the screen, and the viewing angle range of each camera corresponding to the captured image is displayed superimposed on the map image. And
Harbor monitoring system equipped with.
前記主カメラの視線の方位方向と直交する方向に対して、視線の角度差が小さい前記副カメラを優先的に選択し、選択した副カメラの撮影画像を前記表示部に表示する制御器を備えたことを特徴とする請求項1記載の港湾監視システム。 A controller that preferentially selects the sub camera having a small gaze angle difference with respect to a direction perpendicular to the azimuth direction of the main camera's line of sight, and displays a captured image of the selected sub camera on the display unit; The harbor monitoring system according to claim 1, wherein: 前記各カメラの指向方向を夫々変更する複数のカメラ台と、
前記各カメラの撮影画像と、前記各カメラのズーム比及び指向方向とを、夫々無線伝送する複数の無線伝送装置と、
前記無線伝送装置の伝送情報を受信する無線装置と、
前記無線装置で受信されたズーム比及び指向方向と、事前設定された前記各カメラの設置位置に基づいて、前記各カメラの視野角を演算する演算器と、
を備えたことを特徴とする請求項1記載の港湾監視システム。
A plurality of camera bases each changing the orientation of each camera;
A plurality of wireless transmission devices that wirelessly transmit the captured images of the cameras and the zoom ratios and directivity directions of the cameras;
A wireless device for receiving transmission information of the wireless transmission device;
An arithmetic unit that calculates a viewing angle of each camera based on a zoom ratio and a directivity direction received by the wireless device, and a preset installation position of each camera;
The harbor monitoring system according to claim 1, further comprising:
撮影画像中の特定部位を指定入力可能な入力部と、
前記入力部で指定された特定部位を視野中心に据えるように副カメラの指向方向を設定し、設定情報を前記無線装置に送出する制御器とを備え、
前記副カメラは、前記無線装置から前記無線伝送装置に伝送される指向方向に基づいて指向方向を夫々変更することを特徴とした請求項3記載の港湾監視システム。
An input unit capable of specifying and inputting a specific part in the captured image;
A controller that sets the direction of the sub camera so that the specific part specified by the input unit is set at the center of the visual field, and sends setting information to the wireless device;
The port monitoring system according to claim 3, wherein the sub camera changes a directivity direction based on a directivity direction transmitted from the wireless device to the wireless transmission device.
前記副カメラと他の副カメラの指向方向の交線位置を演算する演算器と、
前記演算器で演算された交線位置を表示部に表示させる制御器とを備えたことを特徴とした請求項3記載の港湾監視システム。
A computing unit that computes an intersection position in the direction of the sub camera and the other sub camera;
The harbor monitoring system according to claim 3, further comprising a controller that causes a display unit to display the intersection line position calculated by the calculator.
前記各カメラの指向方向と設置高さ及び海面高さに基づいて、前記船舶の位置を演算する演算器と、
前記演算器で演算された船舶の位置を示す情報を、前記表示部に表示させる制御器とを備えたことを特徴とした請求項1記載の港湾監視システム。
An arithmetic unit that calculates the position of the ship based on the orientation direction and the installation height and the sea level of each camera,
The harbor monitoring system according to claim 1, further comprising a controller that causes the display unit to display information indicating the position of the ship calculated by the calculator.
前記各カメラの撮影画像中の船舶を画像追尾し、画像追尾中の船舶の移動方向を、前記表示部に表示することを特徴とした請求項1記載の港湾監視システム。 2. The port monitoring system according to claim 1, wherein a ship in the captured image of each camera is image-tracked, and a moving direction of the ship being image-tracked is displayed on the display unit.
JP2004087132A 2004-03-24 2004-03-24 Harbor monitoring system Expired - Fee Related JP4301051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004087132A JP4301051B2 (en) 2004-03-24 2004-03-24 Harbor monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004087132A JP4301051B2 (en) 2004-03-24 2004-03-24 Harbor monitoring system

Publications (2)

Publication Number Publication Date
JP2005277705A true JP2005277705A (en) 2005-10-06
JP4301051B2 JP4301051B2 (en) 2009-07-22

Family

ID=35176910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004087132A Expired - Fee Related JP4301051B2 (en) 2004-03-24 2004-03-24 Harbor monitoring system

Country Status (1)

Country Link
JP (1) JP4301051B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011212A (en) * 2006-06-29 2008-01-17 Mitsubishi Electric Corp Monitoring device
US7359798B2 (en) * 2003-02-18 2008-04-15 Canon Kabushiki Kaisha Method of controlling display of point information on map
JP2008270988A (en) * 2007-04-17 2008-11-06 Fujifilm Corp Control device, control method, image pickup system, image pickup method, and program
JP2010529745A (en) * 2007-05-30 2010-08-26 ソニー エレクトロニクス インク Forming substantially collinear wireless device pairs and mitigating interference effects
JP2014504394A (en) * 2010-11-17 2014-02-20 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッド Method and apparatus for monitoring zones
KR101552095B1 (en) 2015-04-15 2015-09-11 (주)나인정보시스템 Seaside surveillance system using radar and camera
JP2016085602A (en) * 2014-10-27 2016-05-19 株式会社日立製作所 Sensor information integrating method, and apparatus for implementing the same
KR101750390B1 (en) * 2016-10-05 2017-06-23 주식회사 알에프코리아 Apparatus for tracing and monitoring target object in real time, method thereof
KR101798396B1 (en) * 2016-03-22 2017-11-16 (주)럭스콤 The monitoring systems for Marine aquaculture and a shaft aligning method of the cameras
KR20180098911A (en) * 2017-02-27 2018-09-05 주식회사유넷컨버전스 Mapping system of camera indicating position for runway observation and its method
KR20200059424A (en) * 2018-11-21 2020-05-29 주식회사 리안 Ais vessel voyage information display system
CN113822217A (en) * 2021-09-30 2021-12-21 杭州春来科技有限公司 Ship tail gas monitoring method based on AIS and video image analysis
CN113990108A (en) * 2021-10-22 2022-01-28 苏交科集团股份有限公司 Ship optimization identification and real-time tracking method and anti-collision early warning system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524154B1 (en) * 2013-10-16 2015-05-29 삼성중공업 주식회사 Location measurement apparatus of a ship using numerous cameras

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7359798B2 (en) * 2003-02-18 2008-04-15 Canon Kabushiki Kaisha Method of controlling display of point information on map
JP2008011212A (en) * 2006-06-29 2008-01-17 Mitsubishi Electric Corp Monitoring device
JP2008270988A (en) * 2007-04-17 2008-11-06 Fujifilm Corp Control device, control method, image pickup system, image pickup method, and program
JP2010529745A (en) * 2007-05-30 2010-08-26 ソニー エレクトロニクス インク Forming substantially collinear wireless device pairs and mitigating interference effects
US10841539B2 (en) 2010-11-17 2020-11-17 Omron Scientific Technologies, Inc. Method and apparatus for monitoring zones
JP2014504394A (en) * 2010-11-17 2014-02-20 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッド Method and apparatus for monitoring zones
JP2016085602A (en) * 2014-10-27 2016-05-19 株式会社日立製作所 Sensor information integrating method, and apparatus for implementing the same
KR101552095B1 (en) 2015-04-15 2015-09-11 (주)나인정보시스템 Seaside surveillance system using radar and camera
KR101798396B1 (en) * 2016-03-22 2017-11-16 (주)럭스콤 The monitoring systems for Marine aquaculture and a shaft aligning method of the cameras
KR101750390B1 (en) * 2016-10-05 2017-06-23 주식회사 알에프코리아 Apparatus for tracing and monitoring target object in real time, method thereof
KR20180098911A (en) * 2017-02-27 2018-09-05 주식회사유넷컨버전스 Mapping system of camera indicating position for runway observation and its method
KR101908716B1 (en) * 2017-02-27 2018-10-16 주식회사유넷컨버전스 Mapping system of camera indicating position for runway observation and its method
KR20200059424A (en) * 2018-11-21 2020-05-29 주식회사 리안 Ais vessel voyage information display system
KR102299090B1 (en) 2018-11-21 2021-09-07 주식회사 리안 Ais vessel voyage information display system
CN113822217A (en) * 2021-09-30 2021-12-21 杭州春来科技有限公司 Ship tail gas monitoring method based on AIS and video image analysis
CN113990108A (en) * 2021-10-22 2022-01-28 苏交科集团股份有限公司 Ship optimization identification and real-time tracking method and anti-collision early warning system

Also Published As

Publication number Publication date
JP4301051B2 (en) 2009-07-22

Similar Documents

Publication Publication Date Title
US10237478B2 (en) System and method for correlating camera views
JP4301051B2 (en) Harbor monitoring system
US8508595B2 (en) Surveillance camera system for controlling cameras using position and orientation of the cameras and position information of a detected object
US7750936B2 (en) Immersive surveillance system interface
EP1341383B1 (en) Composite camera system, zoom camera image display control method, zoom camera control method, control program, and computer readable recording medium
US20060028550A1 (en) Surveillance system and method
EP3452848B1 (en) Monitoring method using a camera system with an area movement detection
JP2008241304A (en) Object detector
KR102001594B1 (en) Radar-camera fusion disaster tracking system and method for scanning invisible space
WO2006017402A2 (en) Surveillance system and method
JP2017135550A (en) Flying object monitoring system
JP4754283B2 (en) Monitoring system and setting device
CN113068000A (en) Method, device, equipment and system for monitoring video target and storage medium
JP2017167870A (en) Flying object monitoring system, and flying object monitoring apparatus
KR20230106958A (en) Apparatus and method for providing position and orientation information of sea object based on camera
KR102464212B1 (en) Augmented reality system for ships using omnidirectional cameras
JP2016090348A (en) Sensor remote control system, remote operation device, sensor device and sensor remote control method
KR100963108B1 (en) System and method of watching moving object toward power transmission line
JP2005252757A (en) Monitoring camera system
JP3007430B2 (en) Target monitoring device
JP2019144087A (en) Controlling device
JP2017181098A (en) Object detection device
CN110133747A (en) A kind of target detection system of radar and optics linkage
JPH05180936A (en) Night voyage supporting device
JPH1114737A (en) Radar device

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20060526

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Effective date: 20090331

Free format text: JAPANESE INTERMEDIATE CODE: A01

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 3

Free format text: PAYMENT UNTIL: 20120501

A61 First payment of annual fees (during grant procedure)

Effective date: 20090413

Free format text: JAPANESE INTERMEDIATE CODE: A61

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees