JP2018008574A - Display device, search system, display method, and program - Google Patents

Display device, search system, display method, and program Download PDF

Info

Publication number
JP2018008574A
JP2018008574A JP2016137694A JP2016137694A JP2018008574A JP 2018008574 A JP2018008574 A JP 2018008574A JP 2016137694 A JP2016137694 A JP 2016137694A JP 2016137694 A JP2016137694 A JP 2016137694A JP 2018008574 A JP2018008574 A JP 2018008574A
Authority
JP
Japan
Prior art keywords
sensor
display device
information
sensor information
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016137694A
Other languages
Japanese (ja)
Other versions
JP6738059B2 (en
Inventor
健蔵 野波
Kenzo Nonami
健蔵 野波
徳久 三宅
Norihisa Miyake
徳久 三宅
祐一 浦
Yuichi Ura
祐一 浦
茂 浅海
Shigeru Asaumi
茂 浅海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
ACSL Ltd
Original Assignee
Furuno Electric Co Ltd
ACSL Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd, ACSL Ltd filed Critical Furuno Electric Co Ltd
Priority to JP2016137694A priority Critical patent/JP6738059B2/en
Publication of JP2018008574A publication Critical patent/JP2018008574A/en
Application granted granted Critical
Publication of JP6738059B2 publication Critical patent/JP6738059B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device, a search system, a display method, and a program which can efficiently notify a user of a relationship between information acquired by an unmanned aircraft and a target detection object.SOLUTION: A display device comprises a first sensor information acquisition unit, a first position information acquisition unit, a second sensor information acquisition unit, a second position information acquisition unit, and an integration display processing unit. The first sensor information acquisition unit acquires first sensor information detected by a first sensor mounted on an unmanned aircraft. The first position information acquisition unit acquires first position information of the unmanned aircraft detected by a first position detection unit mounted on the unmanned aircraft. The second sensor information acquisition unit acquires second sensor information detected by a second sensor mounted on a navigation apparatus. The second position information acquisition unit acquires second position information of the navigation apparatus detected by a second position detection unit mounted on the navigation apparatus. The integration display processing unit integrates and displays the first sensor information and the second sensor information based on the first position information and the second position information.SELECTED DRAWING: Figure 1

Description

本発明の一実施形態は、取得した情報を表示する表示装置、探索システム、表示方法、およびプログラムに関する。   One embodiment of the present invention relates to a display device, a search system, a display method, and a program for displaying acquired information.

近年、例えば、かつおを漁獲対象とする漁業においては、有人航空機(例えば有人ヘリコプター)を用いて自船の周囲を探索し、かつおの魚群を探索することが行なわれている。   In recent years, for example, in the fishery for catching bonito, it has been performed to search around the own ship using a manned aircraft (for example, a manned helicopter) and to search for a fish school of bonito.

一方で、近年、無人航空機にカメラ等のセンサを搭載し、上空から画像を撮影して情報収集を行なうことが行なわれている。例えば、特許文献1には、サーモカメラを搭載した無人航空機を用いて、所定水域を上方から撮影し、該撮影により得られた水面温度分布画像に基づいて該所定水域における水流を観測するシステムが提案されている。また、特許文献2においては、無人航空機で撮影した映像を、衛星通信を介して送受信する構成が記載されている。   On the other hand, in recent years, sensors such as cameras are mounted on unmanned aircraft, and information is collected by taking images from the sky. For example, Patent Document 1 discloses a system for photographing a predetermined water area from above using an unmanned aerial vehicle equipped with a thermo camera and observing a water flow in the predetermined water area based on a water surface temperature distribution image obtained by the photographing. Proposed. Patent Document 2 describes a configuration in which video captured by an unmanned aerial vehicle is transmitted / received via satellite communication.

特開2015−127669号公報JP2015-127669A 特許公開公報第5767731号公報Japanese Patent Publication No. 5776731

無人航空機を用いる場合には、該無人航空機で取得された情報と、目的の探知対象物(例えば魚群)と、の関係を、利用者に知らせることが重要である。   When using an unmanned aerial vehicle, it is important to inform the user of the relationship between the information acquired by the unmanned aerial vehicle and the target detection target object (for example, a school of fish).

この発明の一実施形態は、無人航空機で取得された情報と目的の探知対象物との関係を効率的に利用者に知らせることができる表示装置、探索システム、表示方法、およびプログラムを提供することを目的とする。   One embodiment of the present invention provides a display device, a search system, a display method, and a program capable of efficiently notifying a user of the relationship between information acquired by an unmanned aerial vehicle and a target detection object. With the goal.

表示装置は、表示装置は、第1センサ情報取得部と、第1位置情報取得部と、第2センサ情報取得部と、第2位置情報取得部と、統合表示処理部と、を備えている。第1センサ情報取得部は、無人航空機に搭載された第1センサで検出された第1センサ情報を取得する。第1位置情報取得部は、前記無人航空機に搭載された第1位置検出部で検出された前記無人航空機の第1位置情報を取得する。第2センサ情報取得部は、航海機器に搭載された第2センサで検出された第2センサ情報を取得する。第2位置情報取得部は、前記航海機器に搭載された第2位置検出部で検出された前記航海機器の第2位置情報を取得する。統合表示処理部は、前記第1位置情報と、前記第2位置情報とに基づいて、前記第1センサ情報と、前記第2センサ情報と、を統合して表示する。   The display device includes a first sensor information acquisition unit, a first position information acquisition unit, a second sensor information acquisition unit, a second position information acquisition unit, and an integrated display processing unit. . The first sensor information acquisition unit acquires first sensor information detected by a first sensor mounted on the unmanned aircraft. The first position information acquisition unit acquires first position information of the unmanned aircraft detected by a first position detection unit mounted on the unmanned aircraft. The second sensor information acquisition unit acquires second sensor information detected by a second sensor mounted on the navigation device. The second position information acquisition unit acquires second position information of the navigation device detected by a second position detection unit mounted on the navigation device. The integrated display processing unit displays the first sensor information and the second sensor information in an integrated manner based on the first position information and the second position information.

このように、表示装置は、第1センサ情報と、第2センサ情報と、を統合表示することで、無人航空機で検出された情報と目的の探知対象物との関係を効率的に利用者に知らせることができる。例えば、表示装置は、第2センサとして、レーダで得た鳥群のエコー画像が表示された画面において、第1センサとして、カメラで撮影した海面の画像を統合表示する。これにより、利用者は、鳥群のエコー画像の位置における海面の画像を見ることができ、鳥群のエコー画像の位置において魚群が存在するか、確認することができる。   In this way, the display device displays the first sensor information and the second sensor information in an integrated manner, thereby efficiently providing the user with the relationship between the information detected by the unmanned aircraft and the target detection target object. I can inform you. For example, the display device integrally displays the sea surface image captured by the camera as the first sensor on the screen on which the echo image of the bird flock obtained by the radar is displayed as the second sensor. Thereby, the user can see the image of the sea surface at the position of the echo image of the bird swarm, and can confirm whether the fish swarm exists at the position of the echo image of the bird swarm.

この発明の一実施形態によれば、無人航空機で取得された情報と目的の探知対象物との関係を効率的に利用者に知らせることができる。   According to one embodiment of the present invention, it is possible to efficiently notify a user of the relationship between information acquired by an unmanned aerial vehicle and a target detection target object.

探索システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a search system. 表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of a display apparatus. 制御部の機能ブロック図である。It is a functional block diagram of a control part. 制御部の機能ブロック図である。It is a functional block diagram of a control part. 制御部の機能ブロック図である。It is a functional block diagram of a control part. 図6(A)および図6(B)は、表示部に表示される画面の一例を示した図である。6A and 6B are diagrams illustrating an example of a screen displayed on the display unit. カメラ画像に無人航空機に係る情報を重畳する例を示す図である。It is a figure which shows the example which superimposes the information which concerns on an unmanned aircraft on a camera image. 表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a display apparatus. 探索システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a search system. 探索システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a search system. 複数の無人航空機を運用する場合の通信態様を示す図である。It is a figure which shows the communication aspect in the case of operating a some unmanned aircraft. 探索システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a search system. 図13(A)および図13(B)は、表示部に表示される画面の一例を示した図である。FIG. 13A and FIG. 13B are diagrams illustrating an example of a screen displayed on the display unit. 制御部の機能ブロック図である。It is a functional block diagram of a control part. 図15(A)および図15(B)は、各機器の位置情報を表す図である。FIG. 15A and FIG. 15B are diagrams showing position information of each device. 図16(A)は、探知対象物の第3位置情報の算出手法を示す図であり、図16(B)は、第3位置情報と無人航空機の関係を表す図である。FIG. 16A is a diagram illustrating a calculation method of the third position information of the detection target, and FIG. 16B is a diagram illustrating a relationship between the third position information and the unmanned aircraft. レーダで鳥群を探知し、無人航空機のカメラで魚群を撮影する例を示した図である。It is the figure which showed the example which detects a school of birds with a radar, and image | photographs a school of fish with the camera of an unmanned aircraft. レーダ画面の範囲外に無人航空機の画像を表示する例を示した図である。It is the figure which showed the example which displays the image of an unmanned aircraft outside the range of a radar screen.

図1は、探索システムの全体構成を示すブロック図である。探索システムは、無人航空機1、衛星通信装置3A、衛星通信装置3B、衛星地上局5A、衛星地上局5B、インターネット7、および船舶2を備えている。   FIG. 1 is a block diagram showing the overall configuration of the search system. The search system includes an unmanned aircraft 1, a satellite communication device 3A, a satellite communication device 3B, a satellite ground station 5A, a satellite ground station 5B, the Internet 7, and a ship 2.

無人航空機1は、自律飛行を行なう航空機であり、例えばマルチローターヘリである。なお、無人航空機とは、着水して、水上を移動する機能を備えた航空機を含む。無人航空機1は、位置検出部11、機体制御部12、カメラ13、および衛星通信部14を備えている。各構成は、ネットワーク(LAN)または各種規格の信号線で接続されている。   The unmanned aerial vehicle 1 is an aircraft that performs autonomous flight, and is, for example, a multi-rotor helicopter. The unmanned aerial vehicle includes an aircraft having a function of landing and moving on the water. The unmanned aerial vehicle 1 includes a position detection unit 11, a body control unit 12, a camera 13, and a satellite communication unit 14. Each component is connected by a network (LAN) or signal lines of various standards.

位置検出部11は、第1位置検出部の一例であり、例えばGPS等により自装置の位置(緯度、経度、および高度)を示す第1位置情報を取得する。   The position detection unit 11 is an example of a first position detection unit, and acquires first position information indicating the position (latitude, longitude, and altitude) of the device itself, for example, by GPS or the like.

機体制御部12は、無人航空機1の各構成を制御する。機体制御部12は、不図示のメモリから動作用プログラムを読み出して、無人航空機1の制御を行なう。例えば、機体制御部12は、位置検出部で取得した自装置の位置と、衛星通信部14を介して受信した経路および目的の位置に関する情報と、に基づいて、ローターを制御し、設定された経路で目的の位置に自装置を移動させる自律制御を行なう。   Airframe control unit 12 controls each component of unmanned aerial vehicle 1. Airframe control unit 12 reads an operation program from a memory (not shown) and controls unmanned aerial vehicle 1. For example, the airframe control unit 12 controls and sets the rotor based on the position of the own device acquired by the position detection unit and the information about the route and the target position received via the satellite communication unit 14. Autonomous control is performed to move the device to a target position along the route.

カメラ13は、無人航空機1に搭載される第1センサの一例である。カメラ13は、自装置の周囲を撮影する。撮影した画像データは、衛星通信部14を介して外部に出力される。   The camera 13 is an example of a first sensor mounted on the unmanned aircraft 1. The camera 13 photographs the surroundings of the own device. The captured image data is output to the outside via the satellite communication unit 14.

無人航空機1および船舶2は、衛星通信を介して各種情報を送受信する。すなわち、無人航空機1および船舶2は、衛星通信装置3A、衛星地上局5A、インターネット7、衛星地上局5B、および衛星通信装置3Bを介して、互いに各種情報を送受信する。ただし、図9または図10に示すように、無人航空機1および船舶2は、他の実施形態において、無線通信を介して各種情報を送受信することも可能である。また、無人航空機1および船舶2は、無線通信および衛星通信の両方を介して各種情報を送受信することも可能である。   The unmanned aerial vehicle 1 and the ship 2 transmit and receive various types of information via satellite communication. That is, the unmanned aircraft 1 and the ship 2 transmit / receive various information to / from each other via the satellite communication device 3A, the satellite ground station 5A, the Internet 7, the satellite ground station 5B, and the satellite communication device 3B. However, as shown in FIG. 9 or FIG. 10, the unmanned aircraft 1 and the ship 2 can transmit and receive various types of information via wireless communication in other embodiments. The unmanned aerial vehicle 1 and the ship 2 can also transmit and receive various types of information via both wireless communication and satellite communication.

船舶2には、各種の航海機器が搭載されている。この例では、船舶2は、位置検出部21、AIS受信機22、表示装置23、および衛星通信部24を搭載している。   The ship 2 is equipped with various nautical equipment. In this example, the ship 2 includes a position detection unit 21, an AIS receiver 22, a display device 23, and a satellite communication unit 24.

位置検出部21は、第2位置検出部の一例であり、例えばGPS等により自船の位置(緯度および経度)を取得する。位置検出部21が取得した第2位置情報は、例えば表示装置23に入力され、海図上に自船の位置として表示される。   The position detection unit 21 is an example of a second position detection unit, and acquires the position (latitude and longitude) of the ship by, for example, GPS. The second position information acquired by the position detector 21 is input to the display device 23, for example, and displayed as the position of the ship on the chart.

表示装置23は、各種機器から取得した情報を表示するマルチファンクションディスプレイである。図2は、表示装置23の構成を示すブロック図である。表示装置23は、操作部210,入出力インタフェース(I/F)211、制御部212、表示部213、および記憶部214を備えている。   The display device 23 is a multi-function display that displays information acquired from various devices. FIG. 2 is a block diagram illustrating a configuration of the display device 23. The display device 23 includes an operation unit 210, an input / output interface (I / F) 211, a control unit 212, a display unit 213, and a storage unit 214.

制御部212は、記憶部214に記憶されているプログラムを読み出し、各種の動作を行なう。例えば、制御部212は、記憶部214に記憶されている海図データを読み出して、表示部213に海図を表示する。また、制御部212は、入出力I/F211を介して位置検出部21から第2位置情報を取得する。制御部212は、上述の様に、海図上に自船の位置を表示する。これにより、表示装置23は、プロッタとして機能する。   The control unit 212 reads a program stored in the storage unit 214 and performs various operations. For example, the control unit 212 reads the chart data stored in the storage unit 214 and displays the chart on the display unit 213. Further, the control unit 212 acquires the second position information from the position detection unit 21 via the input / output I / F 211. As described above, the control unit 212 displays the position of the ship on the chart. Thereby, the display device 23 functions as a plotter.

また、図12に示すように、船舶2がレーダ27を備えている場合、制御部212は、入出力I/F211を介してレーダ27から探知結果を取得し、レーダ画面を表示することもできる。これにより、表示装置23は、レーダ装置の表示部としても機能する。さらに、制御部212は、海図上にレーダ27の探知結果を重畳して表示することも可能である。   As shown in FIG. 12, when the ship 2 includes the radar 27, the control unit 212 can acquire the detection result from the radar 27 via the input / output I / F 211 and display the radar screen. . Thereby, the display device 23 also functions as a display unit of the radar device. Furthermore, the control unit 212 can also superimpose and display the detection result of the radar 27 on the chart.

また、制御部212は、操作部210を介して利用者から受け付けた指示に応じ、種々の動作を行なう。例えば、制御部212は、無人航空機1の自律飛行用飛行経路(目的位置を含む。)の指示を受け付ける。制御部212は、受け付けた自律飛行用飛行経路に係る情報を入出力I/F211から出力する。自律飛行用飛行経路に係る情報は、無人航空機1に送信される。無人航空機1の機体制御部12は、受信した自律飛行用飛行経路に係る情報に基づいて、無人航空機1の自律制御を行なう。これにより、表示装置23は、無人航空機1を管制するナビゲーション装置としても機能する。ただし、無人航空機1のナビゲーション装置は、別の装置(例えばパーソナルコンピュータ)により実現してもよい。   The control unit 212 performs various operations in accordance with instructions received from the user via the operation unit 210. For example, the control unit 212 accepts an instruction for an autonomous flight flight path (including a target position) of the unmanned aircraft 1. The control unit 212 outputs information related to the accepted flight path for autonomous flight from the input / output I / F 211. Information related to the flight path for autonomous flight is transmitted to the unmanned aircraft 1. The body control unit 12 of the unmanned aerial vehicle 1 performs autonomous control of the unmanned aircraft 1 based on the received information relating to the flight path for autonomous flight. Thereby, the display device 23 also functions as a navigation device that controls the unmanned aircraft 1. However, the navigation device of the unmanned aerial vehicle 1 may be realized by another device (for example, a personal computer).

次に、図3、図4、図5、および図14は、制御部212の機能ブロック図である。制御部212は、記憶部214に記憶されているプログラムを読み出し、該プログラムにより、図3、図4、図5、または図14に示す各構成を実現する。   Next, FIGS. 3, 4, 5, and 14 are functional block diagrams of the control unit 212. The control unit 212 reads a program stored in the storage unit 214, and implements each configuration illustrated in FIG. 3, FIG. 4, FIG. 5, or FIG.

制御部212は、一実施形態として、図3、図4、図5、および図14に示すように、第1位置情報取得部250、第1センサ情報取得部251、第2センサ情報取得部252、第2位置情報取得部257、および統合表示処理部253を備えている。また、他の実施形態においては、制御部212は、図4および図5に示すように、解析部254をさらに備えている。また、図5の実施形態では、制御部212は、目的位置算出部255をさらに備えている。図14の実施形態では、制御部212は、位置算出部259を備えている。   As shown in FIGS. 3, 4, 5, and 14, the control unit 212, as one embodiment, includes a first position information acquisition unit 250, a first sensor information acquisition unit 251, and a second sensor information acquisition unit 252. , A second position information acquisition unit 257, and an integrated display processing unit 253. In another embodiment, the control unit 212 further includes an analysis unit 254 as shown in FIGS. 4 and 5. In the embodiment of FIG. 5, the control unit 212 further includes a target position calculation unit 255. In the embodiment of FIG. 14, the control unit 212 includes a position calculation unit 259.

第1位置情報取得部250は、無人航空機1の第1位置情報を取得する。第1センサ情報取得部251は、入出力I/F211を介して無人航空機1からの情報を取得する。ここでは、一例として第1センサは、カメラ13であるため、第1センサ情報取得部251は、第1センサ情報として、カメラ13で撮影された画像データを取得する。   The first position information acquisition unit 250 acquires first position information of the unmanned aircraft 1. The first sensor information acquisition unit 251 acquires information from the unmanned aerial vehicle 1 via the input / output I / F 211. Here, since the first sensor is the camera 13 as an example, the first sensor information acquisition unit 251 acquires image data captured by the camera 13 as the first sensor information.

第2センサ情報取得部252は、各種航海機器からの情報を取得する。第2センサは、この例では、AIS受信機22である。第2センサ情報取得部252は、AIS受信機22から、第2センサ情報として、AIS情報を取得する。また、第2位置情報取得部257は、第2位置情報を取得する。AIS情報には、例えば各船の識別情報、位置、針路、移動速度、または目的位置等が含まれている。また、第2センサは、例えばレーダ27におけるアンテナおよび電磁波送受信部等も該当する。あるいは、不図示のスキャニングソナー等も、第2センサに該当する。   The second sensor information acquisition unit 252 acquires information from various nautical devices. The second sensor is an AIS receiver 22 in this example. The second sensor information acquisition unit 252 acquires AIS information as the second sensor information from the AIS receiver 22. In addition, the second position information acquisition unit 257 acquires second position information. The AIS information includes, for example, identification information of each ship, position, course, moving speed, or target position. The second sensor also corresponds to, for example, an antenna in the radar 27 and an electromagnetic wave transmission / reception unit. Alternatively, a scanning sonar (not shown) corresponds to the second sensor.

統合表示処理部253は、第1位置情報および第2位置情報に基づいて、第1センサ情報取得部251で取得した情報と、第2センサ情報取得部252で取得した情報と、を統合して、表示部213に表示させる処理を行なう。   The integrated display processing unit 253 integrates the information acquired by the first sensor information acquisition unit 251 and the information acquired by the second sensor information acquisition unit 252 based on the first position information and the second position information. Then, a process of displaying on the display unit 213 is performed.

図6(A)は、表示部213に表示される画面の一例を示した図である。表示部213には、自船画像401、無人航空機画像402、他船画像403、およびカメラ画像404が表示されている。すなわち、図6(A)の例では、表示装置23は、プロッタとして機能している。   FIG. 6A is a diagram illustrating an example of a screen displayed on the display unit 213. The display unit 213 displays the own ship image 401, the unmanned aircraft image 402, the other ship image 403, and the camera image 404. That is, in the example of FIG. 6A, the display device 23 functions as a plotter.

図8は、表示装置23の動作を示すフローチャートである。図6(A)に示した統合画面を表示する場合、まず、第1位置情報取得部250は、第1位置情報を取得し、第1センサ情報取得部251は、カメラ13が撮影した画像データを取得する(s11)。また、第2センサ情報取得部252は、航海機器から各種情報を取得し、第2位置情報取得部257は、第2位置情報を取得する(s12)。ここでは、第2センサ情報取得部252は、AIS情報を取得する。   FIG. 8 is a flowchart showing the operation of the display device 23. When the integrated screen shown in FIG. 6A is displayed, first, the first position information acquisition unit 250 acquires first position information, and the first sensor information acquisition unit 251 captures image data captured by the camera 13. Is obtained (s11). Moreover, the 2nd sensor information acquisition part 252 acquires various information from a navigation apparatus, and the 2nd position information acquisition part 257 acquires 2nd position information (s12). Here, the second sensor information acquisition unit 252 acquires AIS information.

そして、統合表示処理部253は、無人航空機1と自船の位置を判断し(s13)、統合表示を行なう(s14)。すなわち、統合表示処理部253は、記憶部214に記憶されている海図データを読み出して、表示部213に海図を表示する。また、統合表示処理部253は、第2位置情報に基づいて、海図上に自船画像401を表示する。図6(A)の例では、統合表示処理部253は、自装置の位置が中心となり、自船の進行方向が画面方向に一致する(ヘッドアップとなる)ように、海図上に自船の位置を表示する。また、図6(A)の例では、統合表示処理部253は、AIS情報に基づいて、海図上に他船画像403を表示する。また、統合表示処理部253は、他船の針路および移動速度を例えば実線ベクトルで表示する。   Then, the integrated display processing unit 253 determines the positions of the unmanned aircraft 1 and the own ship (s13), and performs integrated display (s14). That is, the integrated display processing unit 253 reads the chart data stored in the storage unit 214 and displays the chart on the display unit 213. Further, the integrated display processing unit 253 displays the own ship image 401 on the chart based on the second position information. In the example of FIG. 6A, the integrated display processing unit 253 displays the ship's own ship on the chart so that the position of the ship's own device is the center and the traveling direction of the ship matches the screen direction (heads up). Display position. 6A, the integrated display processing unit 253 displays the other ship image 403 on the chart based on the AIS information. Further, the integrated display processing unit 253 displays the course and the moving speed of the other ship with, for example, a solid line vector.

そして、統合表示処理部253は、無人航空機1の第1位置情報に基づいて、海図上に無人航空機画像402を表示する。また、統合表示処理部253は、第1センサ情報取得部251で取得したカメラ画像404を無人航空機画像402の近傍に表示する。ただし、カメラ画像404は、常時表示する必要はない。例えば、利用者が操作部210を操作して、無人航空機画像402を選択する操作を行なったとき、統合表示処理部253は、無人航空機画像402の近傍にカメラ画像404を表示する。   Then, the integrated display processing unit 253 displays the unmanned aircraft image 402 on the chart based on the first position information of the unmanned aircraft 1. In addition, the integrated display processing unit 253 displays the camera image 404 acquired by the first sensor information acquisition unit 251 in the vicinity of the unmanned aircraft image 402. However, the camera image 404 need not always be displayed. For example, when the user operates the operation unit 210 to perform an operation of selecting the unmanned aircraft image 402, the integrated display processing unit 253 displays the camera image 404 in the vicinity of the unmanned aircraft image 402.

カメラ画像404は、カメラ13で撮影された画像データをそのまま表示してもよいが、例えば図7に示すように、無人航空機1に係る情報を重畳することも可能である。この場合、統合表示処理部253は、無人航空機1の第1位置情報と、該第1位置情報を受信したタイミング(時刻)を示すテキスト情報を、カメラで撮影された画像データに重畳し、カメラ画像404として表示する。   The camera image 404 may display the image data captured by the camera 13 as it is, but for example, as shown in FIG. 7, it is possible to superimpose information related to the unmanned aircraft 1. In this case, the integrated display processing unit 253 superimposes the first position information of the unmanned aircraft 1 and text information indicating the timing (time) at which the first position information is received on the image data captured by the camera. Displayed as an image 404.

なお、統合表示処理部253は、第1センサ情報として、さらに無人航空機1の進行方向および移動速度を示す情報を受信した場合には、進行方向および移動速度を実線ベクトルで表示する。なお、進行方向および移動速度は、無人航空機1の位置変化に基づいて、表示装置23が推定することも可能である。   In addition, the integrated display process part 253 displays the advancing direction and moving speed by a solid line vector, when the information which shows the advancing direction and moving speed of the unmanned aircraft 1 is received as 1st sensor information further. The traveling direction and the moving speed can be estimated by the display device 23 based on the position change of the unmanned aircraft 1.

また、統合表示処理部253は、カメラ13の撮影方向を示す情報を受信した場合には、カメラ13の撮影方向を破線で表示する。   Moreover, the integrated display process part 253 displays the imaging direction of the camera 13 with a broken line, when the information which shows the imaging direction of the camera 13 is received.

さらに、この例では、現時点の無人航空機1の位置を示す無人航空機画像402を表示しているが、統合表示処理部253は、過去の無人航空機1の位置情報に基づいて、航跡画像を表示してもよい。   Furthermore, in this example, the unmanned aerial vehicle image 402 showing the current position of the unmanned aerial vehicle 1 is displayed. However, the integrated display processing unit 253 displays a wake image based on the past position information of the unmanned aircraft 1. May be.

このように、表示装置23は、無人航空機1に搭載された第1センサで得た情報と、自船の機器に搭載された第2センサで得た情報と、を統合表示する。例えば、利用者が魚群を探知対象物としている場合、利用者は、無人航空機1のカメラ13で得た海面の画像(鳥群の画像)、自船の位置、および無人航空機1の位置を知ることができ、探知対象物である魚群と、無人航空機1で撮影された画像との位置関係を効率的に把握することができる。   As described above, the display device 23 integrally displays the information obtained by the first sensor mounted on the unmanned aircraft 1 and the information obtained by the second sensor mounted on the ship's equipment. For example, when the user uses a school of fish as the detection target, the user knows the sea surface image (bird group image) obtained by the camera 13 of the unmanned aircraft 1, the position of the ship, and the position of the unmanned aircraft 1. Therefore, it is possible to efficiently grasp the positional relationship between the school of fish that is the object to be detected and the image captured by the unmanned aerial vehicle 1.

図6(B)は、表示部213に表示される画面の第2例を示した図である。表示部213には、自船画像401、無人航空機画像402、他船のエコー画像503、カメラ画像404、陸地のエコー画像504、および鳥群のエコー画像505が表示されている。図6(B)の例では、表示装置23は、レーダ用の表示部として機能している。   FIG. 6B is a diagram illustrating a second example of a screen displayed on the display unit 213. The display unit 213 displays a ship image 401, an unmanned aircraft image 402, an echo image 503 of another ship, a camera image 404, an echo image 504 on land, and an echo image 505 of a bird group. In the example of FIG. 6B, the display device 23 functions as a display unit for radar.

この場合、船舶2は、図12に示した例の様に、レーダ27を備えている。統合表示処理部253は、レーダ27の探知結果に基づいて、図6(B)に示すような、自装置の位置を中心としたレーダ画面を表示する。そして、統合表示処理部253は、無人航空機1の第1位置情報に基づいて、レーダ画面上に無人航空機画像402を表示する。   In this case, the ship 2 includes a radar 27 as in the example shown in FIG. Based on the detection result of the radar 27, the integrated display processing unit 253 displays a radar screen centered on the position of the own apparatus as shown in FIG. Then, the integrated display processing unit 253 displays the unmanned aircraft image 402 on the radar screen based on the first position information of the unmanned aircraft 1.

この場合、統合表示処理部253は、図15(A)に示すように、まず自船の位置を原点とする直交座標系の画面を表示し、自船の第1位置情報(絶対位置)に対して、画面内の各画素の位置を決定する。そして、統合表示処理部253は、第2位置情報(絶対位置)に対応する画素の位置に、無人航空機画像402を統合表示させる。   In this case, as shown in FIG. 15A, the integrated display processing unit 253 first displays a screen of an orthogonal coordinate system with the position of the own ship as the origin, and displays the first position information (absolute position) of the own ship. On the other hand, the position of each pixel in the screen is determined. Then, the integrated display processing unit 253 displays the unmanned aircraft image 402 in an integrated manner at the pixel position corresponding to the second position information (absolute position).

これにより、利用者は、鳥群のエコー画像505が表示された画面において、無人航空機の位置および撮影した海面の画像を確認することができる。したがって、利用者は、鳥群のエコー画像505の位置における実際の海面の状態(鳥群の規模等)を確認することができ、鳥群のエコー画像505の位置において、探知対象物である魚群が存在するか、確認することができる。なお、図6(B)の例では、統合表示処理部253は、レーダ画面(航海機器と第2センサ情報との相対的位置関係が図示される領域)内で、無人航空機1の第1位置情報に対応する領域に、カメラ画像404を表示する例を示している。しかし、統合表示処理部253は、図18に示すように、レーダ画面外に、カメラ画像404を表示してもよい。   Thereby, the user can check the position of the unmanned aircraft and the photographed sea surface image on the screen on which the echo image 505 of the bird flock is displayed. Therefore, the user can confirm the actual sea surface condition (such as the size of the bird swarm) at the position of the echo image 505 of the bird swarm. Can be confirmed. In the example of FIG. 6B, the integrated display processing unit 253 displays the first position of the unmanned aircraft 1 in the radar screen (the area where the relative positional relationship between the navigation equipment and the second sensor information is illustrated). An example is shown in which a camera image 404 is displayed in an area corresponding to information. However, the integrated display processing unit 253 may display the camera image 404 outside the radar screen as shown in FIG.

なお、統合表示処理部253は、図6(A)に示した海図と、図6(B)に示したレーダ画面と、を統合表示させることも可能である。   Note that the integrated display processing unit 253 can also integrally display the chart shown in FIG. 6A and the radar screen shown in FIG.

また、船舶2がレーダ27を備えている場合には、制御部212は、図14に示すように、位置算出部259を備えることで、探知対象物の位置(第3位置情報)を算出することができる。   When the ship 2 includes the radar 27, the control unit 212 includes a position calculation unit 259 as illustrated in FIG. 14, thereby calculating the position of the detection target (third position information). be able to.

位置算出部259は、図16(A)に示すように、レーダ27で検出されたエコーデータから、鳥群のエコーデータ(鳥群のエコー画像505)を探知する。そして、位置算出部259は、エコーデータに基づいて、自船の第1位置情報(絶対位置)からの鳥群の方位および距離を算出する。最後に、位置算出部259は、算出した鳥群の方位および距離に基づいて、鳥群の位置(第3位置情報)を算出する。   As illustrated in FIG. 16A, the position calculation unit 259 detects bird group echo data (bird group echo image 505) from the echo data detected by the radar 27. Then, the position calculation unit 259 calculates the direction and distance of the birds from the first position information (absolute position) of the ship based on the echo data. Finally, the position calculation unit 259 calculates the position of the bird group (third position information) based on the calculated direction and distance of the bird group.

第3位置情報は、図16(B)に示すように、無人航空機1の目的位置の設定、またはカメラ13の撮影方向の設定に用いられる。例えば、利用者は、操作部210を介して無人航空機1の目的位置を第3位置情報に設定したり、カメラ13の撮影方向を、第3位置情報に向ける指示を行なう。この場合、無人航空機1のカメラ13は、第3位置情報に対応する位置で撮影された画像(鳥群の画像)を取得する。   The third position information is used for setting the target position of the unmanned aerial vehicle 1 or setting the shooting direction of the camera 13 as shown in FIG. For example, the user sets the target position of the unmanned aerial vehicle 1 to the third position information via the operation unit 210 or instructs the camera 13 to point the shooting direction toward the third position information. In this case, the camera 13 of the unmanned aerial vehicle 1 acquires an image (bird group image) captured at a position corresponding to the third position information.

なお、カメラ13で撮影する画像は、鳥群の画像であってもよいが、例えば図17に示すように、レーダ27では第2探知対象物として鳥群のエコーデータを探知し、カメラ13では第1探知対象物として水面方向に撮影される魚群の画像を撮影する態様であってもよい。   The image captured by the camera 13 may be a bird group image. For example, as shown in FIG. 17, the radar 27 detects the echo data of the bird group as the second detection target, and the camera 13 The aspect which image | photographs the image of the fish school image | photographed in the water surface direction as a 1st detection target object may be sufficient.

次に、図4に示した解析部254の処理について説明する。解析部254は、無人航空機1から取得した各種情報の解析を行なう。解析部254は、例えばカメラ13の撮影した画像データの画像解析を行なう。例えば、解析部254は、テンプレートマッチング等を用いて、画像データから鳥画像を抽出する。そして、解析部254は、鳥画像の大きさから、鳥群との距離を推定する。解析部254は、推定した距離と、カメラ13の撮影方向と、第1位置情報と、に基づいて、鳥群の位置を示す第3位置情報を推定する。   Next, processing of the analysis unit 254 illustrated in FIG. 4 will be described. The analysis unit 254 analyzes various information acquired from the unmanned aircraft 1. The analysis unit 254 performs image analysis of image data captured by the camera 13, for example. For example, the analysis unit 254 extracts a bird image from the image data using template matching or the like. And the analysis part 254 estimates the distance with a bird group from the magnitude | size of a bird image. The analysis unit 254 estimates third position information indicating the position of the bird group based on the estimated distance, the shooting direction of the camera 13, and the first position information.

統合表示処理部253は、解析部254が推定した第3位置情報に基づいて、鳥群の情報を表示する。例えば、解析部254は、図13(A)に示すように、鳥群の第3位置を示す鳥群画像701を表示する。なお、無人航空機1が、第1センサとしてレーダを備えている場合には、解析部254は、レーダの探知結果に基づいて第3位置情報を推定することもできる。   The integrated display processing unit 253 displays bird group information based on the third position information estimated by the analysis unit 254. For example, the analysis unit 254 displays a bird group image 701 indicating the third position of the bird group as illustrated in FIG. In addition, when the unmanned aircraft 1 includes a radar as the first sensor, the analysis unit 254 can also estimate the third position information based on the radar detection result.

また、解析部254は、抽出した鳥画像の数をカウントし、鳥群の規模を推定する処理を行なってもよい。推定した鳥群の規模に係る情報は、統合表示処理部253に入力され、表示部213に統合表示される。例えば、統合表示処理部253は、図13(B)に示すように、推定した鳥群の規模に応じて、鳥群画像701の大きさを変更することで、鳥群の規模に係る情報を表現してもよい。   Further, the analysis unit 254 may perform processing for counting the number of extracted bird images and estimating the size of the bird group. Information relating to the estimated size of the bird flock is input to the integrated display processing unit 253 and is integratedly displayed on the display unit 213. For example, as shown in FIG. 13B, the integrated display processing unit 253 changes the size of the bird group image 701 according to the estimated size of the bird group, so that information related to the size of the bird group is obtained. It may be expressed.

また、解析部254は、無人航空機1から取得した情報に基づいて、鳥群の移動方向または移動速度を推定することも可能である。例えば、解析部254は、無人航空機1が静止している場合においては、画像データ内の鳥群の座標を検出し、複数のタイミングにおける鳥群の座標または鳥群の大きさの変化を算出することで、移動方向または移動速度を推定することができる。また、無人航空機1が移動している場合には、画像データ内の鳥群の座標の変化に、該無人航空機1の移動量および移動方向を加算することで、鳥群の移動方向または移動速度を算出することができる。統合表示処理部253は、例えば図13(A)または図13(B)に示すように、解析部254が推定した移動方向または移動速度を実線ベクトルで表示する。   The analysis unit 254 can also estimate the moving direction or moving speed of the bird group based on the information acquired from the unmanned aircraft 1. For example, when the unmanned aerial vehicle 1 is stationary, the analysis unit 254 detects the coordinates of the birds in the image data, and calculates changes in the coordinates of the birds or the size of the birds at a plurality of timings. Thus, the moving direction or moving speed can be estimated. Further, when the unmanned aerial vehicle 1 is moving, the moving direction or moving speed of the bird group is obtained by adding the moving amount and moving direction of the unmanned aircraft 1 to the change in the coordinates of the bird group in the image data. Can be calculated. For example, as shown in FIG. 13A or 13B, the integrated display processing unit 253 displays the moving direction or moving speed estimated by the analyzing unit 254 as a solid line vector.

なお、図13(A)および図13(B)の例では、第2探知対象物である鳥群の画像701を表示しているが、第1探知対象物である魚群の画像を表示してもよい。   In the example of FIGS. 13A and 13B, the image 701 of the school of birds that is the second detection target is displayed, but the image of the school of fish that is the first detection target is displayed. Also good.

また、解析部254は、海面の画像を抽出し、抽出した海面の画像の色に基づいて、水温の推定を行なうこともできる。推定した水温に係る情報は、統合表示処理部253に入力され、表示部213に統合表示される。   The analysis unit 254 can also extract the sea surface image and estimate the water temperature based on the color of the extracted sea surface image. Information related to the estimated water temperature is input to the integrated display processing unit 253 and is integratedly displayed on the display unit 213.

次に、図5に示した目的位置算出部255の処理について説明する。目的位置算出部255は、無人航空機1の自律飛行用飛行経路を設定する。上述の例では、無人航空機1の目的位置を含む自律飛行用飛行経路は、利用者からの指示のみに応じて決定していたが、図5の例では、第1センサからの情報または第2センサからの情報に基づいて、目的位置算出部255が無人航空機1の目的位置を算出する。算出された無人航空機1の目的位置は、入出力I/F211を介して無人航空機1に出力される。   Next, processing of the target position calculation unit 255 shown in FIG. 5 will be described. The target position calculation unit 255 sets a flight path for autonomous flight of the unmanned aircraft 1. In the above example, the flight path for autonomous flight including the target position of the unmanned aircraft 1 is determined only in accordance with an instruction from the user, but in the example of FIG. 5, the information from the first sensor or the second Based on information from the sensor, the target position calculation unit 255 calculates the target position of the unmanned aircraft 1. The calculated target position of the unmanned aerial vehicle 1 is output to the unmanned aerial vehicle 1 via the input / output I / F 211.

例えば、図6(A)の例において、利用者が操作部210を用いてカメラ画像404を選択して、当該カメラ画像404の鳥群を追尾するように指示した場合、目的位置算出部255は、当該カメラ画像404の鳥群に対応する位置、あるいは鳥群から所定距離離れた位置を、目的位置として算出する。ただし、この場合、解析部254において、カメラ画像から探知対象物(例えば鳥群)の画像を認識する。   For example, in the example of FIG. 6A, when the user selects the camera image 404 using the operation unit 210 and instructs to track the bird group of the camera image 404, the target position calculation unit 255 Then, a position corresponding to the bird group in the camera image 404 or a position away from the bird group by a predetermined distance is calculated as the target position. However, in this case, the analysis unit 254 recognizes an image of the detection target object (for example, a bird group) from the camera image.

なお、目的位置算出部255は、このような目的位置の算出および出力を繰り返すことで、無人航空機1に対して、指示された画像に対応する探知対象物を追尾させることができ、無人航空機1の自律飛行用飛行経路を設定することもできる。   The target position calculation unit 255 can cause the unmanned aircraft 1 to track the detection target corresponding to the instructed image by repeating such calculation and output of the target position. It is also possible to set a flight path for autonomous flight.

また、例えば、図6(B)の例において、利用者が操作部210を用いて鳥群のエコー画像505を選択して、当該エコー画像505を追尾するように指示した場合、目的位置算出部255は、当該エコー画像505に対応する位置(緯度および経度)を、目的位置として設定する。   Further, for example, in the example of FIG. 6B, when the user selects the echo image 505 of the bird flock using the operation unit 210 and instructs to track the echo image 505, the target position calculation unit 255 sets the position (latitude and longitude) corresponding to the echo image 505 as the target position.

次に、図9および図10は、探索システムの全体構成を示すブロック図である。図9に示すように、探索システムは、無人航空機1がさらに無線通信部19を備え、船舶2がさらに無線通信部29を備えた実施態様も可能である。また、図9に示すように、探索システムは、無人航空機1が衛星通信部14に代えて無線通信部19を備え、船舶2が衛星通信部24に代えて無線通信部29を備えた実施態様も可能である。   Next, FIG. 9 and FIG. 10 are block diagrams showing the overall configuration of the search system. As shown in FIG. 9, the search system may be an embodiment in which the unmanned aircraft 1 further includes a wireless communication unit 19 and the ship 2 further includes a wireless communication unit 29. As shown in FIG. 9, the search system is an embodiment in which the unmanned aircraft 1 includes a wireless communication unit 19 instead of the satellite communication unit 14, and the ship 2 includes a wireless communication unit 29 instead of the satellite communication unit 24. Is also possible.

無人航空機1がさらに無線通信部19を備え、船舶2がさらに無線通信部29を備える場合には、無人航空機1および船舶2は、無線通信部19および無線通信部29により通信が可能である場合に、これら無線通信部19および無線通信部29を介して各種情報を送受信する。無人航空機1および船舶2は、無線通信部19および無線通信部29により通信が不可であった場合に、衛星通信部14および衛星通信部24を介して各種情報を送受信する。   When the unmanned aircraft 1 further includes the wireless communication unit 19 and the ship 2 further includes the wireless communication unit 29, the unmanned aircraft 1 and the ship 2 can communicate with each other by the wireless communication unit 19 and the wireless communication unit 29. In addition, various information is transmitted and received through the wireless communication unit 19 and the wireless communication unit 29. The unmanned aircraft 1 and the ship 2 transmit and receive various types of information via the satellite communication unit 14 and the satellite communication unit 24 when the wireless communication unit 19 and the wireless communication unit 29 cannot communicate.

これにより、探索システムは、相対的にコストが高い衛星通信を用いることなく通信を行ないながらも、無線通信部による通信ができなかった場合に、衛星通信を用いることで、コストの増大を防ぎながらも、柔軟な運用を行なうことができる。   As a result, the search system performs communication without using satellite communication, which is relatively expensive, but uses satellite communication to prevent an increase in cost when communication by the wireless communication unit is not possible. Can be operated flexibly.

また、無人航空機1が衛星通信部14に代えて無線通信部19を備え、船舶2が衛星通信部24に代えて無線通信部29を備えた実施態様である場合、相対的にコストが高い衛星通信を用いることがない。また、この実施態様では、無人航空機が衛星通信部を備えていないため、無人航空機を軽量化することができ、移動速度の向上および航続距離の増大が可能である。   Further, when the unmanned aircraft 1 is an embodiment in which the wireless communication unit 19 is provided instead of the satellite communication unit 14 and the ship 2 is provided with the wireless communication unit 29 instead of the satellite communication unit 24, a satellite having a relatively high cost. Communication is not used. Moreover, in this embodiment, since the unmanned aircraft does not include the satellite communication unit, the unmanned aircraft can be reduced in weight, and the moving speed can be improved and the cruising distance can be increased.

この実施態様では、探索システムは、図11に示すように、複数の無人航空機(図11では、無人航空機1A、無人航空機1B、および無人航空機1C)を備えることが好ましい。各無人航空機は、互いに無線通信を行ない、中継装置として機能する。これにより、探索システムは、アドホックネットワークシステムを構築する。この場合、第1センサ情報取得部251は、アドホックネットワークシステムを介して、いずれか1つの無人航空機1から第1センサの情報を取得する。   In this embodiment, as shown in FIG. 11, the search system preferably includes a plurality of unmanned aircraft (in FIG. 11, unmanned aircraft 1A, unmanned aircraft 1B, and unmanned aircraft 1C). Each unmanned aircraft performs wireless communication with each other and functions as a relay device. Thereby, the search system constructs an ad hoc network system. In this case, the first sensor information acquisition unit 251 acquires information on the first sensor from any one unmanned aircraft 1 via the ad hoc network system.

この場合、探知対象物に係る画像を撮影、認識した無人航空機が当該探知対象物の追尾を行い、他の無人航空機は、中継装置として機能する。したがって、図11の例では、衛星通信部の構成を備えていない場合であっても、船舶2と1つの無人航空機1とが通信可能な領域を越えて、遠方の位置における無人航空機1の第1センサで取得した各種情報が船舶2に送信される。   In this case, the unmanned aerial vehicle that captures and recognizes the image related to the detection target object tracks the detection target object, and the other unmanned aircraft functions as a relay device. Therefore, in the example of FIG. 11, even if the configuration of the satellite communication unit is not provided, the first unmanned aircraft 1 at a distant position exceeds the area where the ship 2 and one unmanned aircraft 1 can communicate. Various information acquired by one sensor is transmitted to the ship 2.

(変形例1)
変形例1として、無人航空機1に搭載される第1センサは、サーモカメラであってもよい。この場合、第1センサで取得される情報として、水温に関する情報が取得される。また、例えば他船の熱源を検知することもできる。例えば探知対象物が不審船である場合には、無人航空機1で取得された熱源に関する情報が、当該不審船を追尾するために重要な情報となる。したがって、船舶2において、利用者は、レーダ等の第2センサを用いて不審船の位置を把握しながら、第1センサであるサーモカメラを用いて不審船の確認を行なうことができる。
(Modification 1)
As a first modification, the first sensor mounted on the unmanned aircraft 1 may be a thermo camera. In this case, information regarding the water temperature is acquired as information acquired by the first sensor. Further, for example, a heat source of another ship can be detected. For example, when the object to be detected is a suspicious ship, information on the heat source acquired by the unmanned aerial vehicle 1 becomes important information for tracking the suspicious ship. Therefore, in the ship 2, the user can confirm the suspicious ship using the thermo camera as the first sensor while grasping the position of the suspicious ship using the second sensor such as a radar.

(変形例2)
変形例2として、無人航空機1に搭載される第1センサは、AIS受信機であってもよい。この場合、無人航空機1において、他船のAIS情報を受信することができる。したがって、船舶2では受信できない遠方の他船のAIS情報を、無人航空機1において取得し、当該AIS情報を船舶2において確認することができる。
(Modification 2)
As a second modification, the first sensor mounted on the unmanned aerial vehicle 1 may be an AIS receiver. In this case, the unmanned aerial vehicle 1 can receive AIS information of other ships. Therefore, the AIS information of other distant ships that cannot be received by the ship 2 can be acquired by the unmanned aircraft 1 and the AIS information can be confirmed by the ship 2.

(変形例3)
変形例3として、無人航空機1に搭載される第1センサは、航空レーザ測探機であってもよい、航空レーザ測探機は、近赤外レーザと緑色レーザを同時に照射し、水面、陸地、海底、または魚群からのエコーを観測する装置である。これにより、無人航空機1は、空中から水中内の魚群を探知する魚群探知機として機能する。
(Modification 3)
As a third modification, the first sensor mounted on the unmanned aircraft 1 may be an aviation laser detector. The aviation laser detector irradiates a near infrared laser and a green laser at the same time, A device for observing echoes from the seabed, or from a school of fish. Thereby, the unmanned aerial vehicle 1 functions as a fish finder for detecting fish in the water from the air.

(変形例4)
変形例4は、無人航空機1が着水する態様である。この場合、無人航空機1は、第1センサとして、水温計、水中カメラ、魚群探知機、またはソナー(自船の真下以外を探知する超音波測定機)を備えている。この場合、無人航空機1は、水中を直接観察することができる。なお、無人航空機1が魚群探知機またはソナーを備えている場合には、解析部254は、魚群探知機またはソナーの探知結果に基づいて、魚群の位置情報(第3位置情報)を推定することができる。この場合、統合表示処理部253は、表示部213において、魚群の位置を示す画像(魚群画像)を表示する。
(Modification 4)
Modification 4 is a mode in which the unmanned aerial vehicle 1 lands. In this case, the unmanned aircraft 1 includes, as the first sensor, a thermometer, an underwater camera, a fish finder, or a sonar (an ultrasonic measuring device that detects other than directly under the ship). In this case, the unmanned aerial vehicle 1 can directly observe underwater. When the unmanned aerial vehicle 1 includes a fish finder or sonar, the analysis unit 254 estimates the position information (third position information) of the fish school based on the detection result of the fish finder or sonar. Can do. In this case, the integrated display processing unit 253 displays an image (fish group image) indicating the position of the fish school on the display unit 213.

なお、本実施形態では、航海機器および表示装置が船舶に搭載される例を示した。しかし、航海機器は、船舶に搭載されるものに限らない。例えば、航海機器は、地上の設備に設置される場合もある。例えば、地上のレーダ基地局において、レーダ画面上に、無人航空機で取得した情報を統合表示する態様であってもよい。すなわち、表示装置は、地上の設備に設置された航海機器から、各種の情報を取得して、無人航空機で取得した情報を統合表示すればよい。   In the present embodiment, an example in which the navigation device and the display device are mounted on a ship is shown. However, the nautical equipment is not limited to those mounted on the ship. For example, nautical equipment may be installed in ground facilities. For example, in a ground radar base station, information acquired by an unmanned aerial vehicle may be integrated and displayed on a radar screen. That is, the display device only needs to acquire various types of information from the navigation equipment installed in the ground facilities and display the information acquired by the unmanned aircraft in an integrated manner.

また、本実施形態では、表示装置23は、マルチファンクションディスプレイである例を示したが、例えば、アンテナと信号処理機能と表示器とを備えたレーダ装置において、該レーダ装置における表示器に、エコーデータから得られるエコー画像に第1センサから得た情報を統合表示してもよい。この場合、無人航空機から各種情報を取得する構成と、エコー画像等の情報を取得する構成と、該レーダ装置の表示器に画像を表示する処理を行なう処理部と、からなる装置が、本発明の表示装置に該当する。   In the present embodiment, the display device 23 is an example of a multi-function display. For example, in a radar device including an antenna, a signal processing function, and a display device, an echo is displayed on the display device of the radar device. Information obtained from the first sensor may be integrated and displayed on an echo image obtained from the data. In this case, an apparatus comprising a configuration for acquiring various types of information from an unmanned aerial vehicle, a configuration for acquiring information such as an echo image, and a processing unit that performs a process of displaying an image on a display of the radar device is provided by the present invention. This corresponds to the display device.

本実施形態の説明は、すべての点で例示であって、制限的なものではない。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The description of this embodiment is illustrative in all respects and not restrictive. The scope of the present invention is shown not by the above embodiments but by the claims. Furthermore, the scope of the present invention is intended to include all modifications within the meaning and scope equivalent to the scope of the claims.

探索システムは、各種の産業において利用することができる。   Search systems can be used in various industries.

例えば、海上で他船に火災が発生した場合に、表示装置は、自船または地上基地局のおける第2センサ(例えばレーダ)により取得した情報として、火災船の概略位置を表示する。利用者は、火災船の概略位置を把握し、消防艇を派遣する。このとき、探索システムは、第2センサで得た情報(火災船の位置)に基づいて、無人航空機1の経路を設定する。または、利用者が、無人航空機1の経路を設定する。無人航空機1は、カメラを用いて火災船および消防艇の画像を取得する。表示装置は、自船または地上基地局におけるレーダで取得した情報と、無人航空機1で取得した画像とを統合して表示する。これにより、例えば、消防艇が、火災船に適切な放水を行なっているか否かを表示させることができる。   For example, when a fire occurs on another ship at sea, the display device displays the approximate position of the fire ship as information acquired by a second sensor (for example, radar) in the ship or a ground base station. The user grasps the approximate position of the fire boat and dispatches a fire boat. At this time, the search system sets the route of the unmanned aircraft 1 based on the information (fire ship position) obtained by the second sensor. Alternatively, the user sets the route of the unmanned aircraft 1. The unmanned aerial vehicle 1 acquires images of a fire ship and a fireboat using a camera. The display device integrates and displays the information acquired by the radar in the ship or the ground base station and the image acquired by the unmanned aircraft 1. Thereby, for example, it is possible to display whether or not the fireboat is appropriately discharging water to the fireboat.

また、例えば、豪雨発生時に、表示装置は、防災センタにおける第2センサ(例えば気象レーダ)により取得した情報を表示することで、豪雨発生地域を表示する。利用者は、豪雨発生地域を特定し、無人航空機1の経路を設定する。無人航空機1は、第1センサを用いて豪雨発生場所の各種情報(例えば被害状況等を示す画像)を取得する。表示装置は、防災センタにおける気象レーダで取得した情報と、無人航空機1で取得した豪雨発生場所の画像とを統合して表示する。これにより、利用者は、豪雨発生場所の被害状況を把握し、災害対策を検討することができる。   Further, for example, when heavy rain occurs, the display device displays the area where the heavy rain occurs by displaying information acquired by the second sensor (for example, weather radar) in the disaster prevention center. The user specifies the heavy rain occurrence area and sets the route of the unmanned aircraft 1. The unmanned aerial vehicle 1 uses the first sensor to acquire various types of information (for example, an image showing a damage situation, etc.) of a heavy rain occurrence location. The display device displays the information acquired by the weather radar in the disaster prevention center and the image of the heavy rain occurrence location acquired by the unmanned aircraft 1 in an integrated manner. Thereby, the user can grasp the damage situation of the heavy rain occurrence place and can consider disaster countermeasures.

1、1A,1B,1C…無人航空機
2…船舶
3A,3B…衛星通信装置
5A,5B…衛星地上局
7…インターネット
11…位置検出部
12…機体制御部
13…カメラ
14…衛星通信部
19…無線通信部
21…位置検出部
22…AIS受信機
23…表示装置
24…衛星通信部
27…レーダ
29…無線通信部
210…操作部
211…入出力I/F
212…制御部
213…表示部
214…記憶部
251…第1情報取得部
252…第2センサ情報取得部
253…統合表示処理部
254…解析部
255…目的位置算出部
401…自船画像
402…無人航空機画像
403…他船画像
404…カメラ画像
503,504,505…エコー画像
DESCRIPTION OF SYMBOLS 1, 1A, 1B, 1C ... Unmanned aerial vehicle 2 ... Ship 3A, 3B ... Satellite communication apparatus 5A, 5B ... Satellite ground station 7 ... Internet 11 ... Position detection part 12 ... Airframe control part 13 ... Camera 14 ... Satellite communication part 19 ... Wireless communication section 21 ... Position detection section 22 ... AIS receiver 23 ... Display device 24 ... Satellite communication section 27 ... Radar 29 ... Wireless communication section 210 ... Operation section 211 ... Input / output I / F
212 ... Control unit 213 ... Display unit 214 ... Storage unit 251 ... First information acquisition unit 252 ... Second sensor information acquisition unit 253 ... Integrated display processing unit 254 ... Analysis unit 255 ... Target position calculation unit 401 ... Own ship image 402 ... Unmanned aircraft image 403 ... Other ship image 404 ... Camera images 503, 504, 505 ... Echo images

Claims (15)

無人航空機に搭載された第1センサで検出された第1センサ情報を取得する第1センサ情報取得部と、
前記無人航空機に搭載された第1位置検出部で検出された前記無人航空機の第1位置情報を取得する第1位置情報取得部と、
航海機器に搭載された第2センサで検出された第2センサ情報を取得する第2センサ情報取得部と、
前記航海機器に搭載された第2位置検出部で検出された前記航海機器の第2位置情報を取得する第2位置情報取得部と、
前記第1位置情報と、前記第2位置情報とに基づいて、前記第1センサ情報と、前記第2センサ情報と、を統合して表示する統合表示処理部と、
を備えた表示装置。
A first sensor information acquisition unit for acquiring first sensor information detected by a first sensor mounted on an unmanned aerial vehicle;
A first position information acquisition unit for acquiring first position information of the unmanned aircraft detected by a first position detection unit mounted on the unmanned aircraft;
A second sensor information acquisition unit for acquiring second sensor information detected by a second sensor mounted on the navigation device;
A second position information acquisition unit for acquiring second position information of the navigation device detected by a second position detection unit mounted on the navigation device;
An integrated display processing unit that displays the first sensor information and the second sensor information in an integrated manner based on the first position information and the second position information;
A display device comprising:
請求項1に記載の表示装置において、
前記第2センサ情報から第2探知対象物を抽出し、前記第2位置情報からの前記第2探知対象物の方位と距離を算出し、前記第2位置情報および前記第2探知対象物の方位と距離に基づいて、前記第2探知対象物の第3位置情報を算出する位置算出部を備え、
前記第1センサ情報取得部は、前記第3位置情報に対応する位置で検出された第1探知対象物の第1センサ情報を取得する、
表示装置。
The display device according to claim 1,
The second detection object is extracted from the second sensor information, the azimuth and distance of the second detection object are calculated from the second position information, and the second position information and the azimuth of the second detection object are calculated. And a position calculating unit that calculates third position information of the second detection target based on the distance,
The first sensor information acquisition unit acquires first sensor information of a first detection target detected at a position corresponding to the third position information.
Display device.
請求項1または請求項2に記載の表示装置において、
前記統合表示処理部は、前記航海機器と前記第2センサ情報との相対的位置関係が図示される領域内で、前記第1位置情報に対応する領域に、前記第1センサ情報を表示する、
表示装置。
The display device according to claim 1 or 2,
The integrated display processing unit displays the first sensor information in a region corresponding to the first position information in a region where a relative positional relationship between the navigation device and the second sensor information is illustrated.
Display device.
請求項1または請求項2に記載の表示装置において、
前記統合表示処理部は、前記航海機器と前記第2センサ情報との相対的位置関係が図示される領域外に、前記第1センサ情報を表示する、
表示装置。
The display device according to claim 1 or 2,
The integrated display processing unit displays the first sensor information outside a region in which a relative positional relationship between the navigation device and the second sensor information is illustrated;
Display device.
請求項1乃至請求項4のいずれか1項に記載の表示装置であって、
前記第1センサ情報取得部および第1位置情報取得部は、それぞれ衛星通信を介して前記第1センサ情報と前記第1位置情報とを取得する、
表示装置。
The display device according to any one of claims 1 to 4,
The first sensor information acquisition unit and the first position information acquisition unit respectively acquire the first sensor information and the first position information via satellite communication.
Display device.
請求項1乃至請求項4のいずれか1項に記載の表示装置であって、
前記第1センサ情報取得部および第1位置情報取得部は、それぞれアドホックネットワークシステムを介して前記第1センサ情報と前記第1位置情報とを取得する、
表示装置。
The display device according to any one of claims 1 to 4,
The first sensor information acquisition unit and the first location information acquisition unit respectively acquire the first sensor information and the first location information via an ad hoc network system.
Display device.
請求項1乃至請求項6のいずれか1項に記載の表示装置であって、
前記第2センサは、レーダであり、
前記第2センサ情報は、前記レーダのエコーデータを含む、
表示装置。
The display device according to any one of claims 1 to 6,
The second sensor is a radar;
The second sensor information includes echo data of the radar.
Display device.
請求項7に記載の表示装置において、
前記レーダで取得されたエコーデータに基づいて、前記無人航空機の目的位置を算出する目的位置算出部をさらに備えた、
表示装置。
The display device according to claim 7,
Based on echo data acquired by the radar, further comprising a target position calculation unit for calculating a target position of the unmanned aircraft,
Display device.
請求項1乃至請求項8のいずれか1項に記載の表示装置であって、
前記第1センサは、カメラであり、
前記第1センサ情報は、前記カメラで撮影された画像を含む、
表示装置。
A display device according to any one of claims 1 to 8,
The first sensor is a camera;
The first sensor information includes an image taken by the camera.
Display device.
請求項2に記載の表示装置であって、
前記第1センサは、カメラであり、
前記第1センサ情報は、前記カメラで撮影された画像を含み、
前記第1探知対象物は、前記カメラで水面方向に撮影され、
前記第2センサは、レーダであり、
前記第2センサ情報は、前記レーダのエコーデータを含み、
前記第2探知対象物は、前記レーダのエコーデータにより探知される、
表示装置。
The display device according to claim 2,
The first sensor is a camera;
The first sensor information includes an image taken by the camera,
The first detection object is photographed in the water surface direction by the camera,
The second sensor is a radar;
The second sensor information includes echo data of the radar,
The second detection object is detected by echo data of the radar.
Display device.
請求項9または10に記載の表示装置において、
前記画像を解析することにより、探知対象物の規模を推定する解析部を備え、
前記統合表示処理部は、前記探知対象物の規模に関する情報をさらに表示する、
表示装置。
The display device according to claim 9 or 10,
By analyzing the image, the analysis unit for estimating the size of the detection target object,
The integrated display processing unit further displays information on the scale of the detection target;
Display device.
請求項9または10に記載の表示装置において、
前記画像を解析することにより、探知対象物の移動速度を推定する解析部を備え、
前記統合表示処理部は、前記探知対象物の移動速度に関する情報をさらに表示する、
表示装置。
The display device according to claim 9 or 10,
By analyzing the image, the analysis unit for estimating the moving speed of the detection target object,
The integrated display processing unit further displays information on a moving speed of the detection object;
Display device.
請求項1乃至請求項12のいずれか1項に記載の表示装置と、
前記無人航空機と、
該無人航空機を管制するナビゲーション装置と、
を備えた探索システム。
A display device according to any one of claims 1 to 12,
The unmanned aerial vehicle;
A navigation device for controlling the unmanned aerial vehicle;
Search system with
無人航空機に搭載された第1センサで検出された第1センサ情報を取得する第1センサ情報取得処理と、
前記無人航空機に搭載された第1位置検出部で検出された前記無人航空機の第1位置情報を取得する第1位置情報取得処理と、
航海機器に搭載された第2センサで検出された第2センサ情報を取得する第2センサ情報取得処理と、
前記航海機器に搭載された第2位置検出部で検出された前記航海機器の第2位置情報を取得する第2位置情報取得処理と、
前記第1位置情報と、前記第2位置情報とに基づいて、前記第1センサ情報と、前記第2センサ情報と、を統合して表示する統合表示処理と、
を行なう表示方法。
A first sensor information acquisition process for acquiring first sensor information detected by a first sensor mounted on an unmanned aerial vehicle;
A first position information acquisition process for acquiring first position information of the unmanned aerial vehicle detected by a first position detection unit mounted on the unmanned aircraft;
A second sensor information acquisition process for acquiring second sensor information detected by a second sensor mounted on the navigation device;
A second position information acquisition process for acquiring second position information of the navigation device detected by a second position detection unit mounted on the navigation device;
An integrated display process for integrating and displaying the first sensor information and the second sensor information based on the first position information and the second position information;
Display method to do.
コンピュータに、
無人航空機に搭載された第1センサで検出された第1センサ情報を取得する第1センサ情報取得処理と、
前記無人航空機に搭載された第1位置検出部で検出された前記無人航空機の第1位置情報を取得する第1位置情報取得処理と、
航海機器に搭載された第2センサで検出された第2センサ情報を取得する第2センサ情報取得処理と、
前記航海機器に搭載された第2位置検出部で検出された前記航海機器の第2位置情報を取得する第2位置情報取得処理と、
前記第1位置情報と、前記第2位置情報とに基づいて、前記第1センサ情報と、前記第2センサ情報と、を統合して表示する統合表示処理と、
を実行させる、プログラム。
On the computer,
A first sensor information acquisition process for acquiring first sensor information detected by a first sensor mounted on an unmanned aerial vehicle;
A first position information acquisition process for acquiring first position information of the unmanned aerial vehicle detected by a first position detection unit mounted on the unmanned aircraft;
A second sensor information acquisition process for acquiring second sensor information detected by a second sensor mounted on the navigation device;
A second position information acquisition process for acquiring second position information of the navigation device detected by a second position detection unit mounted on the navigation device;
An integrated display process for integrating and displaying the first sensor information and the second sensor information based on the first position information and the second position information;
A program that executes
JP2016137694A 2016-07-12 2016-07-12 Display device, search system, display method, and program Active JP6738059B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016137694A JP6738059B2 (en) 2016-07-12 2016-07-12 Display device, search system, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016137694A JP6738059B2 (en) 2016-07-12 2016-07-12 Display device, search system, display method, and program

Publications (2)

Publication Number Publication Date
JP2018008574A true JP2018008574A (en) 2018-01-18
JP6738059B2 JP6738059B2 (en) 2020-08-12

Family

ID=60993428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016137694A Active JP6738059B2 (en) 2016-07-12 2016-07-12 Display device, search system, display method, and program

Country Status (1)

Country Link
JP (1) JP6738059B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018120553A (en) * 2017-01-27 2018-08-02 株式会社東芝 Weather information processing apparatus, weather information processing method, and program
JP2019161486A (en) * 2018-03-14 2019-09-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Dynamic body detection device, control device, moving body, dynamic body detection method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347549A (en) * 1993-06-08 1994-12-22 Japan Radio Co Ltd Fish group monitoring device
JPH08166445A (en) * 1994-12-12 1996-06-25 Japan Radio Co Ltd Radar system
JPH11339179A (en) * 1998-05-26 1999-12-10 Hitachi Ltd Flying object utilizing system
JP2004056664A (en) * 2002-07-23 2004-02-19 Ntt Data Corp Cooperative photography system
JP2007093045A (en) * 2005-09-27 2007-04-12 Mitsubishi Electric Corp Command device and command method
JP2012108050A (en) * 2010-11-18 2012-06-07 Furuno Electric Co Ltd Radar device, target of interest detection method and target of interest detection program
JP2014097785A (en) * 2012-10-22 2014-05-29 Boeing Co Water area management system
JP5767731B1 (en) * 2014-03-26 2015-08-19 株式会社衛星ネットワーク Aerial video distribution system and aerial video distribution method
JP2016088337A (en) * 2014-11-06 2016-05-23 株式会社Ihiエアロスペース Space vehicle search and recovery system
JP2016110381A (en) * 2014-12-05 2016-06-20 古野電気株式会社 Number-of-objects counting device, program, and method for counting number of objects

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347549A (en) * 1993-06-08 1994-12-22 Japan Radio Co Ltd Fish group monitoring device
JPH08166445A (en) * 1994-12-12 1996-06-25 Japan Radio Co Ltd Radar system
JPH11339179A (en) * 1998-05-26 1999-12-10 Hitachi Ltd Flying object utilizing system
JP2004056664A (en) * 2002-07-23 2004-02-19 Ntt Data Corp Cooperative photography system
JP2007093045A (en) * 2005-09-27 2007-04-12 Mitsubishi Electric Corp Command device and command method
JP2012108050A (en) * 2010-11-18 2012-06-07 Furuno Electric Co Ltd Radar device, target of interest detection method and target of interest detection program
JP2014097785A (en) * 2012-10-22 2014-05-29 Boeing Co Water area management system
JP5767731B1 (en) * 2014-03-26 2015-08-19 株式会社衛星ネットワーク Aerial video distribution system and aerial video distribution method
JP2016088337A (en) * 2014-11-06 2016-05-23 株式会社Ihiエアロスペース Space vehicle search and recovery system
JP2016110381A (en) * 2014-12-05 2016-06-20 古野電気株式会社 Number-of-objects counting device, program, and method for counting number of objects

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018120553A (en) * 2017-01-27 2018-08-02 株式会社東芝 Weather information processing apparatus, weather information processing method, and program
JP2019161486A (en) * 2018-03-14 2019-09-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Dynamic body detection device, control device, moving body, dynamic body detection method, and program

Also Published As

Publication number Publication date
JP6738059B2 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
US11430332B2 (en) Unmanned aerial system assisted navigational systems and methods
KR101683274B1 (en) System for supporting vessel berth using unmanned aerial vehicle and the method thereof
KR101695899B1 (en) Maritime surveillance system
KR102007849B1 (en) System and method for supporting ship entering and leaving port using 3d lidar mounted on unmanned aerial vehicle
US20220301302A1 (en) Air and sea based fishing data collection and analysis systems and methods
CN112335190B (en) Radio link coverage map and impairment system and method
JP6877815B2 (en) Image generator
Johansen et al. Unmanned aerial surveillance system for hazard collision avoidance in autonomous shipping
KR102399982B1 (en) Ships using the aircraft safe operation support systems
WO2018135522A1 (en) Mobile body control system, mobile body control device, mobile body control method, and recording medium
WO2018045354A2 (en) Unmanned aerial system assisted navigational systems and methods
Mukherjee et al. Unmanned aerial system for post disaster identification
KR20140030610A (en) Surveillance method for using unmanned aerial vehicles and ground observation equipments
JP6482857B2 (en) Monitoring system
JP6482855B2 (en) Monitoring system
JP6738059B2 (en) Display device, search system, display method, and program
Martins et al. Field experiments for marine casualty detection with autonomous surface vehicles
CN107908163A (en) A kind of unmanned plane Reconnaissance system based on unmanned naval vessels
JP6482856B2 (en) Monitoring system
WO2021075364A1 (en) Ship maneuvering assistance system and method
JP2016082586A (en) Image generating apparatus
JP4920347B2 (en) Underwater monitoring system
KR20240021673A (en) Object monitoring device providing information about unidentified objects
JP6393157B2 (en) Spacecraft search and recovery system
KR20170004560A (en) Ships using the aircraft safe operation support systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200708

R150 Certificate of patent or registration of utility model

Ref document number: 6738059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250