JP2023149905A - Server, processing method, and program - Google Patents

Server, processing method, and program Download PDF

Info

Publication number
JP2023149905A
JP2023149905A JP2022058708A JP2022058708A JP2023149905A JP 2023149905 A JP2023149905 A JP 2023149905A JP 2022058708 A JP2022058708 A JP 2022058708A JP 2022058708 A JP2022058708 A JP 2022058708A JP 2023149905 A JP2023149905 A JP 2023149905A
Authority
JP
Japan
Prior art keywords
detection
sensor
sensor data
time
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022058708A
Other languages
Japanese (ja)
Inventor
景子 岐部
Keiko Kibe
恭平 秀瀬
Kyohei Hidese
敏之 吉田
Toshiyuki Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2022058708A priority Critical patent/JP2023149905A/en
Publication of JP2023149905A publication Critical patent/JP2023149905A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a technique that allows for further improving convenience of users trying to recognize a detection target.SOLUTION: A server is provided, comprising a control unit configured to provide control to analyze intensity of sensor data for each sensor data frequency and sensor data acquisition time using the sensor data received from the sensor, obtain an analysis result, and provide a terminal with the analysis result.SELECTED DRAWING: Figure 1

Description

本発明は、サーバ、処理方法およびプログラムに関する。 The present invention relates to a server, a processing method, and a program.

近年、センサによって検知対象物を検知する技術が知られている。例えば、複数のマイクロフォンによって検出された音響信号を構成する周波数成分から、複数の周波数区分それぞれに属する周波数成分を抽出する技術が知られている(例えば、特許文献1参照。)。かかる技術では、抽出された周波数成分が周波数区分ごとに異なる表示色によって表示される。かかる技術によれば、特定の検知対象物が検知されたことが直感的に利用者によって認識され得る。 In recent years, techniques for detecting objects to be detected using sensors have been known. For example, a technique is known that extracts frequency components belonging to each of a plurality of frequency categories from frequency components constituting an acoustic signal detected by a plurality of microphones (see, for example, Patent Document 1). In this technique, extracted frequency components are displayed in different display colors for each frequency segment. According to this technology, a user can intuitively recognize that a specific detection target has been detected.

特開2014-85386号公報Japanese Patent Application Publication No. 2014-85386

しかしながら、検知対象物を認識しようとする利用者の利便性をさらに向上させることが可能な技術が提供されることが望まれる。 However, it is desired to provide a technology that can further improve convenience for users who are trying to recognize objects to be detected.

上記問題を解決するために、本発明のある観点によれば、センサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御する制御部を備える、サーバが提供される。 In order to solve the above problem, according to one aspect of the present invention, based on sensor data received from a sensor, the intensity of the sensor data is analyzed for each frequency of the sensor data and the time at which the sensor data is obtained. A server is provided, which includes a control unit configured to obtain an analysis result and provide the analysis result to a terminal.

前記制御部は、前記センサデータに基づいて、前記センサデータの強度が第1の閾値より大きいか否かを前記周波数および前記時刻ごとに判定し、判定して得られた結果を前記分析結果として得てもよい。 The control unit determines whether the intensity of the sensor data is greater than a first threshold value for each frequency and time based on the sensor data, and determines the result obtained by the determination as the analysis result. You may get it.

前記制御部は、前記センサデータに基づいて、前記センサデータの強度が前記第1の閾値より大きい第1の周波数帯域を検出し、前記第1の周波数帯域が第1の帯域よりも広いことに基づいて、第1の検知対象物を検知してもよい。 The control unit detects, based on the sensor data, a first frequency band in which the intensity of the sensor data is greater than the first threshold, and the first frequency band is wider than the first band. Based on this, the first detection target may be detected.

前記制御部は、前記センサデータに基づいて、前記センサデータの強度が前記第1の閾値より大きい周波数が存在する第1の時刻を検出し、前記第1の時刻から所定の時間後の第2の時刻におけるセンサデータの強度が前記第1の閾値より大きい周波数帯域を前記第1の周波数帯域として検出してもよい。 The control unit detects, based on the sensor data, a first time at which there is a frequency where the intensity of the sensor data is greater than the first threshold, and detects a second time after a predetermined time from the first time. A frequency band in which the intensity of sensor data at the time of is greater than the first threshold value may be detected as the first frequency band.

前記制御部は、前記第1の検知対象物を検知したことに基づいて、前記端末に対して検知に係る情報に対応する識別情報を与えるよう制御してもよい。 The control unit may control the terminal to provide identification information corresponding to information related to detection based on the detection of the first detection target.

前記第1の検知対象物は、船であってもよい。 The first detection target may be a ship.

前記制御部は、あらかじめ機械学習により生成されたモデルと、前記分析結果とに基づいて、第2の検知対象物を検知してもよい。 The control unit may detect the second detection target based on a model generated in advance by machine learning and the analysis result.

前記制御部は、前記モデルと前記分析結果とに基づいて出力される前記第2の検知対象物の検知確率が所定の確率よりも大きいことに基づいて、前記第2の検知対象物を検知してもよい。 The control unit detects the second detection target based on the fact that a detection probability of the second detection target output based on the model and the analysis result is greater than a predetermined probability. It's okay.

前記制御部は、前記第2の検知対象物を検知したことに基づいて、前記端末に対して検知に係る情報に対応する識別情報を与えるよう制御してもよい。 The control unit may control to provide identification information corresponding to information related to detection to the terminal based on the detection of the second detection target.

前記第2の検知対象物は、ダイバーであってもよい。 The second detection target may be a diver.

前記制御部は、前記センサデータに基づいて、前記センサデータの強度が第2の閾値より大きい第2の周波数帯域を検出し、前記第2の周波数帯域が第2の帯域よりも広いことに基づいて、前記第2の検知対象物の検知を取り消してもよい。 The control unit detects a second frequency band in which the intensity of the sensor data is higher than a second threshold based on the sensor data, and detects a second frequency band based on the fact that the second frequency band is wider than the second band. Then, the detection of the second detection target may be canceled.

前記制御部は、前記センサデータに基づいて、前記センサデータの強度が第2の閾値より大きい時間を検出し、前記時間が所定の時間よりも短いことに基づいて、前記第2の検知対象物の検知を取り消してもよい。 The control unit detects a time when the intensity of the sensor data is greater than a second threshold based on the sensor data, and detects the second detection target based on the time being shorter than a predetermined time. Detection may be canceled.

前記制御部は、前記識別情報を受けた前記端末から前記識別情報に基づく送信要求を受けたことに基づいて、前記検知に係る情報を前記端末に対して与えるよう制御してもよい。 The control unit may perform control to provide information related to the detection to the terminal based on receiving a transmission request based on the identification information from the terminal that has received the identification information.

前記検知に係る情報は、前記センサの位置に応じた地図を含んでもよい。 The information related to the detection may include a map according to the position of the sensor.

前記制御部は、前記端末から前記分析結果の送信要求を受けたことに基づいて、前記分析結果を前記端末に対して与えるよう制御してもよい。 The control unit may control to provide the analysis result to the terminal based on receiving a request to send the analysis result from the terminal.

前記制御部は、前記端末から前記分析結果の送信要求を受けたことに基づいて、前記分析結果と、前記センサの位置に応じた、気圧、水温および風力の少なくともいずれか一つとを、前記端末に対して与えるよう制御してもよい。 The control unit transmits the analysis result and at least one of air pressure, water temperature, and wind power to the terminal, based on receiving a request to send the analysis result from the terminal. It may be controlled so that it is given to

前記センサは、音響センサであり、前記センサデータは、前記音響センサによって得られた音であってもよい。 The sensor may be an acoustic sensor, and the sensor data may be sound obtained by the acoustic sensor.

前記センサデータは、前記センサが備えるセンサ部によって検出され、前記センサ部は、水中に存在してもよい。 The sensor data may be detected by a sensor section included in the sensor, and the sensor section may exist underwater.

また、本発明の別の観点によれば、センサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御することを含む、処理方法が提供される。 According to another aspect of the present invention, based on the sensor data received from the sensor, the intensity of the sensor data is analyzed for each frequency of the sensor data and the time at which the sensor data is obtained to obtain an analysis result. A processing method is provided, which includes controlling to provide the analysis result to a terminal.

また、本発明の別の観点によれば、コンピュータに、センサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御することを実行させるためのプログラムが提供される。 According to another aspect of the present invention, based on the sensor data received from the sensor, the computer analyzes the intensity of the sensor data for each frequency of the sensor data and the time at which the sensor data is obtained. A program is provided for obtaining results and controlling the analysis results to be provided to the terminal.

以上説明したように本発明によれば、検知対象物を認識しようとする利用者の利便性をさらに向上させることが可能となる。 As described above, according to the present invention, it is possible to further improve convenience for a user who wants to recognize a detection target object.

本発明の実施形態に係る密漁対策IoTシステムの構成例を示す図である。1 is a diagram showing a configuration example of an anti-poaching IoT system according to an embodiment of the present invention. 水中音響センサの構成例を示す図である。It is a figure showing an example of composition of an underwater acoustic sensor. 本発明の実施形態に係るサーバの機能構成例を示す図である。FIG. 2 is a diagram showing an example of a functional configuration of a server according to an embodiment of the present invention. センサ情報の例を示す図である。It is a figure showing an example of sensor information. 通知先情報の例を示す図である。FIG. 3 is a diagram illustrating an example of notification destination information. 本発明の実施形態に係る監視者端末の機能構成例を示す図である。FIG. 2 is a diagram showing an example of a functional configuration of a supervisor terminal according to an embodiment of the present invention. 分析部による分析によって得られるスペクトログラムの第一の例を示す図である。FIG. 3 is a diagram showing a first example of a spectrogram obtained by analysis by an analysis unit. 分析部による分析によって得られるスペクトログラムの第二の例を示す図である。FIG. 7 is a diagram illustrating a second example of a spectrogram obtained by analysis by an analysis unit. 分析部による分析によって得られる音パターンの例を示す図である。FIG. 3 is a diagram showing an example of a sound pattern obtained by analysis by an analysis unit. 検知メールの例を示す図である。It is a figure showing an example of a detection email. 検知対象物が1つの水中音響センサによって検知された場合における検知画面の例を示す図である。It is a figure which shows the example of a detection screen when a detection target object is detected by one underwater acoustic sensor. 監視者端末によって表示されるスペクトログラムの例を示す図である。FIG. 3 is a diagram showing an example of a spectrogram displayed by a supervisor terminal. 監視者端末によって表示される音パターンの例を示す図である。FIG. 3 is a diagram showing an example of a sound pattern displayed by a supervisor terminal. 表示切り替えオブジェクトの選択操作が入力された場合の例を示す図である。FIG. 7 is a diagram illustrating an example when a selection operation of a display switching object is input. 付加情報表示領域がスクロールされた場合の例を示す図である。FIG. 7 is a diagram illustrating an example when the additional information display area is scrolled. 付加情報表示切り替えボタンの選択操作が入力された場合の例を示す図である。FIG. 7 is a diagram illustrating an example when a selection operation of an additional information display switching button is input. 本発明の実施形態に係る密漁対策IoTシステムの動作例を示すフローチャートである。2 is a flowchart illustrating an example of the operation of the anti-poaching IoT system according to the embodiment of the present invention. 本発明の実施形態に係るサーバの例としての情報処理装置のハードウェア構成を示す図である。1 is a diagram showing a hardware configuration of an information processing device as an example of a server according to an embodiment of the present invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素などの各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素などの各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in this specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different numbers after the same reference numeral. However, if there is no particular need to distinguish between a plurality of components having substantially the same functional configuration, only the same reference numerals are given. Further, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, when there is no need to particularly distinguish between similar components of different embodiments, only the same reference numerals are given.

[0.概要]
まず、本発明の実施形態の概要について説明する。
[0. overview]
First, an overview of an embodiment of the present invention will be described.

近年、センサによって検知対象物を検知する技術が知られている。例えば、複数のマイクロフォンによって検出された音響信号を構成する周波数成分から、複数の周波数区分それぞれに属する周波数成分を抽出する技術が知られている(例えば、特許文献1参照。)。かかる技術では、抽出された周波数成分が周波数区分ごとに異なる表示色によって表示される。かかる技術によれば、特定の検知対象物が検知されたことが直感的に利用者によって認識され得る。 In recent years, techniques for detecting objects to be detected using sensors have been known. For example, a technique is known that extracts frequency components belonging to each of a plurality of frequency categories from frequency components constituting an acoustic signal detected by a plurality of microphones (see, for example, Patent Document 1). In this technique, extracted frequency components are displayed in different display colors for each frequency segment. According to this technology, a user can intuitively recognize that a specific detection target has been detected.

本発明の実施形態では、検知対象物を認識しようとする利用者の利便性をさらに向上させることが可能な技術について主に提案する。より詳細に、本発明の実施形態では、検知対象物によってセンサデータの強度の周波数ごとの時間的な変化が異なることに着目する。 The embodiments of the present invention mainly propose techniques that can further improve convenience for users who want to recognize objects to be detected. More specifically, in the embodiment of the present invention, attention is paid to the fact that the temporal change in the intensity of sensor data for each frequency differs depending on the object to be detected.

さらに詳細に、本発明の実施形態では、センサデータに基づいて、センサデータの強度をセンサデータの周波数およびセンサデータが得られた時刻ごとに分析して分析結果が得られる。そして、分析結果が端末に対して送信される。これによって、利用者は、センサデータの強度が周波数および時刻ごとに分析された分析結果を、端末を用いて確認することができるため、利用者の利便性がさらに向上することが期待される。 More specifically, in an embodiment of the present invention, an analysis result is obtained based on the sensor data by analyzing the intensity of the sensor data for each frequency of the sensor data and the time at which the sensor data was obtained. The analysis results are then sent to the terminal. This allows users to use their terminals to check the analysis results of sensor data intensity analyzed by frequency and time, which is expected to further improve convenience for users.

本発明の実施形態では、センサとして音響センサが用いられる場合を主に想定する。すなわち、本発明の実施形態では、音響センサによって得られたセンサデータ(音データ)から検知対象物が発する音が検出されることによって、検知対象物が検知される場合を主に想定する。しかし、センサは、音響センサに限定されず、音響センサ以外のセンサ(例えば、イメージセンサ、レーダ、レーザーセンサおよび超音波センサなど)であってもよい。センサとして音響センサ以外のセンサが用いられる場合であっても、センサとして音響センサが用いられる場合と同様に、センサデータから検知対象物の特徴が検出されることによって、検知対象物が検知され得る。 In the embodiments of the present invention, it is mainly assumed that an acoustic sensor is used as the sensor. That is, the embodiment of the present invention mainly assumes a case where a detection target is detected by detecting the sound emitted by the detection target from sensor data (sound data) obtained by an acoustic sensor. However, the sensor is not limited to an acoustic sensor, and may be a sensor other than an acoustic sensor (for example, an image sensor, radar, laser sensor, ultrasonic sensor, etc.). Even when a sensor other than an acoustic sensor is used as a sensor, the object can be detected by detecting the characteristics of the object from the sensor data, as in the case where an acoustic sensor is used as the sensor. .

検知対象物としては、様々な対象物が想定される。例えば、検知対象物が、密漁に用いられる各種対象物である場合が想定され得る。密漁に用いられる各種対象物の例としては、密漁船および密漁者などが挙げられる。これによって、密漁が利用者によって監視され得る。なお、密漁を監視することが重要であることは、近年の密漁による被害の大きさ、密漁の発見の困難性などに鑑みても明らかである。例えば、海上保安庁の年次報告「海上保安レポート2018」(http://www.kaiho.mlit.go.jp/info/books/report2018/html/honpen/2_04_chap3.html)は、「我が国周辺海域の豊かな水産資源は決して無尽蔵ではなく、生態系のバランスを保ち水産資源を枯渇させないために漁獲量や操業方法・区域・期間に制限を設けるなどのルールが設定されています。しかしながら、ルールに従わない一部の漁業者による違法な操業や、資金確保を目論む暴力団等による水産資源の乱獲が後を絶ちません。・・・海上保安庁では、監視能力の更なる向上や採証資機材等の充実を図り、悪質・巧妙化する密漁事犯の厳格な監視・取締りに努めます。また、引き続き、関係機関や漁業関係団体等との緊密な連携を図ることで、地域の特性に応じた未然防止対策等の総合的な密漁対策を推進し、漁業秩序の維持に努めていきます。」と示す。したがって、密漁船または密漁者が検知対象物とされることによって、本発明の実施形態は社会課題を解決しようとするものとなり、本発明の実施形態がより好適に実施され得る。 Various objects are assumed to be detected. For example, it can be assumed that the detected object is various objects used for poaching. Examples of various objects used in poaching include poaching boats and poachers. This allows poaching to be monitored by the user. The importance of monitoring poaching is clear from the scale of damage caused by poaching in recent years and the difficulty of detecting poaching. For example, the Japan Coast Guard's annual report “Maritime Security Report 2018” (http://www.kaiho.mlit.go.jp/info/books/report2018/html/honpen/2_04_chap3.html) states that “the seas surrounding Japan The rich marine resources of Japan are by no means inexhaustible, and in order to maintain the balance of the ecosystem and prevent the depletion of marine resources, rules have been established such as setting limits on the amount of fishing, fishing methods, areas, and periods. There is no end to illegal fishing by some fishermen who do not comply, and overfishing of marine resources by organized crime groups aiming to secure funds. We will strive to strictly monitor and crack down on poaching crimes, which are becoming more and more malicious and sophisticated.We will also continue to work closely with related organizations and fisheries-related organizations to implement measures tailored to the characteristics of the region. We will promote comprehensive countermeasures against poaching, including prevention measures, and strive to maintain order in the fishing industry." Therefore, by setting poaching vessels or poachers as objects to be detected, the embodiments of the present invention attempt to solve social issues, and the embodiments of the present invention can be more suitably implemented.

ここで、密漁とは、一般に、「法を破ってひそかに漁をすること。」(大辞林)と解されており、免許または許可を得ずに漁業すること、禁漁や禁止漁法を定めた各種法令に違反すること、漁業権を侵害すること、などと解される。例えば、水産業に関わる業務を取り扱う京都府農林水産部の出先機関である京都府水産事務所は、「密漁とは、漁業権対象の生物を勝手にとること。」(https://www.pref.kyoto.jp/suiji/documents/mitsuryou.pdf)と示す。 Here, poaching is generally understood to mean ``fishing in secret in violation of the law'' (Daijirin), and includes fishing without a license or permission, and various types of fishing that are prohibited or prohibited fishing methods. This can be interpreted as violating the law or infringing on fishing rights. For example, the Kyoto Prefectural Fisheries Office, which is a branch of the Kyoto Prefectural Agriculture, Forestry and Fisheries Department that handles operations related to the fisheries industry, says, ``Poaching is the taking of organisms that are subject to fishing rights without permission.'' (https://www. pref.kyoto.jp/suiji/documents/mitsuryou.pdf).

例えば、密漁の発見が困難であることは、以下のような理由による。すなわち、密漁は、夜間に暗い環境の中で行われることが多い。そのため、警備員の目視またはカメラによって密漁船および密漁者を発見するのは困難である。さらに、気象状況が悪い場合などには(例えば、降雪、台風、海霧、うねり、高波など)、視界不良になるため、警備員の目視またはカメラによって密漁船および密漁者を発見するのは昼間であっても困難である。また、海底に存在する海産資源(例えば、ナマコ、ウニ、サザエ、アワビ、牡蠣、真珠など)の密漁は、密漁者が潜水することによって行われることが多いため、警備員の目視またはカメラによって海底に存在する資源の密漁を監視するのは困難である。 For example, it is difficult to detect poaching for the following reasons. In other words, poaching is often carried out at night in a dark environment. Therefore, it is difficult to detect poaching vessels and poachers visually by security personnel or by cameras. Furthermore, in bad weather conditions (e.g. snowfall, typhoons, sea fog, swells, high waves, etc.), visibility is poor, so it is best to detect poaching boats and poachers visually or by cameras during daylight hours. Even if it is difficult. In addition, poaching of marine resources that exist on the seabed (e.g., sea cucumbers, sea urchins, turban shells, abalone, oysters, pearls, etc.) is often carried out by poachers diving, so the seabed can be caught visually or with cameras by security guards. It is difficult to monitor poaching of existing resources.

かかる密漁の発見の困難性に鑑みれば、密漁船または密漁者が検知対象物とされる場合には、センサとして音響センサが用いられるのが望ましい。その理由としては、音響センサによるセンシングの精度は、環境の明るさ(時間帯)、および視界の良さ(気象状況)の影響をほとんど受けないことが挙げられる。また、音響センサのセンシング部が水中に位置していれば、音響センサは、海中に存在する資源を採ろうとする密漁者を容易に検知することができる。以下では、センシング部が水中に位置する音響センサを「水中音響センサ」とも称する。 In view of the difficulty in detecting such poaching, it is desirable to use an acoustic sensor as the sensor when a poaching boat or a poacher is the object to be detected. The reason for this is that the accuracy of sensing by the acoustic sensor is hardly affected by the brightness of the environment (time of day) and visibility (weather conditions). Further, if the sensing portion of the acoustic sensor is located underwater, the acoustic sensor can easily detect poachers attempting to take resources existing under the sea. Hereinafter, an acoustic sensor in which the sensing portion is located underwater will also be referred to as an "underwater acoustic sensor."

なお、以下では、利用者が、密漁を監視する「監視者」であり、利用者の端末が、監視者によって用いられる「監視者端末」である場合を主に想定する。 In the following, it is mainly assumed that the user is a "monitor" who monitors poaching, and the user's terminal is a "monitor terminal" used by the monitor.

以上、本発明の実施形態の概要について説明した。 The outline of the embodiment of the present invention has been described above.

[1.実施形態の詳細]
続いて、本発明の実施形態の詳細について説明する。
[1. Details of embodiment]
Next, details of embodiments of the present invention will be described.

[1-1.システムの構成]
まず、本発明の実施形態に係るシステムの構成例について説明する。なお、以下では、本発明の実施形態に係るシステムが密漁対策に用いられる場合を想定し、本発明の実施形態に係るシステムを特に「密漁対策IoT(Internet of Things)システム」とも称する。しかし、本発明の実施形態に係るシステムは、密漁対策以外に用いられてもよい(すなわち、本発明の実施形態に係るシステムは、IoTシステムに限定されない)。
[1-1. System configuration]
First, a configuration example of a system according to an embodiment of the present invention will be described. Note that, hereinafter, assuming that the system according to the embodiment of the present invention is used for anti-poaching, the system according to the embodiment of the present invention will also be particularly referred to as an "anti-poaching IoT (Internet of Things) system." However, the system according to the embodiment of the present invention may be used for purposes other than anti-poaching (that is, the system according to the embodiment of the present invention is not limited to an IoT system).

図1は、本発明の実施形態に係る密漁対策IoTシステムの構成例を示す図である。図1に示されるように、密漁対策IoTシステム1は、水中音響センサ10-1~10-N(Nは、1以上の整数)、サーバ20、および、監視者端末30-1~30-M(Mは、1以上の整数)を備える。なお、以下では、水中音響センサ10-1~10-Nそれぞれを区別する必要がない場合に、水中音響センサ10-1~10-Nそれぞれを「水中音響センサ10」とも称する。同様に、監視者端末30-1~30-Mそれぞれを区別する必要がない場合に、監視者端末30-1~30-Mそれぞれを「監視者端末30」とも称する。 FIG. 1 is a diagram showing a configuration example of an anti-poaching IoT system according to an embodiment of the present invention. As shown in FIG. 1, the anti-poaching IoT system 1 includes underwater acoustic sensors 10-1 to 10-N (N is an integer of 1 or more), a server 20, and supervisor terminals 30-1 to 30-M. (M is an integer of 1 or more). Note that, hereinafter, each of the underwater acoustic sensors 10-1 to 10-N will also be referred to as the "underwater acoustic sensor 10" when there is no need to distinguish between the underwater acoustic sensors 10-1 to 10-N. Similarly, when there is no need to distinguish between the supervisor terminals 30-1 to 30-M, each of the supervisor terminals 30-1 to 30-M is also referred to as a "supervisor terminal 30."

本発明の実施形態では、監視者端末30-1~30-Mそれぞれが、別々の監視者によって用いられる場合を主に想定する。しかし、複数の監視者端末30が1人の監視者によって用いられる場合があってもよいし、複数の監視者によって1つの監視者端末30が用いられる場合があってもよい。 In the embodiment of the present invention, it is mainly assumed that each of the supervisor terminals 30-1 to 30-M is used by a different supervisor. However, multiple supervisor terminals 30 may be used by one supervisor, or one supervisor terminal 30 may be used by multiple supervisors.

本発明の実施形態では、水中音響センサ10が、LTE(Long Term Evolution)網などのモバイル網を介して、インターネット上に存在するサーバ20と通信を行う場合を想定する。しかし、水中音響センサ10は、マルチホップ無線通信手段などの他の通信手段によってサーバ20と通信が可能であってもよい。 In the embodiment of the present invention, it is assumed that the underwater acoustic sensor 10 communicates with a server 20 existing on the Internet via a mobile network such as an LTE (Long Term Evolution) network. However, the underwater acoustic sensor 10 may be able to communicate with the server 20 by other communication means, such as multi-hop wireless communication means.

一方、サーバ20は、サーバ機能を有するコンピュータによって実現され得る。 On the other hand, the server 20 may be realized by a computer having a server function.

また、本発明の実施形態では、監視者端末30が、スマートフォンによって構成される場合を主に想定する。しかし、監視者端末30は、タブレット端末、携帯電話、ビジネスフォン(キーテレホン)(ボタン電話機)、PDA(Personal Digital Assistant)(Personal Data Assistant)、オーディオプレーヤ、プリンター、ファクシミリ、スキャナー、コピー機、デジタルカメラ、自動化機器(不特定多数の人から利用され物(モノ)を自動的に取り扱うATM(cash matine)(automated teller matine)(automatic teller matine)や自動販売機や自動券売機やキオスク端末など)または現金処理機(現金の出し入れを管理する端末)、ウェアラブルコンピュータ、カーナビゲーションなどといった他の機器によって実現されてもよい。そして、監視者端末30は、LTE網などのモバイル網を介する無線通信やLAN(Local Area Network)などの有線網を介する有線通信でサーバ20と通信を行ってもよい。 Furthermore, in the embodiment of the present invention, it is mainly assumed that the supervisor terminal 30 is configured by a smartphone. However, the supervisor terminal 30 may be a tablet terminal, a mobile phone, a business phone (key telephone) (key telephone), a PDA (Personal Digital Assistant) (Personal Data Assistant), an audio player, a printer, a facsimile, a scanner, a copy machine, a digital Cameras, automated equipment (automated teller matine (ATM) that automatically handles things used by an unspecified number of people, automatic teller matine, vending machine, automatic ticket vending machine, kiosk terminal, etc.) Alternatively, it may be realized by other devices such as a cash processing machine (a terminal that manages cash withdrawals and withdrawals), wearable computers, car navigation systems, and the like. The supervisor terminal 30 may communicate with the server 20 by wireless communication via a mobile network such as an LTE network or wired communication via a wired network such as a LAN (Local Area Network).

[水中音響センサ10]
水中音響センサ10は、環境に対してセンシングを行うことによってセンサデータ(音響データ)を得る。また、水中音響センサ10は、自身の状態(例えば、正常、故障および状態不明など)を示す情報(センサ状態情報)を取得する。水中音響センサ10は、センサデータおよびセンサ状態情報を得ると、センシングデータおよびセンサ状態情報をサーバ20に送信する。サーバ20に送信されるセンシングデータおよびセンサ状態情報のデータ形式は限定されないが、例えば、CSV(Comma-Separated Values)、TSV(Tab-Separated Values)ファイル、SSV(Space-Separated Values)、SSV(Semicolon-Separated Values)、HTML(HyperText Markup Language)、XML(Extensible Markup Language)、XHTML(Extensible HyperText Markup Language)、またはデータベース(dBASEやSQL(Structured Query Language)形式であってもよい。
[Underwater acoustic sensor 10]
The underwater acoustic sensor 10 obtains sensor data (acoustic data) by sensing the environment. Further, the underwater acoustic sensor 10 acquires information (sensor status information) indicating its own status (for example, normal, failure, unknown status, etc.). Upon obtaining the sensor data and sensor state information, the underwater acoustic sensor 10 transmits the sensing data and sensor state information to the server 20. The data formats of the sensing data and sensor status information sent to the server 20 are not limited, but include, for example, CSV (Comma-Separated Values), TSV (Tab-Separated Values) files, SSV (Space-Separated Values), and SSV (Semicolon) files. -Separated Values), HTML (HyperText Markup Language), XML (Extensible Markup Language), XHTML (Extensible HyperText Markup Language) It may be in the form of a database (dBASE or SQL (Structured Query Language)).

ここで、「センシング」とは、音、振動(震動)、温度、湿度、傾きなどの推定量の検知(増減や変化量や発生の検知)、並びに、煙、化学物質、および静電気などの発生の検知(増減や変化量や推定量の検知)を表す語として用いる。また、「センシング」とは、検知に加え、検知内容を信号に変換する処理を表す語として用いる。また、「センシング」とは、検知に加え、検知内容を計測・判別することを表す語として用いる。 Here, "sensing" refers to the detection of estimated quantities such as sound, vibration (vibration), temperature, humidity, and tilt (detection of increase/decrease, amount of change, and occurrence), as well as the occurrence of smoke, chemical substances, and static electricity. This term is used to express the detection of (detection of increase/decrease, amount of change, or estimated amount). Furthermore, the term "sensing" is used to refer to not only detection but also the process of converting the detected content into a signal. Furthermore, the term "sensing" is used to mean not only detection but also measuring and determining the content of detection.

本発明の実施形態では、水中音響センサ10が、複数の音響センサ(マイクロフォン)を含む場合を想定する。これによって、複数の音響センサそれぞれによる音の検出結果に基づいて、水中音響センサ10の設置位置を基準とした音源の方位が特定され得る。ここで、水中音響センサ10の具体的な構成については限定されない。以下では、水中音響センサ10の構成例について説明する。 In the embodiment of the present invention, it is assumed that the underwater acoustic sensor 10 includes a plurality of acoustic sensors (microphones). Thereby, the direction of the sound source with respect to the installation position of the underwater acoustic sensor 10 can be specified based on the sound detection results from each of the plurality of acoustic sensors. Here, the specific configuration of the underwater acoustic sensor 10 is not limited. Below, a configuration example of the underwater acoustic sensor 10 will be described.

図2は、水中音響センサ10の構成例を示す図である。図2を参照すると、水中音響センサ10の一例としての水中音響センサ12は、上部から順に、送信ブイ部170と、錘181と、フロート182と、センシング部130と、係留部150と、電源部140と、錘部160とを備える。しかし、これらの各構成の並び順は、図2に示された例に限定されない。また、送信ブイ部170のうち海面よりも上部の位置には、アンテナ部110、サーチライト部121、停泊灯部122および太陽電池123が設けられている。 FIG. 2 is a diagram showing a configuration example of the underwater acoustic sensor 10. Referring to FIG. 2, the underwater acoustic sensor 12 as an example of the underwater acoustic sensor 10 includes, in order from the top, a transmitting buoy section 170, a weight 181, a float 182, a sensing section 130, a mooring section 150, and a power supply section. 140 and a weight portion 160. However, the arrangement order of each of these components is not limited to the example shown in FIG. 2. Furthermore, an antenna section 110, a searchlight section 121, a berthing light section 122, and a solar cell 123 are provided in the transmission buoy section 170 at a position above the sea surface.

センシング部130は、水中に位置しており、水中をセンシングする音響センサである。センシング部130は、かかるセンシングによってセンサデータ(音響データ)を得る。送信ブイ部170は、アンテナ部110が海面よりも上部に位置する程度に浮力を受ける。アンテナ部110は、センシング部130からケーブルを介して伝達されたセンサデータと水中音響センサ12のセンサ状態情報とを無線通信によってサーバ20に送信する。 The sensing unit 130 is located underwater and is an acoustic sensor that senses underwater. The sensing unit 130 obtains sensor data (acoustic data) through such sensing. The transmitting buoy section 170 receives buoyancy to the extent that the antenna section 110 is located above the sea surface. The antenna unit 110 transmits the sensor data transmitted via the cable from the sensing unit 130 and the sensor state information of the underwater acoustic sensor 12 to the server 20 by wireless communication.

錘181およびフロート182は、センシング部130と送信ブイ部170とを接続する(ケーブルを含んだ)ロープを撓ませたり伸ばしたりすることによって、送信ブイ部170が海面付近をある程度の範囲で移動することを許容する。係留部150は、(電源部140および錘部160を除く)水中音響センサ12を電源部140につなぎ留める。これによって、水中音響センサ12が海底まで沈み込む。電源部140は、アンテナ部110、センシング部130、サーチライト部121および停泊灯部122に電力を供給する。 The weight 181 and the float 182 bend or stretch the rope (including the cable) connecting the sensing section 130 and the transmitting buoy section 170, so that the transmitting buoy section 170 moves within a certain range near the sea surface. allow it. The mooring section 150 tethers the underwater acoustic sensor 12 (excluding the power supply section 140 and the weight section 160) to the power supply section 140. As a result, the underwater acoustic sensor 12 sinks to the bottom of the sea. The power supply section 140 supplies power to the antenna section 110, the sensing section 130, the searchlight section 121, and the berthing light section 122.

例えば、電源部140は、タイマ機能によって操業時間中(例えば、漁が行われる9時00分00秒から15時00分00秒の間)は自動的に電力の提供を停止し、操業時間以外(例えば、漁が行われない15時00分01秒から8時59分59秒の間)は自動的に電力の提供を開始してもよい。これによって、正規の船および正規のダイバー(潜水士)などが検知対象物として誤検知されることが抑制され得る。 For example, the power supply unit 140 uses a timer function to automatically stop providing power during operating hours (for example, between 9:00:00 and 15:00:00 when fishing is carried out), and (For example, from 15:00:01 to 8:59:59 when fishing is not carried out) may automatically start providing power. This can prevent erroneous detection of a regular ship, a regular diver, etc. as a detection target.

なお、後にも説明するように、水中音響センサ12が位置検出機能(例えば、GPS(Global Positioning System)による位置検出機能など)を有すれば、この位置検出機能によって得られた水中音響センサ12の位置が、水中音響センサ12からサーバ20に送信され得る。例えば、水中音響センサ12の位置は、所定の時間間隔で(例えば、1秒おきに)水中音響センサ12からサーバ20に送信されてもよい。また、水中音響センサ12の位置は、操業時間中であっても定期的に(例えば、1時間おきに)水中音響センサ12からサーバ20に送信されてもよい。このとき、GPSアンテナは、一例としてアンテナ部110の下部に設けられてもよいが、GPSアンテナが設けられる位置は限定されない。 As will be explained later, if the underwater acoustic sensor 12 has a position detection function (for example, a position detection function using GPS (Global Positioning System), etc.), the position of the underwater acoustic sensor 12 obtained by this position detection function is A location may be sent from underwater acoustic sensor 12 to server 20 . For example, the position of the underwater acoustic sensor 12 may be transmitted from the underwater acoustic sensor 12 to the server 20 at predetermined time intervals (eg, every second). Further, the position of the underwater acoustic sensor 12 may be transmitted from the underwater acoustic sensor 12 to the server 20 periodically (for example, every hour) even during operating hours. At this time, the GPS antenna may be provided at the bottom of the antenna section 110, for example, but the position where the GPS antenna is provided is not limited.

係留部150は、(錘部160を除く)水中音響センサ12を錘部160につなぎ留める。これによって、水中音響センサ12が海底まで沈み込む。錘部160は、海底に位置する程度の重さを有する物体であり、海底に沈み込み、係留部150を介し(電源部140および錘部160を除く)水中音響センサ12を所定範囲内の位置に留めさせる程度の物体であればよい。 The mooring section 150 anchors the underwater acoustic sensor 12 (excluding the weight section 160) to the weight section 160. As a result, the underwater acoustic sensor 12 sinks to the bottom of the sea. The weight part 160 is an object that is heavy enough to be located on the seabed, sinks into the seabed, and moves the underwater acoustic sensor 12 (excluding the power supply part 140 and the weight part 160) to a position within a predetermined range via the mooring part 150. It suffices to be an object that can be held in place.

サーチライト部121は、周囲に対して光を照射することによって周囲を明るくする。密漁は、暗い環境の中で行われやすいため、サーチライト部121によって周囲が明るくされることによって、密漁が抑制されることが期待される。ここで、サーチライト部121は、所定時刻に光を照射してもよいし、周期的に光を照射してもよいし、ランダム(無作為)に任意のタイミングで光を照射してもよいし、センシング部130がセンサデータ(音響データ)を得ると光を照射してもよいし、サーバ20からの指示に基づき光を照射してもよい。 The searchlight section 121 illuminates the surrounding area by irradiating the surrounding area with light. Since poaching is likely to occur in a dark environment, it is expected that poaching will be suppressed by brightening the surrounding area with the searchlight unit 121. Here, the searchlight unit 121 may emit light at a predetermined time, may emit light periodically, or may emit light at random (random) arbitrary timing. However, when the sensing unit 130 obtains sensor data (acoustic data), the light may be emitted, or the light may be emitted based on an instruction from the server 20.

停泊灯部122は、警告灯を点灯や点滅することで衝突防止注意喚起する。停泊灯部によって衝突防止注意喚起されることによって、水中音響センサ10に対する正規船や密漁船の衝突が抑制されることが期待される。なお、停泊灯部122は、電源部140から電力を供給されてもよいし、太陽電池123などから電力を供給されてもよい。なお、図2に示した水中音響センサ12は、係留部150で海底につなぎ留められた構造となっているが、センシング部130をドローンや小型無人船舶あるいは有人船舶などの移動体に取り付け、当該移動体を移動させることで異なる位置でのセンシングを可能とする構成としてもよい。 The berthing light section 122 calls attention to collision prevention by lighting or blinking a warning light. It is expected that the collision prevention warning provided by the berthing light section will suppress collisions of legitimate ships and poaching boats with the underwater acoustic sensor 10. Note that the berthing light section 122 may be supplied with power from the power supply section 140 or may be supplied with power from the solar cell 123 or the like. Note that the underwater acoustic sensor 12 shown in FIG. 2 has a structure that is tethered to the seabed with a mooring section 150, but the sensing section 130 can be attached to a moving body such as a drone, a small unmanned vessel, or a manned vessel. A configuration may be adopted in which sensing can be performed at different positions by moving the mobile body.

[サーバ20]
図1に戻って説明を続ける。続いて、本発明の実施形態に係るサーバ20の機能構成例について説明する。図3は、本発明の実施形態に係るサーバ20の機能構成例を示す図である。図3に示されるように、本発明の実施形態に係るサーバ20は、制御部220と、記憶部230と、通信部240とを備える。制御部220は、分析部221と、対象物検知部222と、検知通知部223と、要求取得部224と、データ取得部225と、データ提供部226とを備える。
[Server 20]
Returning to FIG. 1, the explanation will be continued. Next, an example of the functional configuration of the server 20 according to the embodiment of the present invention will be described. FIG. 3 is a diagram showing an example of the functional configuration of the server 20 according to the embodiment of the present invention. As shown in FIG. 3, the server 20 according to the embodiment of the present invention includes a control section 220, a storage section 230, and a communication section 240. The control unit 220 includes an analysis unit 221 , an object detection unit 222 , a detection notification unit 223 , a request acquisition unit 224 , a data acquisition unit 225 , and a data provision unit 226 .

[通信部240]
通信部240は、通信インタフェースによって構成され、水中音響センサ10と通信を行う。例えば、通信部240は、LTE網などのモバイル網を介して、水中音響センサ10と通信を行う。また、通信部240は、マルチホップ無線通信手段などの他の通信手段によって水中音響センサ10と通信を行ってもよい。さらに、通信部240は、監視者端末30と通信を行う。例えば、通信部240は、LTE網などのモバイル網を介して、監視者端末30と通信を行う。あるいは、通信部240は、監視者端末30と有線によって通信を行ってもよい。
[Communication Department 240]
The communication unit 240 is configured with a communication interface, and communicates with the underwater acoustic sensor 10. For example, the communication unit 240 communicates with the underwater acoustic sensor 10 via a mobile network such as an LTE network. Further, the communication unit 240 may communicate with the underwater acoustic sensor 10 by other communication means such as multi-hop wireless communication means. Furthermore, the communication unit 240 communicates with the supervisor terminal 30. For example, the communication unit 240 communicates with the supervisor terminal 30 via a mobile network such as an LTE network. Alternatively, the communication unit 240 may communicate with the supervisor terminal 30 by wire.

[記憶部230]
記憶部230は、制御部220を動作させるためのプログラムおよびデータを記憶することが可能な記憶装置である。また、記憶部230は、制御部220の動作の過程で必要となる各種データを一時的に記憶することもできる。例えば、記憶装置は、不揮発性の記憶装置であってよい。例えば、記憶部230は、各種データの例として、センサ情報231および通知先情報232を記憶し得る。以下、図4を参照しながら、センサ情報231について説明し、図5を参照しながら、通知先情報232について説明する。
[Storage unit 230]
The storage unit 230 is a storage device that can store programs and data for operating the control unit 220. Furthermore, the storage unit 230 can also temporarily store various data required during the operation of the control unit 220. For example, the storage device may be a non-volatile storage device. For example, the storage unit 230 can store sensor information 231 and notification destination information 232 as examples of various data. Hereinafter, the sensor information 231 will be explained with reference to FIG. 4, and the notification destination information 232 will be explained with reference to FIG.

[センサ情報231]
図4は、センサ情報231の例を示す図である。図4に示されるように、センサ情報231は、「センサID」と、「設置位置情報」と、「センサ状態情報」と、「センサデータ」と、「気象情報」と、「連絡先名」とが対応付けられて構成される。
[Sensor information 231]
FIG. 4 is a diagram showing an example of sensor information 231. As shown in FIG. 4, the sensor information 231 includes "sensor ID", "installation position information", "sensor status information", "sensor data", "weather information", and "contact name". It is configured by being associated with.

「センサID」は、水中音響センサ10を一意に識別するための情報である。 “Sensor ID” is information for uniquely identifying the underwater acoustic sensor 10.

「設置位置情報」は、水中音響センサ10が設置された位置を示す情報である。本発明の実施形態では、設置位置情報は、緯度経度によって表現される場合を主に想定する。しかし、設置位置情報の表現形式は限定されない。例えば、設置位置情報は、極座標形式によって表現されてもよい。例えば、設置位置情報は、人手によって入力されてもよいが、水中音響センサ10が自身の位置を検出する位置検出機能を有すれば、設置位置情報は、水中音響センサ10によって検出された設置位置に基づいて設定されてもよい。また、上記したように、水中音響センサ10の位置が所定の時間間隔で水中音響センサ10からサーバ20に送信される場合、サーバ20は、水中音響センサ10から受信される水中音響センサ10の位置に基づいて、所定の時間間隔で設置位置情報を更新してもよい。 "Installation position information" is information indicating the position where the underwater acoustic sensor 10 is installed. In the embodiment of the present invention, it is mainly assumed that the installation location information is expressed by latitude and longitude. However, the expression format of the installation position information is not limited. For example, the installation position information may be expressed in polar coordinate format. For example, the installation position information may be input manually, but if the underwater acoustic sensor 10 has a position detection function to detect its own position, the installation position information may be input by the installation position detected by the underwater acoustic sensor 10. may be set based on. Further, as described above, when the position of the underwater acoustic sensor 10 is transmitted from the underwater acoustic sensor 10 to the server 20 at predetermined time intervals, the server 20 transmits the position of the underwater acoustic sensor 10 that is received from the underwater acoustic sensor 10. The installation position information may be updated at predetermined time intervals based on.

「センサ状態情報」および「センサデータ」は、水中音響センサ10から受信された場合に、センサ情報231に登録される。水中音響センサ10から受信された「センサ状態情報」および「センサデータ」に「センサID」が付されていれば、水中音響センサ10から受信された「センサID」と同一の「センサID」に対応付けられた「センサ状態情報」および「センサデータ」がセンサ情報231に登録される。 “Sensor status information” and “sensor data” are registered in the sensor information 231 when received from the underwater acoustic sensor 10. If a “sensor ID” is attached to the “sensor status information” and “sensor data” received from the underwater acoustic sensor 10, the “sensor ID” is the same as the “sensor ID” received from the underwater acoustic sensor 10. The associated “sensor status information” and “sensor data” are registered in the sensor information 231.

「気象情報」は、水中音響センサ10の設置位置に応じた気象に関する情報である。気象情報はどのようにして取得されてもよい。例えば、水中音響センサ10の設置位置に応じた気象情報が所定のWebページから定期的に取得され、センサ情報231に登録されてもよい。水中音響センサ10の設置位置に応じた気象は、水中音響センサ10の設置位置そのものの気象であってもよいし、水中音響センサ10の設置位置から離れた場所(例えば、水中音響センサ10が設置された海域の管轄エリアなど)の気象であってもよい。なお、本発明の実施形態では、気象情報が、天候(例えば、風の強さ、天気など)、気温、湿度、降水量および風速などを含む場合を想定する。天気としては、晴れ、曇り、降雨および降雪、台風の接近などが想定される。例えば、天気が台風接近を示しているにも関わらず、密漁者または密漁船の検知が通知された場合などには、(台風接近中に密漁をするのは困難であると考えられることから)密漁者または密漁船の検知の通知が誤報であると判断され得る。しかし、気象情報が具体的にどのような情報を含むかは、特に限定されない。 “Weather information” is information regarding the weather according to the installation position of the underwater acoustic sensor 10. Weather information may be obtained in any manner. For example, weather information according to the installation position of the underwater acoustic sensor 10 may be periodically acquired from a predetermined web page and registered in the sensor information 231. The weather depending on the installation position of the underwater acoustic sensor 10 may be the weather of the installation position of the underwater acoustic sensor 10 itself, or the weather at a place far from the installation position of the underwater acoustic sensor 10 (for example, a place where the underwater acoustic sensor 10 is installed). It may also be the weather of the area under its jurisdiction (e.g. the area under its jurisdiction). In the embodiment of the present invention, it is assumed that the weather information includes weather (for example, wind strength, weather, etc.), temperature, humidity, precipitation, wind speed, and the like. Weather conditions include sunny, cloudy, rain and snow, and an approaching typhoon. For example, even though the weather indicates that a typhoon is approaching, if you are notified that a poacher or a poaching boat has been detected (because it is considered difficult to carry out poaching while a typhoon is approaching), Notifications of detection of poachers or poaching vessels may be determined to be false alarms. However, there is no particular limitation on what kind of information the weather information specifically includes.

「連絡先名」は、水中音響センサ10に対応する連絡先(連絡を受けるべき監視者)の名称に該当する。例えば、監視者が自身の監視したいエリア(区域)に設置されている水中音響センサ10を、監視者端末30を用いてあらかじめ選択すればよい。これによって、その監視者の名称が「連絡先名」として、監視者によって選択された水中音響センサ10の「センサID」に対応付けられる。 “Contact name” corresponds to the name of the contact (observer to be contacted) corresponding to the underwater acoustic sensor 10. For example, the supervisor may use the supervisor terminal 30 to select in advance the underwater acoustic sensors 10 installed in the area (area) that the supervisor wishes to monitor. Thereby, the name of the supervisor is associated as a "contact name" with the "sensor ID" of the underwater acoustic sensor 10 selected by the supervisor.

なお、図4に示された例において、センサ1とセンサ2とは、同じエリアに設置されており、センサ3は、センサ1およびセンサ2の設置されているエリアとは別のエリアに設置されている場合を想定する。このとき、「Aさん」と「Bさん」は、特定のエリアだけを監視しようとする者(例えば、特定の漁業協同組合など)に該当する。「Cさん」は、複数のエリアを監視しようとする者(例えば、全国漁業組合連合会など)に該当する。 In the example shown in FIG. 4, sensor 1 and sensor 2 are installed in the same area, and sensor 3 is installed in a different area from the area where sensor 1 and sensor 2 are installed. Assume that At this time, "Mr. A" and "Mr. B" correspond to persons who intend to monitor only a specific area (for example, a specific fishing cooperative). "Mr. C" corresponds to a person who attempts to monitor multiple areas (for example, the National Federation of Fisheries Cooperatives, etc.).

[通知先情報232]
図5は、通知先情報232の例を示す図である。図5に示されるように、通知先情報232は、「連絡先名」と、「通知先アドレス」と、「連絡先電話番号」とが対応付けられて構成される。例えば、通知先情報232は、監視者端末30を用いて監視者によってあらかじめ設定されればよい。
[Notification destination information 232]
FIG. 5 is a diagram showing an example of notification destination information 232. As shown in FIG. As shown in FIG. 5, the notification information 232 is configured by associating a "contact name", a "notification address", and a "contact telephone number". For example, the notification destination information 232 may be set in advance by the supervisor using the supervisor terminal 30.

「連絡先名」は、センサ情報231の「連絡先名」と同様に、水中音響センサ10に対応する連絡先(連絡を受けるべき監視者)の名称に該当する。 The “contact name” corresponds to the name of the contact (observer who should be contacted) corresponding to the underwater acoustic sensor 10, similar to the “contact name” of the sensor information 231.

「通知先アドレス」は、水中音響センサ10によって検知対象物が検知された場合に、検知の通知先を示すアドレスである。本発明の実施形態では、検知の通知手段が電子メール(検知メール)である場合を想定する。すなわち、「通知先アドレス」として、電子メールのアドレスが用いられる場合を主に想定する。しかし、「通知先アドレス」は、電子メールのアドレスに限定されない。 The “notification destination address” is an address indicating a detection notification destination when a detection target object is detected by the underwater acoustic sensor 10. In the embodiment of the present invention, it is assumed that the detection notification means is an e-mail (detection mail). That is, it is mainly assumed that an e-mail address is used as the "notification destination address." However, the "notification destination address" is not limited to an email address.

例えば、後に説明するように、検知の通知には文字列が含まれる必要があるため、検知の通知手段は、文字列を送ることが可能な手段であればよい。例えば、検知の通知手段は、文字列を送信可能な所定のアプリケーションであってもよい。例えば、検知の通知手段がSNS(Social Networking Service)アプリケーションであれば、通知先アドレスはSNSのアカウントであってよい。あるいは、例えば、検知の通知手段がショートメールであれば、通知先アドレスは電話番号であってよい。 For example, as will be explained later, since a detection notification needs to include a character string, the detection notification means may be any means that can send a character string. For example, the detection notification means may be a predetermined application capable of transmitting a character string. For example, if the detection notification means is an SNS (Social Networking Service) application, the notification destination address may be an SNS account. Alternatively, for example, if the detection notification means is a short mail, the notification destination address may be a telephone number.

「連絡先電話番号」は、水中音響センサ10に対応する連絡先(連絡を受けるべき監視者)の電話番号に該当する。 “Contact telephone number” corresponds to the telephone number of the contact (observer to be contacted) corresponding to the underwater acoustic sensor 10.

[制御部220]
制御部220は、CPU(Central Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、記憶部230によって適宜記憶される。
[Control unit 220]
The control unit 220 includes an arithmetic device such as a CPU (Central Processing Unit), and its functions are realized by the arithmetic device loading a program stored in a ROM (Read Only Memory) into a RAM and executing it. obtain. At this time, a computer-readable recording medium on which the program is recorded may also be provided. Alternatively, these blocks may be configured by dedicated hardware or a combination of multiple pieces of hardware. Data necessary for calculation by the calculation device is appropriately stored in the storage unit 230.

なお、分析部221と、対象物検知部222と、検知通知部223と、要求取得部224と、データ取得部225と、データ提供部226については、後に詳細に説明する。 Note that the analysis section 221, object detection section 222, detection notification section 223, request acquisition section 224, data acquisition section 225, and data provision section 226 will be described in detail later.

[監視者端末30]
図1に戻って説明を続ける。続いて、本発明の実施形態に係る監視者端末30の機能構成例について説明する。図6は、本発明の実施形態に係る監視者端末30の機能構成例を示す図である。図6に示されるように、本発明の実施形態に係る監視者端末30は、入力部310と、制御部320と、記憶部330と、通信部340と、表示部350とを備える。
[Supervisor terminal 30]
Returning to FIG. 1, the explanation will be continued. Next, an example of the functional configuration of the supervisor terminal 30 according to the embodiment of the present invention will be described. FIG. 6 is a diagram showing an example of the functional configuration of the supervisor terminal 30 according to the embodiment of the present invention. As shown in FIG. 6, the supervisor terminal 30 according to the embodiment of the present invention includes an input section 310, a control section 320, a storage section 330, a communication section 340, and a display section 350.

[入力部310]
入力部310は、監視者による操作を受け付ける。本発明の実施形態では、入力部310がタッチパネルである場合を主に想定する。しかし、入力部310の種類は限定されない。例えば、入力部310は、キーボードを含んでもよいし、マウスを含んでもよいし、電子ペンを含んでもよいし、他の入力装置を含んでもよい。
[Input section 310]
Input unit 310 accepts operations by a supervisor. In the embodiment of the present invention, it is mainly assumed that the input unit 310 is a touch panel. However, the type of input section 310 is not limited. For example, the input unit 310 may include a keyboard, a mouse, an electronic pen, or other input devices.

[制御部320]
制御部320は、CPUなどを含み、記憶部330により記憶されているプログラムがCPUによりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、制御部320は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、記憶部330によって適宜記憶される。
[Control unit 320]
The control unit 320 includes a CPU and the like, and its functions can be realized by the program stored in the storage unit 330 being loaded into the RAM and executed by the CPU. At this time, a computer-readable recording medium on which the program is recorded may also be provided. Alternatively, the control unit 320 may be configured with dedicated hardware or a combination of multiple pieces of hardware. Data necessary for calculation by the calculation device is appropriately stored in the storage unit 330.

[記憶部330]
記憶部330は、制御部320を動作させるためのプログラムおよびデータを記憶することが可能な記憶装置である。また、記憶部330は、制御部320の動作の過程で必要となる各種データを一時的に記憶することもできる。例えば、記憶装置は、不揮発性の記憶装置であってよい。
[Storage unit 330]
The storage unit 330 is a storage device that can store programs and data for operating the control unit 320. Furthermore, the storage unit 330 can also temporarily store various data required during the operation of the control unit 320. For example, the storage device may be a non-volatile storage device.

[通信部340]
通信部340は、通信インタフェースによって構成され、サーバ20と通信を行う。通信部340は、LTE網などのモバイル網を介して、サーバ20と通信を行う。あるいは、通信部340は、サーバ20と有線によって通信を行ってもよい。
[Communication Department 340]
The communication unit 340 is configured with a communication interface and communicates with the server 20. The communication unit 340 communicates with the server 20 via a mobile network such as an LTE network. Alternatively, the communication unit 340 may communicate with the server 20 by wire.

[表示部350]
表示部350は、制御部320による制御に従って表示を行う機能を有する。ここで、表示部350の形態は特に限定されない。例えば、表示部350は、CRT(Cathode Ray Tube)ディスプレイ装置であってもよいし、液晶ディスプレイ(LCD)装置であってもよいし、OLED(Organic Light Emitting Diode)装置であってもよいし、ランプなどの表示装置であってもよい。
[Display section 350]
The display section 350 has a function of displaying under the control of the control section 320. Here, the form of the display section 350 is not particularly limited. For example, the display unit 350 may be a CRT (Cathode Ray Tube) display device, a Liquid Crystal Display (LCD) device, an OLED (Organic Light Emitting Diode) device, or It may also be a display device such as a lamp.

[分析部221]
図3に戻って説明を続ける。分析部221は、水中音響センサ10によって得られたセンサデータ(音響データ)に基づいて、音の強度を音の周波数および音が検出された時刻ごとに分析して分析結果(以下、「スペクトログラム」とも言う。)を得る。図7を参照しながら、分析部221による分析によって得られるスペクトログラムの例について説明する。
[Analysis Department 221]
Returning to FIG. 3, the explanation will be continued. Based on the sensor data (acoustic data) obtained by the underwater acoustic sensor 10, the analysis unit 221 analyzes the sound intensity for each sound frequency and the time at which the sound was detected, and generates an analysis result (hereinafter referred to as a "spectrogram"). ). An example of a spectrogram obtained by analysis by the analysis unit 221 will be described with reference to FIG. 7.

図7は、分析部221による分析によって得られるスペクトログラムの第一の例を示す図である。図7に示されたスペクトログラムにおいて、縦軸は音の周波数を示し、横軸は音が検出された時刻を示し、周波数および時刻に対応する位置に音の強度が示されている。なお、音の強度が大きいほど、濃い黒色によって示されている。図7に示された例では、周波数と時刻との組み合わせからなるエリアD11~D13それぞれにおいて、音が検出されているのが把握される。より詳細に、エリアD11~D13それぞれに対応する音は、ダイバーが発する音である。 FIG. 7 is a diagram showing a first example of a spectrogram obtained by analysis by the analysis unit 221. In the spectrogram shown in FIG. 7, the vertical axis shows the frequency of the sound, the horizontal axis shows the time when the sound was detected, and the intensity of the sound is shown at the position corresponding to the frequency and time. Note that the greater the intensity of the sound, the darker the black color. In the example shown in FIG. 7, it is understood that sounds are detected in each of areas D11 to D13, which are formed by combinations of frequencies and times. More specifically, the sounds corresponding to each of areas D11 to D13 are sounds emitted by a diver.

図8は、分析部221による分析によって得られるスペクトログラムの第二の例を示す図である。図8に示されたスペクトログラムにおいも、図7に示されたスペクトログラムと同様に、縦軸は音の周波数を示し、横軸は音が検出された時刻を示し、周波数および時刻に対応する位置に音の強度が示されている。なお、音の強度が大きいほど、濃い黒色によって示されている。図8に示された例では、周波数と時刻との組み合わせからなるエリアD21~D22それぞれにおいて、音が検出されているのが把握される。より詳細に、エリアD21~D22それぞれに対応する音は、海洋生物が発する音である。 FIG. 8 is a diagram showing a second example of a spectrogram obtained by analysis by the analysis unit 221. In the spectrogram shown in FIG. 8, similarly to the spectrogram shown in FIG. 7, the vertical axis shows the frequency of the sound, the horizontal axis shows the time when the sound was detected, and the position corresponding to the frequency and time is The intensity of the sound is indicated. Note that the greater the intensity of the sound, the darker the black color. In the example shown in FIG. 8, it is understood that sounds are detected in each of areas D21 to D22, which are formed by combinations of frequencies and times. More specifically, the sounds corresponding to each of areas D21 to D22 are sounds emitted by marine organisms.

図3に戻って説明を続ける。分析部221は、水中音響センサ10によって得られたセンサデータ(音響データ)に基づいて、音の強度があらかじめ定められた第1の閾値より大きいか否かを周波数および時刻ごとに判定し、判定して得られた結果を分析結果(以下、「音パターン」とも言う。)として得てもよい。図9を参照しながら、分析部221による分析によって得られる音パターンの例について説明する。 Returning to FIG. 3, the explanation will be continued. Based on the sensor data (acoustic data) obtained by the underwater acoustic sensor 10, the analysis unit 221 determines whether the intensity of the sound is greater than a predetermined first threshold value for each frequency and time, and makes a determination. The results obtained may be obtained as analysis results (hereinafter also referred to as "sound patterns"). An example of a sound pattern obtained by analysis by the analysis unit 221 will be described with reference to FIG. 9.

図9は、分析部221による分析によって得られる音パターンの例を示す図である。図9に示された音パターンにおいて、縦軸は音の周波数を示し、横軸は音が検出された時刻を示し、周波数および時刻に対応する位置に音の強度が第1の閾値より大きいか否かが示されている。なお、音の強度が第1の閾値より大きいことが「1」によって示され、音の強度が第1の閾値以下であることが「0」によって示されている。 FIG. 9 is a diagram showing an example of a sound pattern obtained by analysis by the analysis unit 221. In the sound pattern shown in FIG. 9, the vertical axis indicates the frequency of the sound, the horizontal axis indicates the time at which the sound was detected, and whether the sound intensity is greater than the first threshold at a position corresponding to the frequency and time. It is shown whether or not. Note that "1" indicates that the sound intensity is greater than the first threshold, and "0" indicates that the sound intensity is less than or equal to the first threshold.

図9に示された例では、時間経過に伴って、強度が第1の閾値より大きい音の検出される周波数帯域(すなわち、音パターンにおいて「1」が立っている周波数帯域)が広くなっていることが把握される。これは、船が音響センサ10に近づいており、船が発する音が徐々に広い周波数帯域において検出されていることが原因となっている。なお、Beam番号は、複数の検知方向それぞれに対して付された番号である。 In the example shown in FIG. 9, as time passes, the frequency band in which sounds whose intensity is greater than the first threshold value is detected (i.e., the frequency band in which "1" stands in the sound pattern) becomes wider. It is understood that there are This is because the ship is approaching the acoustic sensor 10 and the sound emitted by the ship is gradually being detected in a wider frequency band. Note that the beam number is a number assigned to each of a plurality of detection directions.

[対象物検知部222]
図3に戻って説明を続ける。対象物検知部222は、水中音響センサ10によって得られたセンサデータ(音響データ)に基づいて検知対象物を検知する。
[Target detection unit 222]
Returning to FIG. 3, the explanation will be continued. The object detection unit 222 detects a detection object based on sensor data (acoustic data) obtained by the underwater acoustic sensor 10.

例えば、音の強度が第1の閾値よりも大きい周波数帯域があらかじめ定められた第1の帯域よりも広いという特徴を有する音を発する第1の検知対象物が存在する。そこで、対象物検知部222は、音の強度が第1の閾値より大きい第1の周波数帯域を検出し、第1の周波数帯域があらかじめ定められた第1の帯域よりも広いことに基づいて、第1の検知対象物を検知し得る。 For example, there is a first detection target that emits a sound having a characteristic that a frequency band in which the sound intensity is higher than a first threshold value is wider than a predetermined first band. Therefore, the target object detection unit 222 detects a first frequency band in which the sound intensity is higher than the first threshold, and based on the fact that the first frequency band is wider than the predetermined first band, A first detection target can be detected.

より詳細に、かかる第1の検知対象物は、音の強度が第1の閾値より大きい周波数が存在する時刻(第1の時刻)から所定の時間後の時刻(第2の時刻)における音の強度が第1の閾値より大きい第1の周波数帯域が第1の帯域より広いという特徴を有する音を発する。そこで、対象物検知部222は、音の強度が第1の閾値より大きい周波数が存在する第1の時刻を検出し、第1の時刻から所定の時間後の第2の時刻における音の強度が第1の閾値より大きい周波数帯域を第1の周波数帯域として検出してもよい。 More specifically, the first detection target detects a sound at a time (second time) that is a predetermined time after a time (first time) at which a frequency where the sound intensity is greater than a first threshold exists. A sound is emitted having a characteristic that a first frequency band whose intensity is greater than a first threshold is wider than the first frequency band. Therefore, the target object detection unit 222 detects a first time at which there is a frequency where the sound intensity is higher than the first threshold value, and detects the sound intensity at a second time after a predetermined time from the first time. A frequency band larger than the first threshold may be detected as the first frequency band.

例えば、図9に示された例において、音の強度が第1の閾値より大きい周波数が存在する時刻が「1秒」であり、所定時間が「5秒」である場合、対象物検知部222は、「6秒」における音の強度が第1の閾値より大きい周波数帯域を第1の周波数帯域として検出し、第1の周波数帯域があらかじめ定められた第1の帯域よりも広いことに基づいて、第1の検知対象物を検知し得る。 For example, in the example shown in FIG. 9, if the time at which a frequency with a sound intensity greater than the first threshold value exists is "1 second" and the predetermined time is "5 seconds", the object detection unit 222 detects a frequency band in which the sound intensity at "6 seconds" is greater than the first threshold value as the first frequency band, and based on the fact that the first frequency band is wider than the predetermined first band. , the first detection target can be detected.

第1の検知対象物は特に限定されないが、本発明の実施形態では、対象物検知部222が、第1の検知対象物として、船を検知する場合を想定する。このとき、船が発する音には、船が発するエンジン回転による機械音、および、船が発するスクリュー回転による水切り音などが含まれ得る。なお、対象物検知部222によって検知される船が密漁船である場合を想定し、以下では、対象物検知部222によって検知される船を「密漁船」とも言う。また、船は水面に浮かぶ動力源を有する移動体を広く包含する概念であり、水上バイクなども含み得る。 Although the first detection target is not particularly limited, in the embodiment of the present invention, it is assumed that the target detection unit 222 detects a ship as the first detection target. At this time, the sounds emitted by the ship may include mechanical sounds emitted by the ship due to the engine rotation, water cutting sounds emitted by the ship due to the rotation of the screw, and the like. Note that assuming that the ship detected by the target object detection unit 222 is a poaching boat, the ship detected by the target object detection unit 222 will also be referred to as a “poaching boat” below. Furthermore, the term "ship" is a concept that broadly encompasses any moving body that has a power source that floats on the surface of water, and may also include watercraft and the like.

また、あらかじめ定められたルールに基づいて検知するのが困難な第2の検知対象物も存在し得る。例えば、図7に示された例において、エリアD11~D13それぞれに対応するダイバーが発する音が小さく、ダイバーが発する音が検知されにくい場合が想定され得る。かかる場合などには、対象物検知部222は、あらかじめ機械学習により生成されたモデルと、スペクトログラムとに基づいて、第2の検知対象物を検知し得る。 Furthermore, there may also be a second detection target object that is difficult to detect based on predetermined rules. For example, in the example shown in FIG. 7, it can be assumed that the sounds emitted by the divers corresponding to each of areas D11 to D13 are small, making it difficult to detect the sounds emitted by the divers. In such a case, the target object detection unit 222 can detect the second detection target based on a model generated in advance by machine learning and a spectrogram.

より詳細に、モデルがスペクトログラムを入力とし、第2の検知対象物の検知確率を出力とする場合が想定される。かかる場合には、対象物検知部222は、あらかじめ機械学習により生成されたモデルとスペクトログラムとに基づいて出力される第2の検知対象物の検知確率が所定の確率よりも大きいことに基づいて、第2の検知対象物を検知してもよい。 More specifically, a case is assumed in which the model inputs the spectrogram and outputs the detection probability of the second detection target. In such a case, the target object detection unit 222 detects the second detection target based on the fact that the detection probability of the second detection target output based on the spectrogram and the model generated by machine learning in advance is larger than the predetermined probability. A second detection target may also be detected.

機械学習アルゴリズムの種類は限定されない。例えば、機械学習アルゴリズムは、ニューラルネットワークであってもよいし、他の機械学習アルゴリズムであってもよい。また、学習段階においては、学習用のスペクトログラムを入力データとし、学習用のスペクトログラムに第2の検知対象物が発する音が含まれることを示す値「1」または第2の検知対象物が発する音が含まれないことを示す値「0」を正解データとし、モデルが生成されてもよい。 The type of machine learning algorithm is not limited. For example, the machine learning algorithm may be a neural network or other machine learning algorithm. In addition, in the learning stage, the learning spectrogram is used as input data, and the value "1" indicating that the learning spectrogram includes the sound emitted by the second detection object or the sound emitted by the second detection object is used. A model may be generated by setting the value "0" indicating that the value is not included as correct data.

第2の検知対象物は特に限定されないが、本発明の実施形態では、対象物検知部222が、第2の検知対象物として、ダイバー(すなわち、人)を検知する場合を想定する。このとき、ダイバーが発する音には、ダイバーがボンベから空気を吸引する際に空気がレギュレータ(調整噐・調節器)を通過する音が含まれ得る。なお、対象物検知部222によって検知されるダイバーが密漁者である場合を想定し、以下では、対象物検知部222によって検知されるダイバーを「密漁者」とも言う。 Although the second detection target is not particularly limited, in the embodiment of the present invention, it is assumed that the target detection unit 222 detects a diver (that is, a person) as the second detection target. At this time, the sound emitted by the diver may include the sound of air passing through a regulator when the diver sucks air from the cylinder. Note that assuming that the diver detected by the object detection unit 222 is a poacher, the diver detected by the object detection unit 222 will also be referred to as a "poacher" below.

また、ダイバーが発する音と類似する音を発する海洋生物が存在し得る。したがって、海洋生物が発する音の検知は、ダイバーが発する音が検知されたという誤検知につながってしまう可能性がある。そこで、海洋生物が発する音が検出された場合には、ダイバーが発する音の検知が取り消されるのが望ましい。 There may also be marine life that makes sounds similar to those made by divers. Therefore, detection of sounds emitted by marine life may lead to false positives that sounds emitted by divers have been detected. Therefore, when sounds emitted by marine life are detected, it is desirable to cancel the detection of sounds emitted by divers.

例えば、図8に示されたエリアD21~D22それぞれに対応する海洋生物が発する音は、強度があらかじめ定められた第2の閾値より大きい周波数帯域があらかじめ定められた第2の帯域よりも広いという特徴を有する。そこで、対象物検知部222は、音の強度が第2の閾値より大きい第2の周波数帯域を検出し、第2の周波数帯域が第2の帯域よりも広いことに基づいて、ダイバーの検知を取り消してもよい。 For example, the sounds emitted by marine creatures corresponding to each of areas D21 to D22 shown in FIG. Has characteristics. Therefore, the object detection unit 222 detects a second frequency band in which the sound intensity is higher than the second threshold, and detects a diver based on the fact that the second frequency band is wider than the second frequency band. You may cancel it.

さらに、図8に示されたエリアD21~D22それぞれに対応する海洋生物が発する音は、強度があらかじめ定められた第2の閾値より大きい時間が所定の時間よりも短いという特徴を有する。そこで、対象物検知部222は、音の強度が第2の閾値より大きい時間を検出し、時間が所定の時間よりも短いことに基づいて、ダイバーの検知を取り消してもよい。 Furthermore, the sounds emitted by marine creatures corresponding to each of the areas D21 to D22 shown in FIG. 8 have a characteristic that the time during which the intensity is greater than a predetermined second threshold is shorter than a predetermined time. Therefore, the object detection unit 222 may detect a time when the sound intensity is higher than the second threshold, and cancel the detection of the diver based on the fact that the time is shorter than a predetermined time.

なお、対象物検知部222は、音の強度が第2の閾値より大きい第2の周波数帯域が第2の帯域よりも広いこと、および、音の強度が第2の閾値より大きい時間が所定の時間よりも短いことに基づいて、ダイバーの検知を取り消してもよい。これによって、海洋生物が発する音の検出精度が高まり、海洋生物が発する音の検知が、ダイバーが発する音が検知されたという誤検知につながってしまう可能性が低減され得る。 Note that the target object detection unit 222 detects that the second frequency band in which the sound intensity is greater than the second threshold value is wider than the second frequency band, and that the time period in which the sound intensity is greater than the second threshold value is a predetermined period. Detection of the diver may be canceled based on less than the time. This increases the accuracy of detecting sounds emitted by marine organisms, and can reduce the possibility that detection of sounds emitted by marine organisms will lead to false positives that sounds emitted by divers have been detected.

上記したように、対象物検知部222は、センサデータに基づいて水中音響センサ10の設置位置を基準とした音源(すなわち、検知対象物)の方位を特定し得る。なお、複数の水中音響センサ10によって同時に同一の検知対象物が検知される場合も想定される。かかる場合には、対象物検知部222は、複数の水中音響センサ10の設置位置それぞれを基準とした検知対象物の方位を特定し得る。このとき、対象物検知部222は、複数の水中音響センサ10の設置位置それぞれを基準とした検知対象物の方位と、複数の水中音響センサ10の設置位置とに基づいて、検知対象物の位置(緯度経度)を特定し得る。 As described above, the object detection unit 222 can identify the direction of the sound source (that is, the object to be detected) with respect to the installation position of the underwater acoustic sensor 10 based on the sensor data. Note that it is also assumed that the same detection target object is detected by a plurality of underwater acoustic sensors 10 at the same time. In such a case, the object detection unit 222 can identify the orientation of the object to be detected based on each of the installation positions of the plurality of underwater acoustic sensors 10. At this time, the target object detection unit 222 determines the position of the detection target based on the orientation of the detection target with respect to each of the installation positions of the plurality of underwater acoustic sensors 10 and the installation positions of the plurality of underwater acoustic sensors 10. (latitude and longitude) can be specified.

本発明の実施形態では、対象物検知部222がサーバ20に存在する場合を主に想定する。しかし、対象物検知部222は、水中音響センサ10とサーバ20との間に図示しない分析装置が存在する場合、当該分析装置に組み込まれていてもよい。かかる場合には、分析装置は、水中音響センサ10によって得られたセンサデータを受信する。そして、分析装置は、取得したセンサデータに基づいて検知対象物を検知した場合、検知対象物の方位または位置情報と、検知対象物の種別と、検知対象物が検知された水中音響センサ10のセンサIDとを、サーバ20に送信すればよい。 In the embodiment of the present invention, it is mainly assumed that the target object detection unit 222 is present in the server 20. However, if an analysis device (not shown) is present between the underwater acoustic sensor 10 and the server 20, the target object detection unit 222 may be incorporated in the analysis device. In such a case, the analysis device receives sensor data obtained by the underwater acoustic sensor 10. When the analyzer detects a detection target based on the acquired sensor data, the analyzer includes the orientation or position information of the detection target, the type of the detection target, and the information of the underwater acoustic sensor 10 where the detection target was detected. What is necessary is just to transmit the sensor ID to the server 20.

[検知通知部223]
検知通知部223は、対象物検知部222によって検知対象物が検知されたことに基づいて(すなわち、対象物検知部222によって船またはダイバーが検知されたことに基づいて)アラームを出力する(警報を発する)。より詳細に、検知通知部223は、検知に関する情報そのものに先んじて、検知に関する情報に対応する識別情報および検知対象物の種別が、水中音響センサ10にあらかじめ対応付けられた監視者端末30(より詳細には、センサ情報231において、水中音響センサ10の「センサID」に対応付けられた「通知先アドレス」が示す監視者端末30)に送信されるように通信部240を制御する。これによって、監視者端末30に検知対象物の検知が通知される。識別情報は、アラームの一例に該当し得る。
[Detection notification unit 223]
The detection notification unit 223 outputs an alarm based on the detection of a detection target by the target object detection unit 222 (that is, based on the detection of a ship or a diver by the target object detection unit 222). ). More specifically, the detection notification unit 223 informs the supervisor terminal 30 (or Specifically, the communication unit 240 is controlled so that the sensor information 231 is transmitted to the supervisor terminal 30) indicated by the "notification destination address" associated with the "sensor ID" of the underwater acoustic sensor 10. As a result, the supervisor terminal 30 is notified of the detection of the object to be detected. Identification information may correspond to an example of an alarm.

以下では、識別情報が、検知に関する情報の所在を示すURL(Uniform Resource Locator)である場合を想定する。検知に関する情報の所在を示すURLは、インターネットに係る技術の標準を定める団体であるIETF(Internet Engineering Task Force)が発行する文書RFC(Request For Comment)(例えばRFC2396やRFC3986など)に基づき形成されてもよい。例えば、RFC3986は、一般的なURI(Uniform Resource Identifier)構文としてscheme、authority、path、queryおよびfragmentと呼ばれる構成要素の階層的なシーケンスから成ると示し、「URI=scheme”:”hier-part[”?”query][”#”fragment]」と示す。検知に関する情報の所在を示すURLは、例えば「https://sensor.server.jp/poaching/999」となる。検知に関する情報の所在を示すURL「https://sensor.server.jp/poaching/999」は、スキーム(scheme)を表す識別情報(スキーム名)「https」、HTTP(HyperText Transfer Protocol)サーバ(サーバ20)アドレスを表す識別情報(ホスト名)「sensor.server.jp」およびパスを表す識別情報「/poaching/999」(「999」は検知に関する情報を提供するプログラムやWebページを表す識別情報)により構成されている。しかし、識別情報は、検知に関する情報を識別可能な情報であれば、URLに限定されない。例えば、識別情報は、検知に関する情報の所在を示すURLに対応する文字や画像などであってもよい。この場合、検知に関する情報の所在を示すURLに対応する文字や画像などは、検知に関する情報の所在を示すURLと異なる文字や画像などであってもよい。 In the following, it is assumed that the identification information is a URL (Uniform Resource Locator) indicating the location of information related to detection. The URL indicating the location of information related to detection is formed based on the document RFC (Request For Comment) (for example, RFC2396 and RFC3986) issued by the Internet Engineering Task Force (IETF), an organization that sets standards for Internet-related technology. Good too. For example, RFC3986 indicates that the general URI (Uniform Resource Identifier) syntax consists of a hierarchical sequence of components called scheme, authority, path, query, and fragment, and "URI=scheme":"hier-part" [ ”? "query" ["#"fragment]". The URL indicating the location of information regarding detection is, for example, "https://sensor.server.jp/poaching/999." The URL "https://sensor.server.jp/poaching/999" indicating the location of information related to detection is the identification information (scheme name) "https" representing the scheme (scheme), the HTTP (HyperText Transfer Protocol) server (server 20) Identification information representing an address (host name) "sensor.server.jp" and identification information representing a path "/poaching/999" ("999" is identification information representing a program or web page that provides information regarding detection) It is made up of. However, the identification information is not limited to a URL as long as it is information that can identify information related to detection. For example, the identification information may be characters or images corresponding to a URL indicating the location of information related to detection. In this case, the characters, images, etc. corresponding to the URL indicating the location of the information related to detection may be different from the characters, images, etc. corresponding to the URL indicating the location of the information related to detection.

上記したように、検知の通知手段は限定されないが、検知メール(電子メール)によって検知が通知される場合、検知通知部223は、検知に関する情報の所在を示すURLの文字列を本文に含む検知メールが監視者端末30に送信されるように制御すればよい。また、検知メール(HTML電子メール)によって検知が通知される場合、検知通知部223は、検知に関する情報の所在を示すURLに対応する文字や画像などを本文に含む検知メールが監視者端末30に送信されるように制御すればよい。なお、検知に関する情報の具体的な例については、後に説明する。 As described above, the means of notification of detection is not limited, but when the detection is notified by a detection mail (email), the detection notification unit 223 detects the Control may be performed so that the e-mail is sent to the supervisor terminal 30. In addition, when detection is notified by a detection email (HTML email), the detection notification unit 223 sends a detection email to the supervisor terminal 30 that includes text, images, etc. corresponding to the URL indicating the location of information regarding the detection. All you have to do is control it so that it is sent. Note that a specific example of information regarding detection will be explained later.

[検知メール]
図10は、検知メールの例を示す図である。図10に示されるように、検知メールG10は、送信者、件名、(検知メールの)送信日時、(検知メールの)宛先、および、本文を含んでいる。本文には、検知対象物の種別の例として「密漁船」および「密漁者」が記述されている。また、検知に関する情報の所在を示すURL(B10)(https://sensor.server.jp/poaching/999)が記述されている。監視者端末30において、制御部320は、通信部340によって検知メールG10が受信されると、表示部350によって検知メールG10が表示されるように表示部350を制御する。なお、監視者端末30(制御部320)は、検知メールG10を受信すると、自動的に検知メールG10を表示するよう制御するものであってもよいし、監視者の操作に応じて検知メールG10を表示するよう制御するものであってもよい。
[Detected email]
FIG. 10 is a diagram showing an example of a detection email. As shown in FIG. 10, the detection email G10 includes a sender, a subject, a sending date and time (of the detection email), a destination (of the detection email), and a body. The text describes "poaching boat" and "poacher" as examples of the types of objects to be detected. Further, a URL (B10) (https://sensor.server.jp/poaching/999) indicating the location of information regarding detection is described. In the supervisor terminal 30, the control unit 320 controls the display unit 350 so that the detection email G10 is displayed on the display unit 350 when the communication unit 340 receives the detection email G10. Note that when the supervisor terminal 30 (control unit 320) receives the detection email G10, it may be controlled to automatically display the detection email G10, or the supervisor terminal 30 (control unit 320) may control the display of the detection email G10 automatically according to the operation of the supervisor. may be controlled to display.

監視者は、検知に関する情報を確認したいと考えたタイミングで、URL(B10)の選択操作を入力部310に対して行う。例えば、入力部310がタッチパネルを含む場合には、選択操作は、タッチパネルへのタップ操作であってよい。あるいは、入力部310がマウスを含む場合には、選択操作は、マウスを用いたクリック操作であってよい。その他、選択操作は、入力部310の種類に応じて適宜に変更されてよい。なお、検知に関する情報の所在を示すURL(B10)が検知に関する情報の所在を示すURLに対応する文字や画像などであると、監視者は、検知に関する情報を確認したいと考えたタイミングで、検知に関する情報の所在を示すURLに対応する文字や画像などの選択操作を入力部310に対して行う。 The monitor performs a selection operation of the URL (B10) on the input unit 310 at a timing when he or she wants to check information regarding detection. For example, if the input unit 310 includes a touch panel, the selection operation may be a tap operation on the touch panel. Alternatively, if the input unit 310 includes a mouse, the selection operation may be a click operation using the mouse. In addition, the selection operation may be changed as appropriate depending on the type of input section 310. Note that if the URL (B10) indicating the location of information related to detection is text or an image that corresponds to the URL indicating the location of information related to detection, the monitor can check the information related to detection at the timing when he/she wants to check the information related to detection. A user performs an operation on the input unit 310 to select characters, images, etc. corresponding to a URL indicating the location of information about the user.

入力部310によってURLの選択操作(URLに対応する文字や画像などの選択操作)が受け付けられると、制御部320は、URL(URLに対応する文字や画像など)に対応するデータ送信要求がサーバ20に送信されるように通信部340を制御する。例えば、制御部320は、データ送信要求(HTTPメッセージ)として、リクエスト行にGETメソッド(文字「GET」)およびリクエスト対象「https://sensor.server.jp/poaching/999」(文字)が含まれるHTTPのGETリクエストがサーバ20に送信されるように通信部340を制御する。ここで、データ送信要求におけるリクエスト対象「https://sensor.server.jp/poaching/999」は、検知メールG10に含まれる検知に関する情報の所在を示すURL(B10)である。 When the input unit 310 accepts a URL selection operation (selection operation of characters, images, etc. corresponding to the URL), the control unit 320 sends a data transmission request corresponding to the URL (characters, images, etc. corresponding to the URL) to the server. 20. For example, as a data transmission request (HTTP message), the control unit 320 includes a GET method (letters "GET") and a request target "https://sensor.server.jp/poaching/999" (letters) in the request line. The communication unit 340 is controlled so that the HTTP GET request sent is sent to the server 20. Here, the request target "https://sensor.server.jp/poaching/999" in the data transmission request is a URL (B10) indicating the location of the information regarding detection included in the detection email G10.

なお、監視者が選択操作を行ってから所定の時間以内に監視者端末30にて何らかの連絡機能(例えば、電話機能、メール機能など)によって他人に連絡を行った場合、監視者から連絡を受けた当該他人の名称(連絡先名)や当該他人の連絡先の情報(通知先アドレスおよびまたは連絡先電話番号)が監視者端末30からサーバ20に通知されてもよい。このとき、サーバ20は、監視者端末30から通知された当該他人の名称を「連絡先名」としてセンサ情報231(図4)に新たに登録し、監視者端末30から通知された当該他人の名称と当該他人の連絡先の情報とを「連絡先名」「通知先アドレス(およびまたは連絡先電話番号)」として通知先情報232(図5)に新たに登録してもよい。そして、サーバ20は監視者に加え、新たに登録された当該他人の連絡先の情報に基づき、当該他人に検知メールG10を送信してもよい。サーバ20は、通知先情報232(図5)に新たに登録することで、監視者端末30に送付済みの検知メールG10を当該他人の通知先アドレスに再送することができるようになり、監視者端末30に検知メールG10を新たに送付する際に当該他人の通知先アドレスを含めることができるようになる。 In addition, if the supervisor contacts another person using some contact function (e.g., telephone function, email function, etc.) on the supervisor terminal 30 within a predetermined time after the supervisor performs the selection operation, the supervisor will not contact you. The name (contact name) of the other person and contact information (notification address and/or contact telephone number) of the other person may be notified from the supervisor terminal 30 to the server 20. At this time, the server 20 newly registers the name of the other person notified from the supervisor terminal 30 as a "contact name" in the sensor information 231 (FIG. 4), and The name and contact information of the other person may be newly registered in the notification information 232 (FIG. 5) as "contact name" and "notification address (and/or contact telephone number)." Then, the server 20 may send the detection email G10 to the other person in addition to the monitor based on the newly registered contact information of the other person. By newly registering in the notification destination information 232 (FIG. 5), the server 20 can resend the detection email G10 that has already been sent to the supervisor terminal 30 to the notification destination address of the other person. When newly sending the detection mail G10 to the terminal 30, it becomes possible to include the notification destination address of the other person.

[要求取得部224]
図3に戻って説明を続ける。サーバ20において、通信部240によって、監視者端末30からURLに対応するデータ送信要求が受信されると、要求取得部224は、通信部240からURLに対応するデータ送信要求を取得する。
[Request acquisition unit 224]
Returning to FIG. 3, the explanation will be continued. In the server 20 , when the communication unit 240 receives the data transmission request corresponding to the URL from the supervisor terminal 30 , the request acquisition unit 224 acquires the data transmission request corresponding to the URL from the communication unit 240 .

[データ取得部225]
データ取得部225は、要求取得部224によってURLに対応するデータ送信要求が取得された場合、URLに対応する検知に関する情報を取得する。本発明の実施形態では、検知に関する情報が、検知対象物が検知された水中音響センサ10の設置位置に応じた地図を含む場合を想定する。
[Data acquisition unit 225]
The data acquisition unit 225 acquires information regarding detection corresponding to the URL when the request acquisition unit 224 acquires a data transmission request corresponding to the URL. In the embodiment of the present invention, a case is assumed in which the information regarding detection includes a map according to the installation position of the underwater acoustic sensor 10 where the detection target object is detected.

なお、本発明の実施形態では、データ取得部225が、所定の地図提供API(Application Programming Interface)から地図を取得する場合を主に想定する。かかる場合には、データ取得部225は、取得したい地図の基準点と、基準点を中心とした地図の範囲(例えば、ズーム)とを地図提供APIに通知すれば、その基準点を中心とした範囲の地図を地図提供APIから得ることができる。 Note that the embodiment of the present invention mainly assumes a case where the data acquisition unit 225 acquires a map from a predetermined map providing API (Application Programming Interface). In such a case, the data acquisition unit 225 notifies the map providing API of the reference point of the map to be acquired and the map range (for example, zoom) centered on the reference point, and then A map of the range can be obtained from the map provision API.

したがって、地図提供APIは、地図情報を管理すると共に提供する地図提供プログラムとデータ取得部225とが互いにやりとりするためのインタフェースの仕様であって、地図情報を提供する地図提供プログラムとデータ取得部225との間に介在するプログラムである。地図提供APIは、地図提供プログラム内に内在するものであってもよいし、地図提供プログラムとは別のプログラムとして存在するものであってもよい。 Therefore, the map providing API is a specification of an interface for mutual interaction between the map providing program that manages and provides map information and the data acquisition unit 225, and is a specification of an interface for mutual interaction between the map providing program that manages and provides map information and the data acquisition unit 225. This is a program that intervenes between the two. The map providing API may be internal to the map providing program, or may exist as a separate program from the map providing program.

また、地図提供プログラムと地図提供APIとは、サーバ20に配されてもよいし、サーバ20以外の外部のサーバに配されてもよい。地図提供プログラムおよび地図提供APIがサーバ20に配される場合、記憶部230に地図情報が記憶されており、データ取得部225は地図提供APIを介して記憶部230から地図が取得できる。地図提供プログラムおよび地図提供APIがサーバ20以外の外部のサーバに配される場合、外部のサーバに地図情報が記憶されており、データ取得部225はネットワークと地図提供APIとを介して外部のサーバから地図が取得できる。 Further, the map providing program and the map providing API may be placed on the server 20 or may be placed on an external server other than the server 20. When the map providing program and the map providing API are arranged in the server 20, map information is stored in the storage unit 230, and the data acquisition unit 225 can acquire the map from the storage unit 230 via the map providing API. When the map providing program and the map providing API are placed in an external server other than the server 20, the map information is stored in the external server, and the data acquisition unit 225 accesses the external server via the network and the map providing API. Maps can be obtained from.

例えば、地図提供プログラムおよび地図提供APIがサーバ20以外の外部のHTTPサーバに配されており、データ取得部225が、所定の地図提供APIから地図を取得する場合、HTTPを利用することができる。この場合、外部のHTTPサーバは地図情報を管理すると共にHTTPの通信プロトコルに基づいてネットワーク越しで地図を提供する地図提供サーバであるから、地図提供APIを地図提供WebAPI(地図提供Webサービス)と換言してもよい。 For example, when the map providing program and the map providing API are located on an external HTTP server other than the server 20, and the data acquisition unit 225 obtains a map from a predetermined map providing API, HTTP can be used. In this case, the external HTTP server is a map providing server that manages map information and provides maps over the network based on the HTTP communication protocol, so the map providing API can be referred to as the map providing Web API (map providing web service). You may.

ここで、基準点は、監視者端末30にあらかじめ対応付けられた水中音響センサ10の設置位置であってもよい。このとき、地図の範囲は、監視者端末30にあらかじめ対応付けられた水中音響センサ10の検知可能範囲が収まるように決められるのが望ましい。 Here, the reference point may be an installation position of the underwater acoustic sensor 10 that is associated with the supervisor terminal 30 in advance. At this time, it is desirable that the range of the map is determined so that the detectable range of the underwater acoustic sensor 10 associated with the supervisor terminal 30 in advance falls within the range.

あるいは、監視者端末30にあらかじめ対応付けられた水中音響センサ10が複数存在する場合、基準点は、複数の水中音響センサ10の設置位置に応じた位置(例えば、重心位置など)であってもよい。このとき、地図の範囲は、監視者端末30にあらかじめ対応付けられた複数の水中音響センサ10すべての検知可能範囲が収まるように決められるのが望ましい。 Alternatively, if there are multiple underwater acoustic sensors 10 associated with the supervisor terminal 30 in advance, the reference point may be a position (for example, a center of gravity position, etc.) that corresponds to the installation position of the multiple underwater acoustic sensors 10. good. At this time, it is desirable that the range of the map is determined so that the detectable range of all of the plurality of underwater acoustic sensors 10 associated with the supervisor terminal 30 in advance falls within the range.

あるいは、基準点は、監視者端末30にあらかじめ対応付けられた1または複数の水中音響センサ10のうち、検知対象物が検知された水中音響センサ10の設置位置であってもよい。このとき、地図の範囲は、検知対象物が検知された水中音響センサ10の検知可能範囲が収まるように決められるのが望ましい。 Alternatively, the reference point may be the installation position of the underwater acoustic sensor 10 that has detected the detection target among one or more underwater acoustic sensors 10 associated with the supervisor terminal 30 in advance. At this time, it is desirable that the range of the map is determined so that the detectable range of the underwater acoustic sensor 10 in which the detection target object is detected falls within.

さらに、本発明の実施形態では、検知に関する情報が、地図以外の付加情報を含む場合を想定する。しかし、検知に関する情報は、地図および付加情報の少なくともいずれか一方を含んでいればよい。 Furthermore, in the embodiment of the present invention, it is assumed that the information regarding detection includes additional information other than the map. However, the information regarding detection only needs to include at least one of a map and additional information.

本発明の実施形態では、付加情報が、検知対象物が検知された水中音響センサ10にあらかじめ対応付けられた連絡先名および連絡先電話番号(図5)を含む場合を想定する。なお、連絡先名および連絡先電話番号は、通知先に関する情報の例であるため、通知先名および連絡先電話番号の代わりに、他の通知先に関する情報(例えば、通知先アドレスなど)が付加情報に含まれてもよい。 In the embodiment of the present invention, it is assumed that the additional information includes a contact name and a contact telephone number (FIG. 5) that are associated in advance with the underwater acoustic sensor 10 in which the detection target object is detected. Note that the contact name and contact phone number are examples of information related to the notification destination, so instead of the notification destination name and contact phone number, information related to other notification destinations (for example, notification destination address, etc.) may be added. May be included in the information.

さらに、本発明の実施形態では、付加情報が、検知対象物が検知された水中音響センサ10のセンサ状態情報(図4)を含む場合を想定する。また、本発明の実施形態では、付加情報が、検知対象物が検知された水中音響センサ10の設置位置に応じた気象情報を含む場合を想定する。 Furthermore, in the embodiment of the present invention, a case is assumed in which the additional information includes sensor state information (FIG. 4) of the underwater acoustic sensor 10 in which the detection target object is detected. Further, in the embodiment of the present invention, a case is assumed in which the additional information includes weather information according to the installation position of the underwater acoustic sensor 10 where the detection target object is detected.

さらに、本発明の実施形態では、付加情報が、監視者端末30への検知メール送信日時(検知メール送信日付および検知メール送信時刻)を含む場合を想定する。しかし、付加情報は、監視者端末30への検知メール送信日時の代わりに、または、監視者端末30への検知メール送信日時に追加して、検知対象物の検知日時(検知対象物の検知日付および検知対象物の検知時刻)を含んでもよい。 Furthermore, in the embodiment of the present invention, it is assumed that the additional information includes the date and time of sending the detection email to the supervisor terminal 30 (the date and time of sending the detection email). However, the additional information may include the detection date and time of the detection target (detection date and time of the detection target) instead of or in addition to the date and time of the detection email sent to the supervisor terminal 30. and the detection time of the detection target).

[データ提供部226]
データ提供部226は、検知に関する情報が監視者端末30に送信されるように通信部240を制御する。例えば、データ提供部226は、HTTPのGETリクエストに対する応答として、検知に関する情報を含むHTTPレスポンスが監視者端末30に返信されるように通信部240を制御する。
[Data providing unit 226]
The data providing unit 226 controls the communication unit 240 so that information regarding detection is transmitted to the supervisor terminal 30. For example, the data providing unit 226 controls the communication unit 240 so that an HTTP response including information regarding detection is returned to the supervisor terminal 30 as a response to the HTTP GET request.

[検知画面]
監視者端末30においては、通信部340によって検知に関する情報が受信されると、制御部320によって検知に関する情報が取得される。制御部320は、検知に関する情報に基づいて、検知画面が表示部350によって表示されるように表示部350を制御する。監視者は、表示部350によって表示された検知画面を見ることによって、検知に関する情報を把握することができる。以下、図11~図16を参照しながら、検知画面の例について説明する。
[Detection screen]
In the supervisor terminal 30, when the communication unit 340 receives the information regarding detection, the control unit 320 acquires the information regarding the detection. The control unit 320 controls the display unit 350 so that the detection screen is displayed on the display unit 350 based on the information regarding detection. By viewing the detection screen displayed on the display unit 350, the supervisor can grasp information regarding detection. Examples of detection screens will be described below with reference to FIGS. 11 to 16.

図11は、検知対象物が1つの水中音響センサ10によって検知された場合における検知画面G20の例を示す図である。図11を参照すると、検知画面G20には、地図が表示される領域(地図表示領域W21)と、付加情報が表示される領域(付加情報表示領域W22)が含まれている。地図表示領域W21を参照すると、データ取得部225によって、検知対象物が検知された水中音響センサ10の設置位置に対応する地図上の位置(地図上のセンサ位置)に、センサを示すオブジェクト(センサオブジェクトB211)が付加されている。 FIG. 11 is a diagram showing an example of a detection screen G20 when a detection target object is detected by one underwater acoustic sensor 10. Referring to FIG. 11, the detection screen G20 includes an area where a map is displayed (map display area W21) and an area where additional information is displayed (additional information display area W22). Referring to the map display area W21, the data acquisition unit 225 displays an object (sensor Object B211) is added.

地図表示領域W21を参照すると、データ取得部225によって、密漁者の方位に対応する地図上の方向に、地図上のセンサ位置を基準としたオブジェクト(密漁者検知方向オブジェクトD211)が付されている。さらに、地図表示領域W21を参照すると、データ取得部225によって、密漁船の方位に対応する地図上の方向に、地図上のセンサ位置を基準としたオブジェクト(密漁船検知方向オブジェクトD212)が付されている。 Referring to the map display area W21, the data acquisition unit 225 attaches an object (poacher detection direction object D211) based on the sensor position on the map to the direction on the map corresponding to the direction of the poacher. . Further, when referring to the map display area W21, the data acquisition unit 225 adds an object (poaching boat detection direction object D212) based on the sensor position on the map in the direction on the map corresponding to the direction of the poaching boat. ing.

なお、図11に示された例では、密漁者検知方向オブジェクトD211と密漁船検知方向オブジェクトD212とが、色の違いとサイズの違いによって区別されているが、密漁者検知方向オブジェクトD211と密漁船検知方向オブジェクトD212とは、他の態様によって区別されていてもよい。例えば、密漁者検知方向オブジェクトD211と密漁船検知方向オブジェクトD212とは、形状の違いによって区別されてもよい。 In the example shown in FIG. 11, the poacher detection direction object D211 and the poaching boat detection direction object D212 are distinguished by different colors and sizes, but the poacher detection direction object D211 and the poaching boat detection direction object D212 The detection direction object D212 may be distinguished by other aspects. For example, the poacher detection direction object D211 and the poaching boat detection direction object D212 may be distinguished by a difference in shape.

また、図11に示された例では、密漁者検知方向オブジェクトD211および密漁船検知方向オブジェクトD212それぞれの形状が、扇形であるが、密漁者検知方向オブジェクトD211および密漁船検知方向オブジェクトD212それぞれの形状は限定されない。例えば、密漁者検知方向オブジェクトD211および密漁船検知方向オブジェクトD212それぞれの形状は、地図上のセンサ位置に頂点が位置するような三角形などであってもよい。 Furthermore, in the example shown in FIG. 11, the shapes of the poacher detection direction object D211 and the poaching boat detection direction object D212 are fan-shaped, but the shapes of the poacher detection direction object D211 and the poaching boat detection direction object D212 are is not limited. For example, the shape of each of the poacher detection direction object D211 and the poaching boat detection direction object D212 may be a triangle whose apex is located at the sensor position on the map.

さらに、地図表示領域W21を参照すると、地図には、地図の表示サイズを調整するためのオブジェクト(表示サイズ調整オブジェクトD272)が含まれている。これによって、監視者は、表示サイズ調整オブジェクトD272を用いて拡大操作または縮小操作を入力部310に入力することによって、拡大または縮小後の地図がサーバ20から監視者端末30に提供され、表示部350によって拡大または縮小後の地図が新たに表示される。 Further, referring to the map display area W21, the map includes an object (display size adjustment object D272) for adjusting the display size of the map. Accordingly, by inputting an enlargement or reduction operation into the input section 310 using the display size adjustment object D272, the observer can receive an enlarged or reduced map from the server 20 to the monitor terminal 30, and the display section 350, the enlarged or reduced map is newly displayed.

さらに、地図表示領域W21を参照すると、地図には、実空間での幅に対応する地図上での幅がスケールバーとして含まれている。実空間での幅の例として「100m」が表示されている。スケールバーを確認することによって、監視者は、地図上での幅と実空間での幅との対応関係を把握することができる。その他、地図表示領域W21を参照すると、地図には、データ取得部225によって、表示切り替えオブジェクトB210が付加されている。表示切り替えオブジェクトB210については、後に説明する。 Furthermore, referring to the map display area W21, the map includes a width on the map corresponding to the width in real space as a scale bar. "100 m" is displayed as an example of the width in real space. By checking the scale bar, the observer can grasp the correspondence between the width on the map and the width in real space. In addition, referring to the map display area W21, a display switching object B210 is added to the map by the data acquisition unit 225. The display switching object B210 will be explained later.

付加情報表示領域W22には、地図が最後に更新された日時を示す「最終更新日時」が含まれている。また、付加情報表示領域W22には、システムの状態を示す「状態:密漁検知中」が含まれている。さらに、付加情報表示領域W22には、付加情報表示切り替えボタンB221が含まれている。付加情報表示切り替えボタンB221については、後に説明する。その他、付加情報表示領域W22には、「検知メール送信日時」が含まれているが、上記したように、「検知メール送信日時」の代わりに、または、「検知メール送信日時」に追加して、検知対象物の検知日時が含まれてもよい。 The additional information display area W22 includes "last update date and time" indicating the date and time when the map was last updated. Further, the additional information display area W22 includes "Status: Detecting poaching" indicating the status of the system. Further, the additional information display area W22 includes an additional information display switching button B221. The additional information display switching button B221 will be explained later. In addition, the additional information display area W22 includes "detection mail sending date and time", but as mentioned above, it can be used instead of "detection mail sending date and time" or in addition to "detection mail sending date and time". , the detection date and time of the detection target may be included.

さらに、付加情報表示領域W22には、クリアボタンB222が含まれている。監視者は、クリアボタンB222の選択操作を入力部310に入力することによって、サーバ20に対して、検知メール送信日時をクリアさせることができる。検知メールが監視者端末30に一度送信されれば、一定時間は検知対象物が再度検知されたとしても検知メールが監視者端末30に送信されないのが通例である。しかし、クリアボタンB222が選択された後には、一定時間が経過しなくても、検知対象物が再度検知されたタイミングで検知メールが監視者端末30に送信される。 Further, the additional information display area W22 includes a clear button B222. The monitor can cause the server 20 to clear the detected email transmission date and time by inputting a selection operation of the clear button B222 into the input unit 310. Once the detection email is sent to the supervisor terminal 30, it is usual that the detection email is not sent to the supervisor terminal 30 for a certain period of time even if the object to be detected is detected again. However, after the clear button B222 is selected, a detection email is sent to the supervisor terminal 30 at the timing when the detection target is detected again, even if a certain period of time has not passed.

その他、付加情報表示領域W22には、「連絡先一覧」が含まれている。「連絡先一覧」は、検知対象物が検知された水中音響センサ10にあらかじめ対応付けられた連絡先名および連絡先電話番号(図5)の一覧である。しかし、上記したように、連絡先名および連絡先電話番号は、通知先に関する情報の例であるため、通知先名および連絡先電話番号の代わりに、他の通知先(例えば、警備会社や警察など)に関する情報(例えば、通知先アドレスなど)が付加情報表示領域W22に含まれてもよい。 Additionally, the additional information display area W22 includes a "contact list". The "contact list" is a list of contact names and contact phone numbers (FIG. 5) that are associated in advance with the underwater acoustic sensor 10 in which the detection target object has been detected. However, as mentioned above, the contact name and contact phone number are examples of information about the notification destination, so instead of the notification destination name and contact phone number, other notification destinations (e.g., security companies, police etc.) (for example, notification destination address, etc.) may be included in the additional information display area W22.

付加情報表示領域W22には、音声再生ボタンB224も含まれる。監視者が、音声再生ボタンB224の選択操作を入力部310に入力すると、監視者端末30は、再生要求をサーバ20に送信する。データ提供部226は、監視者端末30から通信部240を介して再生要求を受けたことに基づいて、対象物検知部222によって検知対象物が検知された際の録音データを再生し、再生された音を監視者端末30に対して与えるように通信部240を制御する。監視者端末30において、表示部350は、再生された音を出力する。 The additional information display area W22 also includes an audio playback button B224. When the supervisor inputs a selection operation of the audio reproduction button B224 into the input unit 310, the supervisor terminal 30 transmits a reproduction request to the server 20. Based on receiving a playback request from the supervisor terminal 30 via the communication unit 240, the data providing unit 226 plays back the recorded data when the object to be detected was detected by the object detection unit 222, and the data is played back. The communication unit 240 is controlled so as to provide the supervisor terminal 30 with the sound. In the supervisor terminal 30, the display unit 350 outputs the reproduced sound.

これによって、監視者は、船またはダイバーの音が検知されたのか、その他の音が検知されたのかを自身の聴覚によって確認することができる。 This allows the observer to confirm with his or her hearing whether the sound of a ship or diver or some other sound has been detected.

付加情報表示領域W22には、スペクトログラム参照ボタンB225も含まれる。監視者が、スペクトログラム参照ボタンB225の選択操作を入力部310に入力すると、監視者端末30は、スペクトログラム送信要求をサーバ20に送信する。データ提供部226は、監視者端末30から通信部240を介してスペクトログラム送信要求を受けたことに基づいて、スペクトログラムを監視者端末30に対して与えるように通信部240を制御する。監視者端末30において、表示部350は、スペクトログラムを表示する。 The additional information display area W22 also includes a spectrogram reference button B225. When the monitor inputs a selection operation of the spectrogram reference button B225 into the input unit 310, the monitor terminal 30 transmits a spectrogram transmission request to the server 20. The data providing unit 226 controls the communication unit 240 to provide the spectrogram to the supervisor terminal 30 based on receiving a spectrogram transmission request from the supervisor terminal 30 via the communication unit 240 . In the supervisor terminal 30, the display unit 350 displays a spectrogram.

図12は、監視者端末30によって表示されるスペクトログラムの例を示す図である。図12を参照すると、スペクトログラムが表示されている他、開始日選択欄B231、開始時刻選択欄B232、終了日選択欄B233、終了時刻選択欄B234、音響センサ選択欄B235、表示ボタンB236が設けられている。 FIG. 12 is a diagram showing an example of a spectrogram displayed by the supervisor terminal 30. Referring to FIG. 12, in addition to displaying a spectrogram, a start date selection field B231, a start time selection field B232, an end date selection field B233, an end time selection field B234, an acoustic sensor selection field B235, and a display button B236 are provided. ing.

開始日選択欄B231は、表示されるスペクトログラムの開始日を選択するための選択欄である。開始時刻選択欄B232は、表示されるスペクトログラムの開始時刻を選択するための選択欄である。終了日選択欄B233は、表示されるスペクトログラムの終了日を選択するための選択欄である。終了時刻選択欄B234は、表示されるスペクトログラムの終了時刻を選択するための選択欄である。 The start date selection field B231 is a selection field for selecting the start date of the spectrogram to be displayed. The start time selection field B232 is a selection field for selecting the start time of the spectrogram to be displayed. The end date selection field B233 is a selection field for selecting the end date of the displayed spectrogram. The end time selection field B234 is a selection field for selecting the end time of the displayed spectrogram.

音響センサ選択欄B235は、どの音響センサによって検知された音のスペクトログラムを表示するかを選択するための選択欄である。表示ボタンB236は、スペクトログラムの表示を開始するためのボタンである。なお、ここでは、表示されるスペクトログラムの開始から終了までの時間幅を監視者が指定する場合を想定している。しかし、検知対象物の種類に応じて音の特徴が現れる時間幅が異なることが想定される。そこで、データ提供部226は、検知対象物の種類に応じて表示されるスペクトログラムの開始から終了までの時間幅を決めてもよい。一例として、船が発する音よりもダイバーが発する音のほうが、音の特徴が現れる時間幅が狭いことが想定される。そこで、データ提供部226は、検知対象物が船である場合よりも、検知対象物がダイバーである場合のほうが、表示されるスペクトログラムの開始から終了までの時間幅を狭くしてもよい。 The acoustic sensor selection field B235 is a selection field for selecting which acoustic sensor will display the spectrogram of the sound detected. Display button B236 is a button for starting display of a spectrogram. Note that here, it is assumed that the observer specifies the time width from the start to the end of the displayed spectrogram. However, it is assumed that the time width in which sound characteristics appear differs depending on the type of object to be detected. Therefore, the data providing unit 226 may decide the time width from the start to the end of the displayed spectrogram depending on the type of the detection target. As an example, it is assumed that the time range in which the characteristics of the sound appear is narrower in the sound emitted by a diver than in the sound emitted by a ship. Therefore, the data providing unit 226 may narrow the time width from the start to the end of the displayed spectrogram when the detection target is a diver than when the detection target is a ship.

図12を参照すると、気圧、水温、風力も表示されている。すなわち、データ提供部226は、監視者端末30から通信部240を介してスペクトログラム送信要求を受けたことに基づいて、スペクトログラムの他に、音響センサ10の位置に応じた、気圧、水温および風力の少なくともいずれか一つを監視者端末30に対して与えるように通信部240を制御してもよい。気圧、水温、風力などによっても、音響センサ10による音の検知の状況が変わり得ることが想定されるため、気圧、水温、風力などといった情報も、監視者にとって有用となり得る。 Referring to FIG. 12, atmospheric pressure, water temperature, and wind force are also displayed. That is, based on receiving a spectrogram transmission request from the supervisor terminal 30 via the communication unit 240, the data providing unit 226 provides information on atmospheric pressure, water temperature, and wind power according to the position of the acoustic sensor 10, in addition to the spectrogram. The communication unit 240 may be controlled to provide at least one of them to the supervisor terminal 30. Since it is assumed that the state of sound detection by the acoustic sensor 10 may change depending on atmospheric pressure, water temperature, wind power, etc., information such as atmospheric pressure, water temperature, wind power, etc. may also be useful for the observer.

なお、気圧、水温、風力は、水中音響センサ10の設置位置そのものの気圧、水温、風力であってもよいし、水中音響センサ10の設置位置から離れた場所(例えば、水中音響センサ10が設置された海域の管轄エリアなど)の気圧、水温、風力であってもよい。気圧、水温、風力はどのようにして取得されてもよい。例えば、水中音響センサ10の位置に応じた気圧、水温、風力が所定のWebページから取得されてもよい。 Note that the atmospheric pressure, water temperature, and wind power may be the atmospheric pressure, water temperature, and wind power at the installation position of the underwater acoustic sensor 10, or at a place away from the installation position of the underwater acoustic sensor 10 (for example, at a place where the underwater acoustic sensor 10 is installed). It may also be the atmospheric pressure, water temperature, or wind force of the area under its jurisdiction (e.g., the area under its jurisdiction). The atmospheric pressure, water temperature, and wind force may be obtained in any manner. For example, the atmospheric pressure, water temperature, and wind force depending on the position of the underwater acoustic sensor 10 may be acquired from a predetermined web page.

図11に戻って説明を続ける。付加情報表示領域W22には、音パターン参照ボタンB226も含まれる。監視者が、音パターン参照ボタンB226の選択操作を入力部310に入力すると、監視者端末30は、音パターン送信要求をサーバ20に送信する。データ提供部226は、監視者端末30から通信部240を介して音パターン送信要求を受けたことに基づいて、音パターンを監視者端末30に対して与えるように通信部240を制御する。監視者端末30において、表示部350は、音パターンを表示する。 Returning to FIG. 11, the explanation will be continued. The additional information display area W22 also includes a sound pattern reference button B226. When the supervisor inputs a selection operation of the sound pattern reference button B226 into the input unit 310, the supervisor terminal 30 transmits a sound pattern transmission request to the server 20. The data providing unit 226 controls the communication unit 240 to provide the sound pattern to the supervisor terminal 30 based on receiving a sound pattern transmission request from the supervisor terminal 30 via the communication unit 240 . In the supervisor terminal 30, the display section 350 displays the sound pattern.

図13は、監視者端末30によって表示される音パターンの例を示す図である。図13を参照すると、音パターンが表示されている他、図12に示された例と同様に、開始日選択欄B231、開始時刻選択欄B232、終了日選択欄B233、終了時刻選択欄B234、音響センサ選択欄B235、表示ボタンB236が設けられている。また、図13に示された例では、スクロールバーB234が設けられている。 FIG. 13 is a diagram showing an example of a sound pattern displayed by the supervisor terminal 30. Referring to FIG. 13, in addition to displaying the sound pattern, similar to the example shown in FIG. 12, a start date selection field B231, a start time selection field B232, an end date selection field B233, an end time selection field B234, An acoustic sensor selection field B235 and a display button B236 are provided. Furthermore, in the example shown in FIG. 13, a scroll bar B234 is provided.

開始日選択欄B231は、表示される音パターンの開始日を選択するための選択欄である。開始時刻選択欄B232は、表示される音パターンの開始時刻を選択するための選択欄である。終了日選択欄B233は、表示される音パターンの終了日を選択するための選択欄である。終了時刻選択欄B234は、表示される音パターンの終了時刻を選択するための選択欄である。 The start date selection field B231 is a selection field for selecting the start date of the displayed sound pattern. The start time selection field B232 is a selection field for selecting the start time of the displayed sound pattern. The end date selection field B233 is a selection field for selecting the end date of the displayed sound pattern. The end time selection field B234 is a selection field for selecting the end time of the displayed sound pattern.

音響センサ選択欄B235は、どの音響センサによって検知された音の音パターンを表示するかを選択するための選択欄である。表示ボタンB236は、音パターンの表示を開始するためのボタンである。スクロールバーB234は、音パターンのうち表示される時間をスクロールさせるためのスクロールバーである。なお、ここでは、表示される音パターンの開始から終了までの時間幅を監視者が指定する場合を想定している。しかし、検知対象物の種類に応じて音の特徴が現れる時間幅が異なることが想定される。そこで、データ提供部226は、検知対象物の種類に応じて表示される音パターンの開始から終了までの時間幅を決めてもよい。一例として、船が発する音よりもダイバーが発する音のほうが、音の特徴が現れる時間幅が狭いことが想定される。そこで、データ提供部226は、検知対象物が船である場合よりも、検知対象物がダイバーである場合のほうが、表示される音パターンの開始から終了までの時間幅を狭くしてもよい。また、図13を参照すると、図12と同様に、気圧、水温、風力も表示されている。 The acoustic sensor selection field B235 is a selection field for selecting which sound sensor detects the sound pattern of the sound to be displayed. The display button B236 is a button for starting display of a sound pattern. The scroll bar B234 is a scroll bar for scrolling the displayed time of the sound pattern. Note that here, it is assumed that the observer specifies the time width from the start to the end of the displayed sound pattern. However, it is assumed that the time width in which sound characteristics appear differs depending on the type of object to be detected. Therefore, the data providing unit 226 may decide the time width from the start to the end of the displayed sound pattern depending on the type of the detection target. As an example, it is assumed that the time range in which the characteristics of the sound appear is narrower in the sound emitted by a diver than in the sound emitted by a ship. Therefore, the data providing unit 226 may narrow the time width from the start to the end of the displayed sound pattern when the detected object is a diver than when the detected object is a ship. Further, referring to FIG. 13, similar to FIG. 12, atmospheric pressure, water temperature, and wind force are also displayed.

なお、図13に示された例では、音の強度が第1の閾値より大きい周波数および時刻に対応する位置には着色が施され、音の強度が第1の閾値以下である周波数および時刻に対応する位置には、着色が施されていない。この例のように、音の強度が第1の閾値より大きい周波数および時刻に対応する位置の表示態様と、音の強度が第1の閾値以下である周波数および時刻に対応する位置の表示態様とが異なることによって、音の強度と周波数および時刻との対応関係が監視者によって直感的に把握され得る。 Note that in the example shown in FIG. 13, positions corresponding to frequencies and times where the sound intensity is greater than the first threshold are colored, and positions corresponding to frequencies and times where the sound intensity is less than or equal to the first threshold are colored. Corresponding positions are not colored. As in this example, there are display modes for positions corresponding to frequencies and times at which the sound intensity is greater than the first threshold, and display modes for positions corresponding to frequencies and times at which the sound intensity is less than or equal to the first threshold. By having different values, the observer can intuitively understand the correspondence between the sound intensity, frequency, and time.

さらに、付加情報表示領域W22には、検知メール履歴ボタンB227も含まれる。監視者が、検知メール履歴ボタンB227の選択操作を入力部310に入力すると、監視者端末30は、検知メール履歴送信要求をサーバ20に送信する。データ提供部226は、監視者端末30から通信部240を介して検知メール履歴送信要求を受けたことに基づいて、検知メール送信時刻の履歴を監視者端末30に対して与えるように通信部240を制御する。監視者端末30において、表示部350は、検知メール送信時刻の履歴を表示する。これによって、監視者によって検知メール送信時刻の履歴が把握され得る。 Further, the additional information display area W22 also includes a detected mail history button B227. When the supervisor inputs a selection operation of the detected mail history button B227 into the input section 310, the supervisor terminal 30 transmits a detected mail history transmission request to the server 20. Based on receiving a detection email history transmission request from the supervisor terminal 30 via the communication unit 240, the data providing unit 226 causes the communication unit 240 to provide the history of the detection email transmission time to the supervisor terminal 30. control. In the supervisor terminal 30, the display unit 350 displays the history of detection email transmission times. This allows the monitor to grasp the history of the detection email sending times.

さらに、付加情報表示領域W22には、ダウンロードボタンB228も含まれる。監視者が、ダウンロードボタンB228の選択操作を入力部310に入力すると、監視者端末30は、ダウンロード要求をサーバ20に送信する。データ提供部226は、監視者端末30から通信部240を介してダウンロード要求を受けたことに基づいて、音響センサ10の電源部140の電圧と音響センサ10の位置とを監視者端末30に対して与えるように通信部240を制御する。監視者端末30において、表示部350は、電源部140の電圧と音響センサ10の位置とを表示する。これによって、監視者によって電源部140の残量がどのくらいか、音響センサ10がどこにあるかが把握され得る。 Furthermore, the additional information display area W22 also includes a download button B228. When the supervisor inputs a selection operation of the download button B228 into the input unit 310, the supervisor terminal 30 transmits a download request to the server 20. Based on receiving a download request from the supervisor terminal 30 via the communication unit 240, the data providing unit 226 transmits the voltage of the power supply unit 140 of the acoustic sensor 10 and the position of the acoustic sensor 10 to the supervisor terminal 30. The communication unit 240 is controlled to provide the following information. In the supervisor terminal 30, the display section 350 displays the voltage of the power supply section 140 and the position of the acoustic sensor 10. This allows the observer to grasp how much power is left in the power supply section 140 and where the acoustic sensor 10 is located.

図14は、表示切り替えオブジェクトB210の選択操作が入力された場合の例を示す図である。表示切り替えオブジェクトB210は、水中音響センサ10に関する情報の表示と非表示との間で切り替えを行うためのオブジェクトである。かかる表示切り替えオブジェクトB210は、データ取得部225によって、地図に対して付加される。 FIG. 14 is a diagram illustrating an example when a selection operation for the display switching object B210 is input. The display switching object B210 is an object for switching between displaying and non-displaying information regarding the underwater acoustic sensor 10. The display switching object B210 is added to the map by the data acquisition unit 225.

図14に示された例では、水中音響センサ10に関する情報の例として、水中音響センサ10のセンサ名D217が地図に付加されている。その他、水中音響センサ10に関する情報の例として、密漁者を検知した音響センサに関する情報D215(密漁者の「検知時刻」、センサを基準とした密漁者の「方位」、密漁者検知範囲の「半径」)、および、密漁船を検知した音響センサに関する情報D216(密漁船の「検知時刻」、センサを基準とした密漁船の「方位」、密漁船検知範囲の「半径」)が地図に付加されている。 In the example shown in FIG. 14, the sensor name D217 of the underwater acoustic sensor 10 is added to the map as an example of information regarding the underwater acoustic sensor 10. Other examples of information related to the underwater acoustic sensor 10 include information D215 related to the acoustic sensor that detected the poacher (“detection time” of the poacher, “direction” of the poacher based on the sensor, “radius” of the poacher detection range). "), and information D216 regarding the acoustic sensor that detected the poaching boat ("detection time" of the poaching boat, "direction" of the poaching boat based on the sensor, and "radius" of the poaching boat detection range) are added to the map. ing.

なお、表示切り替えオブジェクトB210の選択解除が入力された場合には、センサ名D217、密漁者を検知した音響センサに関する情報D215、および、密漁船を検知した音響センサに関する情報D216は、非表示にされてよい。 Note that when a deselection of the display switching object B210 is input, the sensor name D217, the information D215 about the acoustic sensor that detected the poacher, and the information D216 about the acoustic sensor that detected the poaching boat are hidden. It's fine.

図15は、付加情報表示領域W22がスクロールされた場合の例を示す図である。ここでは、監視者によって、付加情報表示領域W22の下方向へのスクロール操作が入力部310に入力された場合を想定する。このとき、付加情報表示領域W22に、「気象情報」および「地図凡例」が含まれるようになっている。 FIG. 15 is a diagram showing an example when the additional information display area W22 is scrolled. Here, it is assumed that the observer inputs a downward scroll operation of the additional information display area W22 into the input unit 310. At this time, the additional information display area W22 includes "weather information" and "map legend".

「地図凡例」には、センサ状態情報に応じたセンサオブジェクトB211の態様の変化に関する説明が記述されている。ここでは、センサ状態情報に応じたセンサオブジェクトB211の形状が変化する場合が示されている。しかし、データ取得部225によるセンサ状態情報に応じたセンサオブジェクトB211の態様の変化のさせ方は、かかる例に限定されない。例えば、センサオブジェクトB211は、センサ状態情報に応じて色が変化してもよい。あるいは、センサ状態情報を示すテキストデータがセンサオブジェクトB211に(例えば、吹き出しとして)付加されてもよい。 The "map legend" describes a change in the aspect of the sensor object B211 according to the sensor state information. Here, a case is shown in which the shape of the sensor object B211 changes depending on the sensor state information. However, the way the data acquisition unit 225 changes the aspect of the sensor object B211 according to the sensor state information is not limited to this example. For example, the sensor object B211 may change color depending on the sensor state information. Alternatively, text data indicating sensor state information may be added to the sensor object B211 (for example, as a speech bubble).

ここで、監視者によって、付加情報表示切り替えボタンB221(図14)の選択操作が入力部310に入力された場合を想定する。このとき、データ取得部225によって付加情報表示領域W22が非表示にされる。これによって、より広範囲に地図が表示されるようになる(地図表示領域W21がより広くなる)。監視者によって、図示しない付加情報表示切り替えボタンの選択操作が入力部310に入力されると、データ取得部225によって付加情報表示領域W22が再度表示されてよい。 Here, it is assumed that the supervisor inputs a selection operation of the additional information display switching button B221 (FIG. 14) into the input unit 310. At this time, the data acquisition unit 225 hides the additional information display area W22. This allows the map to be displayed over a wider area (the map display area W21 becomes wider). When the supervisor inputs a selection operation of an additional information display switching button (not shown) into the input section 310, the additional information display area W22 may be displayed again by the data acquisition section 225.

図16は、付加情報表示切り替えボタンB221の選択操作が入力された場合の例を示す図である。ここでは、監視者によって、付加情報表示切り替えボタンB221の選択操作が入力部310に入力された場合を想定する。このとき、データ取得部224によって付加情報表示領域W22が非表示にされている。これによって、より広範囲に地図が表示されるようになっている(地図表示領域W21がより広くなっている)。なお、図16を参照すると、検知画面G20に付加情報表示切り替えボタンB223が含まれている。監視者によって、付加情報表示切り替えボタンB223の選択操作が入力部310に入力されると、データ取得部224によって付加情報表示領域W22が再度表示されてよい。 FIG. 16 is a diagram showing an example when a selection operation of the additional information display switching button B221 is input. Here, it is assumed that the supervisor inputs a selection operation of the additional information display switching button B221 into the input unit 310. At this time, the additional information display area W22 is hidden by the data acquisition unit 224. This allows the map to be displayed over a wider area (the map display area W21 is wider). Note that, referring to FIG. 16, the detection screen G20 includes an additional information display switching button B223. When the supervisor inputs a selection operation of the additional information display switching button B223 into the input section 310, the additional information display area W22 may be displayed again by the data acquisition section 224.

上述にて、本発明の実施形態に係わる種々の表示態様を説明した。本発明の実施形態に係わる表示態様は検知に関する情報の把握に寄与するものであるが、さらに表示内容を保存できるようにして、検知に関する情報の保全を図れるようにしてもよい。具体的には、監視者端末30における検知画面(図11~図16)の表示に際し、検知画面の一部または全ての内容を画像やPDF(Portable Document Format)として保存できようにしてもよい。この場合、データ提供部22は、検知画面の保存に係わる表示内容保全ボタンを含む検知に関する情報を監視者端末30に与え、監視者端末30において検知画面が表示された状態で、表示内容保全ボタンが操作されることで検知画面の一部または全ての内容を画像やPDFとして保存させる。このように、監視者の保全ニーズに基づき検知画面(図11~図16)の全てまたはいずれかに対し表示内容保全ボタンを配することでできるため、監視者のニーズにあわせて検知に関する情報の保全を図れるようになる。 Various display aspects related to the embodiments of the present invention have been described above. Although the display mode according to the embodiment of the present invention contributes to grasping information regarding detection, it may also be possible to save display contents so as to preserve information regarding detection. Specifically, when displaying the detection screen (FIGS. 11 to 16) on the supervisor terminal 30, part or all of the contents of the detection screen may be saved as an image or a PDF (Portable Document Format). In this case, the data providing unit 22 provides the supervisor terminal 30 with information regarding detection, including a display content preservation button related to saving the detection screen, and presses the display content preservation button while the detection screen is displayed on the supervisor terminal 30. is operated to save part or all of the contents of the detection screen as an image or PDF. In this way, the display content maintenance button can be placed on all or any of the detection screens (Figures 11 to 16) based on the supervisor's maintenance needs, so information related to detection can be adjusted according to the supervisor's needs. You will be able to plan for conservation.

[1-2.システムの動作]
続いて、本発明の実施形態に係る密漁対策IoTシステムの動作例について説明する。図17は、本発明の実施形態に係る密漁対策IoTシステムの動作例を示すフローチャートである。まず、図17に示されたように、水中音響センサ10は、水中に対してセンシングを行うことによってセンサデータを得る。水中音響センサ10は、センサデータをサーバ20に送信する(S11)。
[1-2. System operation]
Next, an example of the operation of the anti-poaching IoT system according to the embodiment of the present invention will be described. FIG. 17 is a flowchart illustrating an example of the operation of the anti-poaching IoT system according to the embodiment of the present invention. First, as shown in FIG. 17, the underwater acoustic sensor 10 obtains sensor data by sensing underwater. The underwater acoustic sensor 10 transmits sensor data to the server 20 (S11).

サーバ20においては、通信部240によってセンサデータが受信される(S21)。対象物検知部222は、センサデータに基づいて検知対象物の検知を試みる。対象物検知部222によって、検知対象物が検知されない場合には(S22において「NO」)、S11に動作が移行される。一方、検知通知部223は、対象物検知部222によって、検知対象物が検知された場合(S22において「YES」)、かつ、判定部222によって検知対象物が密漁船または密漁ダイバーであると判定された場合、地図表示用のURLを取得し(S23)、URLを含んだ検知メールが監視者端末30に送信されるように通信部240を制御する(S24)。 In the server 20, sensor data is received by the communication unit 240 (S21). The target object detection unit 222 attempts to detect a detection target based on sensor data. If the target object is not detected by the target object detection unit 222 ("NO" in S22), the operation proceeds to S11. On the other hand, when the detection target object is detected by the target object detection unit 222 (“YES” in S22), the detection notification unit 223 determines that the detection target object is a poaching boat or a poaching diver. If the map display URL is obtained (S23), the communication unit 240 is controlled so that a detection email containing the URL is sent to the supervisor terminal 30 (S24).

監視者端末30においては、通信部340によって検知メールが受信されると(S31)、表示部350によって検知メールが表示される。監視者によって、検知メールに含まれたURLに対するクリック操作が入力部310に入力されない場合(S32において「NO」)、S11に動作が移行される。一方、監視者によって、検知メールに含まれたURLに対するクリック操作が入力部310に入力された場合(S32において「YES」)、制御部320は、データ送信要求の例として地図表示要求がサーバ20に送信されるように通信部340を制御する(S33)。 In the supervisor terminal 30, when the communication unit 340 receives the detection email (S31), the display unit 350 displays the detection email. If the monitor does not input a click operation on the URL included in the detected email into the input unit 310 ("NO" in S32), the operation moves to S11. On the other hand, if the monitor inputs a click operation on the URL included in the detection email into the input unit 310 (“YES” in S32), the control unit 320 sends a map display request to the server 20 as an example of a data transmission request. The communication unit 340 is controlled so that the information is transmitted to (S33).

サーバ20においては、通信部240によって地図表示要求が受信されると(S25)、要求取得部224は、地図表示要求を取得する。データ取得部225は、URLに対応する地図(および付加情報)を取得すると、取得した地図(および付加情報)が監視者端末30に送信されるように通信部240を制御する(S26)。監視者端末30においては、通信部340によって地図(および付加情報)が受信されると(S34)、表示部350によって地図(および付加情報)が表示される(S35)。S34およびS35は、所定時間ごとに繰り返し実行されてよい。これによって、表示部350によって表示される地図(および付加情報)が所定時間ごとに更新される。 In the server 20, when the map display request is received by the communication unit 240 (S25), the request acquisition unit 224 acquires the map display request. After acquiring the map (and additional information) corresponding to the URL, the data acquisition unit 225 controls the communication unit 240 so that the acquired map (and additional information) is transmitted to the supervisor terminal 30 (S26). In the supervisor terminal 30, when the map (and additional information) is received by the communication unit 340 (S34), the map (and additional information) is displayed on the display unit 350 (S35). S34 and S35 may be repeatedly executed at predetermined time intervals. As a result, the map (and additional information) displayed by the display unit 350 is updated at predetermined intervals.

以上、本発明の実施形態に係る密漁対策IoTシステムの動作例について説明した。 The operation example of the anti-poaching IoT system according to the embodiment of the present invention has been described above.

[2.ハードウェア構成例]
続いて、本発明の実施形態に係るサーバ20のハードウェア構成例について説明する。ただし、本発明の実施形態に係る監視者端末30のハードウェア構成例も同様に実現され得る。
[2. Hardware configuration example]
Next, an example of the hardware configuration of the server 20 according to the embodiment of the present invention will be described. However, the hardware configuration example of the supervisor terminal 30 according to the embodiment of the present invention can be similarly implemented.

以下では、本発明の実施形態に係るサーバ20のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、サーバ20のハードウェア構成の一例に過ぎない。したがって、サーバ20のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。 An example of the hardware configuration of the information processing device 900 will be described below as an example of the hardware configuration of the server 20 according to the embodiment of the present invention. Note that the example hardware configuration of the information processing device 900 described below is only an example of the hardware configuration of the server 20. Therefore, for the hardware configuration of the server 20, unnecessary configurations may be deleted from the hardware configuration of the information processing apparatus 900 described below, or new configurations may be added.

図18は、本発明の実施形態に係るサーバ20の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。 FIG. 18 is a diagram showing a hardware configuration of an information processing device 900 as an example of the server 20 according to the embodiment of the present invention. The information processing device 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, a bridge 905, an external bus 906, and an interface. With 907 , an input device 908, an output device 909, a storage device 910, and a communication device 911.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。 The CPU 901 functions as an arithmetic processing device and a control device, and controls overall operations within the information processing device 900 according to various programs. Further, the CPU 901 may be a microprocessor. The ROM 902 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 903 temporarily stores programs used in the execution of the CPU 901 and parameters that change as appropriate during the execution. These are interconnected by a host bus 904 composed of a CPU bus and the like.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。 The host bus 904 is connected via a bridge 905 to an external bus 906 such as a PCI (Peripheral Component Interconnect/Interface) bus. Note that the host bus 904, bridge 905, and external bus 906 do not necessarily need to be configured separately, and these functions may be implemented in one bus.

入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。 The input device 908 includes input means for the user to input information, such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the user's input and outputs it to the CPU 901. It is composed of etc. By operating the input device 908, a user operating the information processing device 900 can input various data to the information processing device 900 and instruct processing operations.

出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの表示装置およびスピーカなどの音声出力装置を含む。 The output device 909 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, a display device such as a lamp, and an audio output device such as a speaker.

ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。 The storage device 910 is a device for storing data. The storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 910 is configured with, for example, an HDD (Hard Disk Drive). This storage device 910 drives a hard disk and stores programs executed by the CPU 901 and various data.

通信装置911は、例えば、ネットワークに接続するための通信デバイスなどで構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。 The communication device 911 is, for example, a communication interface configured with a communication device for connecting to a network. Further, the communication device 911 may support either wireless communication or wired communication.

以上、本発明の実施形態に係るサーバ20のハードウェア構成例について説明した。 The example hardware configuration of the server 20 according to the embodiment of the present invention has been described above.

[3.まとめ]
以上に説明したように、本発明の実施形態によれば、センサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御する制御部を備える、サーバが提供される。かかる構成によれば、検知対象物を認識しようとする利用者の利便性をさらに向上させることが可能となる。
[3. summary]
As described above, according to the embodiment of the present invention, based on the sensor data received from the sensor, the intensity of the sensor data is analyzed for each frequency of the sensor data and the time at which the sensor data is obtained. A server is provided that includes a control unit that obtains analysis results and controls the analysis results to be provided to a terminal. According to this configuration, it is possible to further improve convenience for a user who wants to recognize a detection target.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea stated in the claims. It is understood that these also naturally fall within the technical scope of the present invention.

上記では、「法を破ってひそかに漁をすること」を意味する文言として「密漁」との文言を用いた。ここで、「密漁」との文言は、魚介類を採取することのみを意味する文言として狭く解されるべきではなく、魚介類以外の生物をも意味する文言として広く解されるべきである。例えば、「密漁」は、水中で生活する哺乳類(例えば、イルカ、あざらしなど)を採取することをも含み得る。すなわち、水中で生活する哺乳類を採取することを意味する文言として「密猟」との文言が一般に用いられることがあるが、本発明の実施形態にて用いられた「密漁」は、水中で生活する哺乳類を採取することを意味する「密猟」を除外するものではない。 In the above, the word ``poaching'' was used to mean ``fishing in secret in violation of the law.'' Here, the word "poaching" should not be interpreted narrowly as meaning only the collection of seafood, but should be broadly interpreted as meaning living things other than seafood. For example, "poaching" can also include taking mammals that live in water (eg, dolphins, seals, etc.). In other words, the word "poaching" is generally used to mean taking mammals that live underwater, but "poaching" used in the embodiment of the present invention refers to taking mammals that live underwater. It does not exclude ``poaching,'' which refers to the taking of mammals.

[4.他の実施形態]
本発明の実施形態は、密輸、密航、不法投棄(例えば、油および廃棄などの投棄)、海底資源不法取得(例えば、原油、天然ガスおよびメタンハイドレードなどの不法取得)、海賊の検知にも適用し得る。また、本発明の実施形態は、サーバ20が水中音響センサ12と異なるセンサのセンシング結果に基づき密漁を検知し得る。
[4. Other embodiments]
Embodiments of the present invention may also be used to detect smuggling, smuggling, illegal dumping (e.g., dumping of oil and waste, etc.), illegal acquisition of seabed resources (e.g., illegal acquisition of crude oil, natural gas, and methane hydrate, etc.), and piracy. applicable. Further, in the embodiment of the present invention, the server 20 can detect poaching based on the sensing result of a sensor different from the underwater acoustic sensor 12.

[4.1.密輸対策に適用した形態]
例えば、本発明の実施形態を密輸対策に適用する場合、本発明の実施形態に係るシステムは「密輸対策IoTシステム」となる。この場合、検知対象物が、密輸船および密輸者などの密輸に用いられる各種対象物となり、密輸が利用者によって監視され得る。密輸船および密輸者が検知対象物とされることによって、「密輸対策IoTシステム」は社会課題を解決しようとするものとなり、より好適に実施され得る。
[4.1. Form applied to anti-smuggling]
For example, when the embodiment of the present invention is applied to anti-smuggling, the system according to the embodiment of the present invention becomes an "anti-smuggling IoT system." In this case, the objects to be detected are various objects used for smuggling, such as smuggling ships and smugglers, and smuggling can be monitored by the user. By treating smuggling ships and smugglers as objects to be detected, the "anti-smuggling IoT system" attempts to solve social issues and can be implemented more appropriately.

本発明の実施形態を密輸対策に適用すると、密輸船および密輸者が活動する可能性がある領域に配したセンサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御する制御部を備える、サーバの提供が可能となる。かかる構成によれば、利用者の利便性をさらに向上させることが可能となる。 When the embodiments of the present invention are applied to anti-smuggling, the intensity of the sensor data is determined based on the sensor data received from sensors placed in areas where smugglers and smugglers may operate. It becomes possible to provide a server that includes a control unit that analyzes sensor data at each time of acquisition to obtain an analysis result, and controls the analysis result to be provided to a terminal. According to this configuration, it is possible to further improve user convenience.

[4.2.密航対策に適用した形態]
例えば、本発明の実施形態を密航対策に適用する場合、本発明の実施形態に係るシステムは「密航対策IoTシステム」となる。この場合、検知対象物が、密航船および密航者などの密航に用いられる各種対象物となり、密航が利用者によって監視され得る。密航船および密航者が検知対象物とされることによって、「密航対策IoTシステム」は社会課題を解決しようとするものとなり、より好適に実施され得る。
[4.2. Form applied to counter-smuggling measures]
For example, when the embodiment of the present invention is applied to stowaway countermeasures, the system according to the embodiment of the present invention becomes a "stowaway countermeasure IoT system." In this case, the objects to be detected are various objects used for stowaways, such as stowaway ships and stowaways, and stowaways can be monitored by the user. By identifying stowaway ships and stowaways as objects to be detected, the "Anti-Stowaway IoT System" attempts to solve social issues and can be implemented more appropriately.

本発明の実施形態を密航対策に適用すると、密航船および密航者が活動する可能性がある領域に配したセンサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御する制御部を備える、サーバの提供が可能となる。かかる構成によれば、利用者の利便性をさらに向上させることが可能となる。 When the embodiment of the present invention is applied to stowaway countermeasures, the intensity of the sensor data is determined based on the sensor data received from sensors placed in areas where stowaway ships and stowaways may be active. It becomes possible to provide a server that includes a control unit that analyzes sensor data at each time of acquisition to obtain an analysis result, and controls the analysis result to be provided to a terminal. According to this configuration, it is possible to further improve user convenience.

[4.3.不法投棄対策に適用した形態]
例えば、本発明の実施形態を不法投棄対策に適用する場合、本発明の実施形態に係るシステムは「不法投棄対策IoTシステム」となる。この場合、検知対象物が、不法投棄船および不法投棄者などの不法投棄に用いられる各種対象物となり、不法投棄が利用者によって監視され得る。不法投棄船および不法投棄者が検知対象物とされることによって、「不法投棄対策IoTシステム」は社会課題を解決しようとするものとなり、より好適に実施され得る。
[4.3. Form applied to prevent illegal dumping]
For example, when the embodiment of the present invention is applied to prevent illegal dumping, the system according to the embodiment of the present invention becomes an "Illegal dumping countermeasure IoT system." In this case, the objects to be detected are various objects used for illegal dumping, such as illegal dumping boats and illegal dumpers, and illegal dumping can be monitored by users. By identifying illegal dumping vessels and illegal dumpers as objects to be detected, the ``Illegal Dumping Countermeasure IoT System'' attempts to solve social issues and can be implemented more appropriately.

本発明の実施形態を不法投棄対策に適用すると、不法投棄船および不法投棄者が活動する可能性がある領域に配したセンサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御する制御部を備える、サーバの提供が可能となる。かかる構成によれば、利用者の利便性をさらに向上させることが可能となる。 When the embodiment of the present invention is applied to illegal dumping measures, the intensity of the sensor data is determined based on sensor data received from sensors placed in areas where illegal dumping vessels and illegal dumpers may be active. It is possible to provide a server that includes a control unit that analyzes the frequency and the time at which the sensor data is obtained, obtains the analysis results, and controls the analysis results to be provided to the terminal. According to this configuration, it is possible to further improve user convenience.

[4.4.海底資源不法取得対策に適用した形態]
例えば、本発明の実施形態を海底資源不法取得対策に適用する場合、本発明の実施形態に係るシステムは「海底資源不法取得対策IoTシステム」となる。この場合、検知対象物が、海底資源不法取得船(例えば、掘削船など)および海底資源不法取得者などの海底資源不法取得に用いられる各種対象物となり、海底資源不法取得が利用者によって監視され得る。海底資源不法取得船および海底資源不法取得者が検知対象物とされることによって、「海底資源不法取得対策IoTシステム」は社会課題を解決しようとするものとなり、より好適に実施され得る。
[4.4. Form applied to measures against illegal acquisition of seabed resources]
For example, when the embodiment of the present invention is applied to countermeasures against illegal acquisition of seabed resources, the system according to the embodiment of the present invention becomes an "IoT system for countermeasures against illegal acquisition of seabed resources." In this case, the objects to be detected are various objects used for illegal acquisition of seabed resources, such as ships (such as drilling ships) and people who illegally acquire seabed resources, and the illegal acquisition of seabed resources is monitored by users. obtain. By identifying vessels that illegally acquire seabed resources and people who illegally acquire seabed resources as objects of detection, the "IoT system for countering illegal acquisition of seabed resources" will be an attempt to solve social issues and can be implemented more appropriately.

本発明の実施形態を海底資源不法取得対策に適用すると、海底資源不法取得船および海底資源不法取得者が活動する可能性がある領域に配したセンサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御する制御部を備える、サーバの提供が可能となる。かかる構成によれば、利用者の利便性をさらに向上させることが可能となる。 When the embodiment of the present invention is applied to countermeasures against illegal acquisition of seabed resources, based on sensor data received from sensors placed in areas where illegal seabed resource acquisition ships and seabed resource illegal acquirers may operate, the sensor data is It is possible to provide a server that includes a control unit that analyzes the intensity of the sensor data according to the frequency of the sensor data and the time at which the sensor data is obtained, obtains the analysis results, and controls the analysis results to be provided to the terminal. Become. According to this configuration, it is possible to further improve user convenience.

[4.5.海賊対策に適用した形態]
例えば、本発明の実施形態を海賊対策に適用する場合、本発明の実施形態に係るシステムは「海賊対策IoTシステム」となる。この場合、検知対象物が、海賊船および海賊などの海賊行為に用いられる各種対象物となり、海賊行為が利用者によって監視され得る。海賊船および海賊が検知対象物とされることによって、「海賊対策IoTシステム」は社会課題を解決しようとするものとなり、より好適に実施され得る。
[4.5. Form applied to anti-piracy measures]
For example, when the embodiment of the present invention is applied to anti-piracy measures, the system according to the embodiments of the present invention becomes an "anti-piracy IoT system." In this case, the objects to be detected are various objects used in acts of piracy, such as pirate ships and pirates, and the acts of piracy can be monitored by the user. By treating pirate ships and pirates as objects to be detected, the "anti-piracy IoT system" attempts to solve social issues and can be implemented more appropriately.

本発明の実施形態を海賊対策に適用すると、海賊船および海賊が活動する可能性がある領域に配したセンサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御する制御部を備える、サーバの提供が可能となる。かかる構成によれば、利用者の利便性をさらに向上させることが可能となる。 When the embodiment of the present invention is applied to anti-piracy measures, the intensity of the sensor data is determined based on the frequency of the sensor data and the sensor data received from the sensors placed on the pirate ship and the area where pirates may be active. It is possible to provide a server that includes a control unit that performs analysis at each time when data is obtained, obtains analysis results, and controls the analysis results to be provided to a terminal. According to this configuration, it is possible to further improve user convenience.

[4.6.テロ行為防止対策に適用した形態]
例えば、本発明の実施形態をテロ行為防止対策(例えば、沿岸重要施設(原子力発電所など)へのテロ行為防止対策)に適用する場合、本発明の実施形態に係るシステムは「テロ行為防止対策IoTシステム」となる。この場合、管理物が、あらかじめ登録されている沿岸を巡視する正規船となり、正規船に搭載される搭載端末の位置情報と検知対象物の位置情報とに基づいて、検知対象物が不審船または不審ダイバーであるか否かが判定され得る。
[4.6. Form applied to preventive measures against terrorist acts]
For example, when the embodiment of the present invention is applied to countermeasures to prevent terrorist acts (for example, countermeasures to prevent terrorist acts to important coastal facilities (such as nuclear power plants)), the system according to the embodiment of the present invention is IoT system”. In this case, the managed object is a registered ship that patrols the coast, and based on the location information of the terminal installed on the regular ship and the position information of the object to be detected, the object to be detected is a suspicious ship or It can be determined whether the diver is a suspicious diver.

[4.7.他のセンサを適用した形態]
本発明の実施形態は、サーバ20が水中音響センサ12のセンシング結果に基づき密漁を検知するものであった。ここで、本発明の実施形態は、サーバ20が水中音響センサ12と異なるセンサのセンシング結果に基づき密漁を検知するものであってもよい。つまり、音以外の情報に基づいて検知対象物が検知されてもよい。この場合、センサとして水中音響センサ12が用いられる場合と同様に、センサデータから検知対象物の特徴が検出されることによって、検知対象物が検知され得る。
[4.7. Forms using other sensors]
In the embodiment of the present invention, the server 20 detects poaching based on the sensing results of the underwater acoustic sensor 12. Here, in the embodiment of the present invention, the server 20 may detect poaching based on the sensing result of a sensor different from the underwater acoustic sensor 12. In other words, the object to be detected may be detected based on information other than sound. In this case, as in the case where the underwater acoustic sensor 12 is used as a sensor, the object can be detected by detecting the characteristics of the object from the sensor data.

例えば、サーバ20が、アクティブソーナー、レーダ、レーザーセンサおよびイメージセンサなどのセンシング結果に基づき密漁を検知してもよい。 For example, the server 20 may detect poaching based on sensing results from an active sonar, radar, laser sensor, image sensor, or the like.

[4.7.1.アクティブソーナーを適用した形態]
サーバ20が、アクティブソーナーのセンシング結果に基づき密漁を検知する場合、密漁対策IoTシステム1はアクティブソーナー(図示省略)を含み、アクティブソーナーの検出結果に基づき密漁を検知する。この場合、アクティブソーナーは、水中に音波を放射する音波送信部と、複数のマイクロフォンで検知対象物からの反射音を受信する音波反射波受信部を有し、かかるセンシングによって得るセンサデータ(音響データ、音波送信時間、音波反射波受信時間)とセンサ状態情報とを無線通信によってサーバ20に送信する。サーバ20は、受信した放射音と反射音との時間差や音響データから得られる反射音の検出方位から、検知対象物の位置や距離を検出する。そして、サーバ20は、検出結果を用いて上記の本実施形態同様に検知対象物を検知する。なお、水中に音波を放射して検知対象物からの反射音を捉えるアクティブソーナーに対し、上記の本実施形態は水中(水面含む)に存在する検知対象物(例えば船やダイバーなど)が発生する音波を捉えるパッシブソーナーである。
[4.7.1. Form that applies active sonar]
When the server 20 detects poaching based on the sensing result of an active sonar, the anti-poaching IoT system 1 includes an active sonar (not shown) and detects poaching based on the detection result of the active sonar. In this case, the active sonar has a sound wave transmitter that emits sound waves into the water, and a sound wave reflected wave receiver that receives the reflected sound from the detection target using multiple microphones, and sensor data (acoustic data) obtained by such sensing. , sound wave transmission time, sound wave reflected wave reception time) and sensor status information are transmitted to the server 20 by wireless communication. The server 20 detects the position and distance of the object to be detected from the time difference between the received radiated sound and the reflected sound and the detection direction of the reflected sound obtained from the acoustic data. Then, the server 20 uses the detection results to detect the detection target in the same manner as in the present embodiment described above. Note that in contrast to active sonar that emits sound waves underwater and captures the reflected sound from objects to be detected, this embodiment described above uses a sensor that detects objects (such as ships and divers) that exist underwater (including the water surface). It is a passive sonar that captures sound waves.

[4.7.2.レーダを適用した形態]
サーバ20が、レーダのセンシング結果に基づき密漁を検知する場合、密漁対策IoTシステム1はレーダ(図示省略)を含み、レーダの検出結果に基づき密漁を検知する。この場合、レーダは、センシング可能な位置に配されるように設置され(例えば、監視領域の沿岸等の陸上に設置され)、レーダアンテナを介して検出範囲内にミリ波またはマイクロ波などの電波を探査波として送信する電波送信部と、検知対象物からの反射波を受信する電波反射波受信部とを有し、かかるセンシングによって得る検出データ(レーダデータ、電波送信時間、電波反射波受信時間)とセンサ状態情報とを無線通信、または有線通信によってサーバ20に送信する。サーバ20は、受信した探査波と反射波との時間差やレーダデータから得られる反射波の検出方位から、検知対象物の位置や距離を検出する。そして、サーバ20は、検出結果を用いて上記の本実施形態同様に検知対象物を検知する。
[4.7.2. Form where radar is applied]
When the server 20 detects poaching based on the radar sensing results, the anti-poaching IoT system 1 includes a radar (not shown) and detects poaching based on the radar detection results. In this case, the radar is installed so that it can be sensed (for example, installed on land such as the coast of the monitoring area), and radio waves such as millimeter waves or microwaves are transmitted within the detection range via the radar antenna. It has a radio wave transmitting section that transmits a search wave as a probe wave, and a radio wave reflected wave receiving section that receives a reflected wave from a detection target object. ) and sensor status information to the server 20 by wireless or wired communication. The server 20 detects the position and distance of the object to be detected from the time difference between the received exploration wave and the reflected wave and the detection direction of the reflected wave obtained from radar data. Then, the server 20 uses the detection results to detect the detection target in the same manner as in the present embodiment described above.

[4.7.3.レーザーセンサを適用した形態]
サーバ20が、レーザーセンサ(LRF(Laser rangefinder)やLIDAR(Light Detection and Ranging))のセンシング結果に基づき密漁を検知する場合、密漁対策IoTシステム1はレーザーセンサ(図示省略)を含み、レーザーセンサの検出結果に基づき密漁を検知する。この場合、レーザーセンサは、センシング可能な位置に配されるように設置され(例えば、監視領域の沿岸等の陸上に設置され)、可視光や紫外線やX線や赤外線などのレーザー光を送信するレーザー光送信部と、検知対象物からの反射光を受信するレーザー反射光受信部とを有し、かかるセンシングによって得る検出データ(レーザーデータ、レーザー光送信時間、レーザー反射光受信時間)とセンサ状態情報とを無線通信、または有線通信によってサーバ20に送信する。サーバ20は、受信したレーザー光とレーザー反射光との時間差やレーザーデータから得られるレーザー反射波の移動方位から、検知対象物の位置や距離を検出する。そして、サーバ20は、検出結果を用いて上記の本実施形態同様に検知対象物を検知する。
[4.7.3. Form using a laser sensor]
When the server 20 detects poaching based on the sensing results of a laser sensor (LRF (Laser rangefinder) or LIDAR (Light Detection and Ranging)), the anti-poaching IoT system 1 includes a laser sensor (not shown), Poaching is detected based on the detection results. In this case, the laser sensor is installed in a position where sensing is possible (for example, installed on land such as the coast of the monitoring area), and transmits laser light such as visible light, ultraviolet light, X-rays, and infrared light. It has a laser beam transmitter and a laser reflected light receiver that receives the reflected light from the detection target, and detects the detection data (laser data, laser beam transmission time, laser reflected light reception time) obtained by such sensing and the sensor state. The information is transmitted to the server 20 by wireless communication or wired communication. The server 20 detects the position and distance of the object to be detected based on the time difference between the received laser light and the laser reflected light and the moving direction of the laser reflected wave obtained from the laser data. Then, the server 20 uses the detection results to detect the detection target in the same manner as in the present embodiment described above.

[4.7.4.イメージセンサを適用した形態]
サーバ20が、イメージセンサ(以下、カメラとする)のセンシング結果に基づき密漁を検知する場合、密漁対策IoTシステム1はカメラ(図示省略)を含み、カメラの検出結果に基づき密漁を検知する。この場合、カメラは、センシング可能な位置に配されるように設置され(例えば、監視領域の沿岸等の陸上に設置され)、かかるセンシングによって得る撮像データ(撮像画像)とセンサ状態情報とを無線通信、または有線通信によってサーバ20に送信する。サーバ20は、予め記憶された検知対象物の画像情報とのパターンマッチングなどによって検知対象物を検知する。サーバ20は、操業時間以外にカメラより受信した撮像データより検知対象物を検知した場合に、密漁船または密漁者と判定してもよい。なお、撮像データは、動画像または静止画像であってもよい。
[4.7.4. Form where image sensor is applied]
When the server 20 detects poaching based on the sensing result of an image sensor (hereinafter referred to as a camera), the anti-poaching IoT system 1 includes a camera (not shown) and detects poaching based on the detection result of the camera. In this case, the camera is installed at a position where sensing is possible (for example, installed on land such as the coast of the monitoring area), and the captured data (captured image) obtained through such sensing and sensor status information are transmitted wirelessly. The information is transmitted to the server 20 via communication or wired communication. The server 20 detects the detection target by pattern matching with pre-stored image information of the detection target. The server 20 may determine that the object is a poaching boat or a poacher if the object is detected from the image data received from the camera outside of operating hours. Note that the imaging data may be a moving image or a still image.

カメラが単一カメラの場合、サーバ20には、予め対応付けられた、カメラ設置位置から所定距離毎(例えば1m毎)の検知対象物である船またはダイバーの複数の画像情報と各距離情報とが記憶されている。サーバ20は、カメラから取得した撮像画像に対しパターンマッチングなどによって検知対象物の距離や位置を検出する。また、サーバ20に予め記憶される情報として、検知対象物である船またはダイバーと共に撮像される距離マーカの複数の画像情報であってもよい。 If the camera is a single camera, the server 20 stores a plurality of image information of a ship or a diver as a detection target at predetermined distances (for example, every 1 m) from the camera installation position and each distance information, which are associated in advance. is memorized. The server 20 detects the distance and position of the object to be detected using pattern matching or the like with respect to the captured image obtained from the camera. Further, the information stored in advance in the server 20 may be information on a plurality of images of distance markers that are imaged together with a ship or a diver that is a detection target.

カメラが複数カメラの場合、サーバ20は、複数台のカメラの光軸(例えば、2台のカメラの光軸)を平行にして検知対象物を画像処理し、各々の映像の重ね合わせで、そのシフト量から三角測量の原理で検知対象物の座標を計測して位置を特定してもよい。また、サーバ20は、複数台のカメラからそれぞれ得る撮像データをパターンマッチングにより検知対象物を検知し、中心座標を求めて各々のカメラの方向角から三角測量で検知対象物の座標位置を検出して位置を特定してもよい。 In the case of multiple cameras, the server 20 processes the image of the object to be detected by making the optical axes of the multiple cameras (for example, the optical axes of two cameras) parallel, and superimposes the images of each to detect the object. The position may be determined by measuring the coordinates of the object to be detected using the principle of triangulation from the shift amount. Further, the server 20 detects the object to be detected by pattern matching the imaging data obtained from each of the plurality of cameras, calculates the center coordinates, and detects the coordinate position of the object to be detected by triangulation from the direction angle of each camera. The location may also be specified by

さらに、カメラは、動画像または静止画像を撮像する際、第1モード、第2モードまたは第3モードで撮像してもよい。ここで、第1モードは、一般的なカラー撮影であってよい。また、第2モードは赤外線に感度をもたせた赤外線撮影であってよい。また、第3モードは赤外線に基づき温度分布の可視化を行うサーモグラフィ撮影であってよい。この場合、カメラは、第1モードに対応する第1撮像手段、第2モードに対応する第2撮像手段、第3モードに対応する第3撮像手段、及びいずれの撮像手段を適用するかを決める撮像手段切り替え手段を有する。 Furthermore, when capturing a moving image or a still image, the camera may capture the image in a first mode, a second mode, or a third mode. Here, the first mode may be general color photography. Further, the second mode may be infrared photography that is sensitive to infrared rays. Further, the third mode may be thermographic imaging that visualizes temperature distribution based on infrared rays. In this case, the camera determines which imaging means to apply, including a first imaging means corresponding to the first mode, a second imaging means corresponding to the second mode, and a third imaging means corresponding to the third mode. It has an imaging means switching means.

具体的には、カメラの起動時に第1撮像手段が適用されている場合、撮像手段切り替え手段が、適用する撮像手段を、第1撮像手段から第2撮像手段へと切り替えてもよい。また、撮像手段切り替え手段は、第1撮像手段を単独で適用する状態から、第2撮像手段と第3撮像手段を同時に適用する状態へと切り替え制御を行ってもよい。ここで、撮像手段切り替え手段は、所定間隔(例えば10秒や8時間など)で撮像手段切り替えを制御してもよいし、サーバ20などの外部装置からの指示に基づいて撮像手段切り替えを制御してもよい。サーバ20からの指示は、例えば、2020年3月31日の18時に、適用する撮像手段を第1撮像手段から第2撮像手段に切り替えさせる指示命令であってもよい。また、例えば、サーバ20以外の外部装置に備えられる昼夜検知器(遮光センサ)が周辺の光の強度に基づいて昼か夜かを検知し、当該検出情報をサーバ20に通知してもよい。この場合、カメラの撮像手段切り替え手段は、受信した上記の検出情報に基づいて、適用する撮像手段を第1撮像手段から第2撮像手段へと切り替えてもよい。さらに、撮像手段切り替え手段は、カメラが撮像した検知対象物の画像情報に係る分析結果に基づいて、適用する撮像手段の切り替え制御を行ってもよい。すなわち、撮像手段切り替え手段は、画像分析により判定された密漁船または密漁者のいずれかに基づいて、適用する撮像手段の切り替えを制御することもできる。なお、カメラの構成は、周辺の環境に応じて適宜変更され得る。なお、上述の第1モード、第2モード、第3モードに限らず、カメラはその他のモードに切り替えてもよい。 Specifically, when the first imaging means is applied when the camera is started, the imaging means switching means may switch the applied imaging means from the first imaging means to the second imaging means. Further, the imaging means switching means may perform switching control from a state where the first imaging means is applied alone to a state where the second imaging means and the third imaging means are applied simultaneously. Here, the imaging means switching means may control switching of the imaging means at predetermined intervals (for example, 10 seconds or 8 hours, etc.) or may control switching of the imaging means based on an instruction from an external device such as the server 20. It's okay. The instruction from the server 20 may be, for example, an instruction to switch the applied imaging means from the first imaging means to the second imaging means at 18:00 on March 31, 2020. Further, for example, a day/night detector (shading sensor) provided in an external device other than the server 20 may detect whether it is day or night based on the intensity of surrounding light, and may notify the server 20 of the detected information. In this case, the imaging means switching means of the camera may switch the applied imaging means from the first imaging means to the second imaging means based on the above-mentioned received detection information. Further, the imaging means switching means may perform switching control of the applied imaging means based on an analysis result related to image information of the detection target imaged by the camera. That is, the imaging means switching means can also control switching of the applied imaging means based on either the poaching vessel or the poaching person determined by image analysis. Note that the configuration of the camera may be changed as appropriate depending on the surrounding environment. Note that the camera is not limited to the first mode, second mode, and third mode described above, and may switch to other modes.

[4.7.5.センサ切り替えを適用した形態]
また、密漁対策IoTシステム1は、本実施形態に係る水中音響センサ12に加えて、上記に例示したアクティブソーナー、レーダ、レーザーセンサ、イメージセンサを備えてよく、各センサもしくはサーバ20は、いずれのセンサを適用するかを決めるセンサ切り替え手段を有し、当該センサ切り替え手段により、水中音響センサ12、アクティブソーナー、レーダ、レーザーセンサ、イメージセンサなどの間で適用するセンサを切り替えることができる。具体的には、センサの起動時に水中音響センサ12が適用されている場合、センサ切り替え手段が、適用するセンサを、水中音響センサ12からイメージセンサへと切り替えてもよい。また、センサ切り替え手段は、水中音響センサ12を単独で適用するモードから、水中音響センサ12とイメージセンサを同時に適用するモードへと切り替え制御を行ってもよい。ここで、センサ切り替え手段は、所定間隔(例えば10秒や8時間など)でセンサの切り替えを制御してもよいし、サーバ20からの指示に基づいてセンサ切り替えを制御してもよい。サーバ20からの指示は、例えば、2020年3月31日の9時に、適用するセンサを水中音響センサ12からイメージセンサに切り替えさせる指示命令であってもよい。
[4.7.5. Form where sensor switching is applied]
In addition to the underwater acoustic sensor 12 according to the present embodiment, the anti-poaching IoT system 1 may include the active sonar, radar, laser sensor, and image sensor exemplified above, and each sensor or server 20 may be It has a sensor switching means for deciding which sensor to apply, and the sensor switching means can switch the sensor to be applied among the underwater acoustic sensor 12, active sonar, radar, laser sensor, image sensor, etc. Specifically, when the underwater acoustic sensor 12 is applied when the sensor is activated, the sensor switching means may switch the applied sensor from the underwater acoustic sensor 12 to the image sensor. Further, the sensor switching means may perform switching control from a mode in which the underwater acoustic sensor 12 is applied alone to a mode in which the underwater acoustic sensor 12 and the image sensor are applied simultaneously. Here, the sensor switching means may control sensor switching at predetermined intervals (for example, 10 seconds or 8 hours, etc.) or may control sensor switching based on instructions from the server 20. The instruction from the server 20 may be, for example, an instruction to switch the applied sensor from the underwater acoustic sensor 12 to the image sensor at 9:00 on March 31, 2020.

以上説明したように他のセンサを適用した形態によれば、利用者の利便性をさらに向上させることが可能となり、検知対象物として誤検知されることが抑制され得る。 As explained above, according to the embodiment in which other sensors are applied, it becomes possible to further improve the convenience for the user, and it is possible to suppress false detection as a detection target object.

1 密漁対策IoTシステム
10、12 水中音響センサ
110 アンテナ部
121 サーチライト
122 停泊灯部
123 太陽電池
130 センシング部
140 電源部
150 係留部
160 錘部
170 送信ブイ部
181 錘
182 フロート
20 サーバ
220 制御部
221 分析部
222 対象物検知部
223 検知通知部
224 要求取得部
225 データ取得部
226 データ提供部
230 記憶部
231 センサ情報
232 通知先情報
240 通信部
30 監視者端末
310 入力部
320 制御部
330 記憶部
340 通信部
350 表示部
1 Anti-poaching IoT system 10, 12 Underwater acoustic sensor 110 Antenna section 121 Searchlight 122 Berthing light section 123 Solar cell 130 Sensing section 140 Power supply section 150 Mooring section 160 Weight section 170 Transmission buoy section 181 Weight 182 Float 20 Server 220 Control section 22 1 Analysis section 222 Object detection section 223 Detection notification section 224 Request acquisition section 225 Data acquisition section 226 Data provision section 230 Storage section 231 Sensor information 232 Notification destination information 240 Communication section 30 Supervisor terminal 310 Input section 320 Control section 330 Storage section 340 Communication section 350 Display section

Claims (20)

センサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御する制御部を備える、
サーバ。
Based on the sensor data received from the sensor, the intensity of the sensor data is analyzed for each frequency of the sensor data and the time at which the sensor data was obtained to obtain an analysis result, and the analysis result is provided to the terminal. comprising a control unit for controlling the
server.
前記制御部は、前記センサデータに基づいて、前記センサデータの強度が第1の閾値より大きいか否かを前記周波数および前記時刻ごとに判定し、判定して得られた結果を前記分析結果として得る、
請求項1に記載のサーバ。
The control unit determines whether the intensity of the sensor data is greater than a first threshold value for each frequency and time based on the sensor data, and determines the result obtained by the determination as the analysis result. obtain,
The server according to claim 1.
前記制御部は、前記センサデータに基づいて、前記センサデータの強度が前記第1の閾値より大きい第1の周波数帯域を検出し、前記第1の周波数帯域が第1の帯域よりも広いことに基づいて、第1の検知対象物を検知する、
請求項2に記載のサーバ。
The control unit detects, based on the sensor data, a first frequency band in which the intensity of the sensor data is greater than the first threshold, and the first frequency band is wider than the first band. detecting a first detection target based on the
The server according to claim 2.
前記制御部は、前記センサデータに基づいて、前記センサデータの強度が前記第1の閾値より大きい周波数が存在する第1の時刻を検出し、前記第1の時刻から所定の時間後の第2の時刻におけるセンサデータの強度が前記第1の閾値より大きい周波数帯域を前記第1の周波数帯域として検出する、
請求項3に記載のサーバ。
The control unit detects, based on the sensor data, a first time at which there is a frequency where the intensity of the sensor data is greater than the first threshold, and detects a second time after a predetermined time from the first time. detecting as the first frequency band a frequency band in which the intensity of the sensor data at the time is greater than the first threshold;
The server according to claim 3.
前記制御部は、前記第1の検知対象物を検知したことに基づいて、前記端末に対して検知に係る情報に対応する識別情報を与えるよう制御する、
請求項3または4に記載のサーバ。
The control unit controls the terminal to provide identification information corresponding to information related to detection based on the detection of the first detection target.
The server according to claim 3 or 4.
前記第1の検知対象物は、船である、
請求項3~5のいずれか一項に記載のサーバ。
the first detection target is a ship;
The server according to any one of claims 3 to 5.
前記制御部は、あらかじめ機械学習により生成されたモデルと、前記分析結果とに基づいて、第2の検知対象物を検知する、
請求項1に記載のサーバ。
The control unit detects a second detection target based on a model generated in advance by machine learning and the analysis result.
The server according to claim 1.
前記制御部は、前記モデルと前記分析結果とに基づいて出力される前記第2の検知対象物の検知確率が所定の確率よりも大きいことに基づいて、前記第2の検知対象物を検知する、
請求項7に記載のサーバ。
The control unit detects the second detection target based on a detection probability of the second detection target output based on the model and the analysis result being greater than a predetermined probability. ,
The server according to claim 7.
前記制御部は、前記第2の検知対象物を検知したことに基づいて、前記端末に対して検知に係る情報に対応する識別情報を与えるよう制御する、
請求項7または8に記載のサーバ。
The control unit controls the terminal to provide identification information corresponding to information related to detection based on the detection of the second detection target.
The server according to claim 7 or 8.
前記第2の検知対象物は、ダイバーである、
請求項7~9のいずれか一項に記載のサーバ。
the second detection target is a diver;
The server according to any one of claims 7 to 9.
前記制御部は、前記センサデータに基づいて、前記センサデータの強度が第2の閾値より大きい第2の周波数帯域を検出し、前記第2の周波数帯域が第2の帯域よりも広いことに基づいて、前記第2の検知対象物の検知を取り消す、
請求項7~10のいずれか一項に記載のサーバ。
The control unit detects a second frequency band in which the intensity of the sensor data is higher than a second threshold based on the sensor data, and detects a second frequency band based on the fact that the second frequency band is wider than the second band. canceling the detection of the second detection target;
The server according to any one of claims 7 to 10.
前記制御部は、前記センサデータに基づいて、前記センサデータの強度が第2の閾値より大きい時間を検出し、前記時間が所定の時間よりも短いことに基づいて、前記第2の検知対象物の検知を取り消す、
請求項7~10のいずれか一項に記載のサーバ。
The control unit detects a time when the intensity of the sensor data is greater than a second threshold based on the sensor data, and detects the second detection target based on the time being shorter than a predetermined time. cancel the detection of
The server according to any one of claims 7 to 10.
前記制御部は、前記識別情報を受けた前記端末から前記識別情報に基づく送信要求を受けたことに基づいて、前記検知に係る情報を前記端末に対して与えるよう制御する、
請求項5または9に記載のサーバ。
The control unit controls to provide information related to the detection to the terminal based on receiving a transmission request based on the identification information from the terminal that has received the identification information.
The server according to claim 5 or 9.
前記検知に係る情報は、前記センサの位置に応じた地図を含む、
請求項13に記載のサーバ。
The information related to the detection includes a map according to the position of the sensor,
The server according to claim 13.
前記制御部は、前記端末から前記分析結果の送信要求を受けたことに基づいて、前記分析結果を前記端末に対して与えるよう制御する、
請求項1~14のいずれか一項に記載のサーバ。
The control unit controls to provide the analysis result to the terminal based on receiving a request to send the analysis result from the terminal.
The server according to any one of claims 1 to 14.
前記制御部は、前記端末から前記分析結果の送信要求を受けたことに基づいて、前記分析結果と、前記センサの位置に応じた、気圧、水温および風力の少なくともいずれか一つとを、前記端末に対して与えるよう制御する、
請求項15に記載のサーバ。
The control unit transmits the analysis result and at least one of air pressure, water temperature, and wind power to the terminal, based on receiving a request to send the analysis result from the terminal. control to give to
The server according to claim 15.
前記センサは、音響センサであり、
前記センサデータは、前記音響センサによって得られた音である、
請求項1~16のいずれか一項に記載のサーバ。
The sensor is an acoustic sensor,
the sensor data is sound obtained by the acoustic sensor;
A server according to any one of claims 1 to 16.
前記センサデータは、前記センサが備えるセンサ部によって検出され、
前記センサ部は、水中に存在する、
請求項1~17のいずれか一項に記載のサーバ。
The sensor data is detected by a sensor section included in the sensor,
The sensor unit is present in water.
A server according to any one of claims 1 to 17.
センサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御することを含む、
処理方法。
Based on the sensor data received from the sensor, the intensity of the sensor data is analyzed for each frequency of the sensor data and the time at which the sensor data was obtained to obtain an analysis result, and the analysis result is provided to the terminal. including controlling
Processing method.
コンピュータに、
センサから受けるセンサデータに基づいて、前記センサデータの強度を前記センサデータの周波数および前記センサデータが得られた時刻ごとに分析して分析結果を得て、前記分析結果を端末に対して与えるよう制御することを実行させるためのプログラム。

to the computer,
Based on the sensor data received from the sensor, the intensity of the sensor data is analyzed for each frequency of the sensor data and the time at which the sensor data was obtained to obtain an analysis result, and the analysis result is provided to the terminal. A program for executing controlled things.

JP2022058708A 2022-03-31 2022-03-31 Server, processing method, and program Pending JP2023149905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022058708A JP2023149905A (en) 2022-03-31 2022-03-31 Server, processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022058708A JP2023149905A (en) 2022-03-31 2022-03-31 Server, processing method, and program

Publications (1)

Publication Number Publication Date
JP2023149905A true JP2023149905A (en) 2023-10-16

Family

ID=88326613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022058708A Pending JP2023149905A (en) 2022-03-31 2022-03-31 Server, processing method, and program

Country Status (1)

Country Link
JP (1) JP2023149905A (en)

Similar Documents

Publication Publication Date Title
Verfuss et al. Comparing methods suitable for monitoring marine mammals in low visibility conditions during seismic surveys
JP5241720B2 (en) Steering and safety systems for vehicles or equipment
KR101378071B1 (en) Farms and artificial fish bank anti-thief monitoring system and method
US11390360B2 (en) Detection of derelict fishing gear
KR101288953B1 (en) Black box system for leisure vessel
Zitterbart et al. Automatic round-the-clock detection of whales for mitigation from underwater noise impacts
KR20140099386A (en) Mobile terminal and electronic navigational chart server and method for updating electronic navigational chart based on crowdsourcing thereof
JP6783006B1 (en) Communication terminals, programs and methods
KR20170091466A (en) Smart fishing float
US20220398448A1 (en) Systems, methods, and computer readable media for vessel rendezvous detection and prediction
CN104221070B (en) Electronic chart information display device and electronic chart method for information display
CN113711287A (en) Ship intersection detection
CN105894860A (en) Offshore facility warning system
Smith et al. A field comparison of marine mammal detections via visual, acoustic, and infrared (IR) imaging methods offshore Atlantic Canada
US20230258494A1 (en) Protection monitoring system for long infrastructure element, protection monitoring device, protection monitoring method, and storage medium for storing protection monitoring program
JP7494529B2 (en) Information processing device, information processing method, program, and system
JP2023149905A (en) Server, processing method, and program
JP2021173673A (en) Sensor structure
JP7396121B2 (en) Servers, processing methods, programs and systems
JP2022129813A (en) Buoyancy body structure
JP7484221B2 (en) Server, processing method, program and system
WO2022059322A1 (en) Water area monitoring device, water area monitoring system, water area monitoring method, and recording medium
JP7513106B2 (en) Water area monitoring device and water area monitoring method
Verfuss et al. Low Visibility Real-Time Monitoring Techniques Review
Balakrishnan Nair et al. Advances in Ocean State Forecasting and Marine Fishery Advisory Services for the Indian Ocean Region