JP7109969B2 - Judgment system, judgment method and unmanned aerial vehicle - Google Patents

Judgment system, judgment method and unmanned aerial vehicle Download PDF

Info

Publication number
JP7109969B2
JP7109969B2 JP2018073447A JP2018073447A JP7109969B2 JP 7109969 B2 JP7109969 B2 JP 7109969B2 JP 2018073447 A JP2018073447 A JP 2018073447A JP 2018073447 A JP2018073447 A JP 2018073447A JP 7109969 B2 JP7109969 B2 JP 7109969B2
Authority
JP
Japan
Prior art keywords
unmanned aerial
aerial vehicle
unit
image data
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018073447A
Other languages
Japanese (ja)
Other versions
JP2019184345A (en
Inventor
雄 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2018073447A priority Critical patent/JP7109969B2/en
Publication of JP2019184345A publication Critical patent/JP2019184345A/en
Application granted granted Critical
Publication of JP7109969B2 publication Critical patent/JP7109969B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Alarm Systems (AREA)

Description

本発明の実施形態は、判定システム、判定方法及び無人航空機に関する。 Embodiments of the present invention relate to determination systems, determination methods, and unmanned aerial vehicles .

浄水場等の機場では、採水地の異常を検出するために定期的に採水地に赴いたり、採水地で採水された原水を顕微鏡等で分析したりすることで水質事故を予防していた。しかし、遠方にある採水地も多く、原水の採水から分析までに長い時間がかかる場合も多くあった。このような状況下では、浄水場等の機場のオペレータは、水質の異常に対して適切な処置を決定するために十分な時間を確保することができず、水質事故の予防が難しい場合があった。 At water treatment plants and other pumping stations, water quality accidents are prevented by periodically visiting water sampling sites to detect abnormalities and analyzing raw water sampled at water sampling sites with a microscope. Was. However, many of the water sampling sites are located far away, and it often takes a long time from the sampling of raw water to analysis. Under such circumstances, operators of pump stations such as water treatment plants cannot secure sufficient time to decide on appropriate measures to deal with abnormal water quality, and it is sometimes difficult to prevent water quality accidents. rice field.

特開平10-337146号公報JP-A-10-337146 特開2016-209801号公報JP 2016-209801 A

本発明が解決しようとする課題は、より短い時間で水質の異常を検出することができる判定システム、判定方法及び無人航空機を提供することである。 The problem to be solved by the present invention is to provide a determination system, a determination method, and an unmanned aerial vehicle that can detect water quality anomalies in a shorter period of time.

実施形態の判定システムは、無人航空機と、判定装置とを持つ。無人航空機は撮像部と、無線通信部とを持つ。撮像部は、水を含む対象物を撮像して画像データを生成する。無線通信部は、前記画像データを予め定められた外部機器に送信する。判定装置は、画像取得部と、画像判定部とを持つ。画像取得部は、前記無人航空機によって送信された前記画像データを取得する。画像判定部は、前記画像データに含まれる水の色を示す特徴量が予め定められた条件を満たす場合、水質の異常と判定する。 A determination system of an embodiment has an unmanned aerial vehicle and a determination device. The unmanned aerial vehicle has an imaging unit and a wireless communication unit. The imaging unit images an object including water and generates image data. The wireless communication unit transmits the image data to a predetermined external device. The determination device has an image acquisition section and an image determination section. The image acquisition unit acquires the image data transmitted by the unmanned aerial vehicle. The image determination unit determines that the water quality is abnormal when the feature quantity indicating the color of the water included in the image data satisfies a predetermined condition.

第1の実施形態の監視制御システム1のシステム構成を表すシステム構成図。1 is a system configuration diagram showing the system configuration of a monitoring control system 1 according to a first embodiment; FIG. 第1の実施形態の無人航空機100の断面図の一例を示す図。1 is a diagram showing an example of a cross-sectional view of an unmanned aerial vehicle 100 according to a first embodiment; FIG. 第1の実施形態の無人航空機100の平面図の一例を示す図。1 is a diagram showing an example of a plan view of an unmanned aerial vehicle 100 according to a first embodiment; FIG. 第1の実施形態の無人航空機100の機能構成を表す機能ブロック図。2 is a functional block diagram showing the functional configuration of the unmanned aerial vehicle 100 of the first embodiment; FIG. 第1の実施形態のスケジュールテーブルの具体例を示す図。4 is a diagram showing a specific example of a schedule table according to the first embodiment; FIG. 第1の実施形態の判定装置200の機能構成を表す機能ブロック図。FIG. 2 is a functional block diagram showing the functional configuration of the determination device 200 of the first embodiment; FIG. 第1の実施形態の監視制御装置300の機能構成を表す機能ブロック図。FIG. 2 is a functional block diagram showing the functional configuration of a monitoring control device 300 according to the first embodiment; FIG. 第1の実施形態の画像判定の処理の流れを示すシーケンスチャート。4 is a sequence chart showing the flow of image determination processing according to the first embodiment; 第1の実施形態の画像判定の処理の流れを示すシーケンスチャート。4 is a sequence chart showing the flow of image determination processing according to the first embodiment; 第2の実施形態の画像判定の処理の流れを示すシーケンスチャート。FIG. 11 is a sequence chart showing the flow of image determination processing according to the second embodiment; FIG. 第2の実施形態の画像判定の処理の流れを示すシーケンスチャート。FIG. 11 is a sequence chart showing the flow of image determination processing according to the second embodiment; FIG.

以下、実施形態の判定システム、判定方法及び無人航空機を、図面を参照して説明する。 A determination system, a determination method, and an unmanned aerial vehicle according to embodiments will be described below with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態の監視制御システム1のシステム構成を表すシステム構成図である。監視制御システム1は、無人航空機100によって撮像された画像データに基づいて、所定の処理を行う。所定の処理は、例えば、画像データと学習結果データとに基づいて、画像データに藻類、油又は魚類等を示すスペクトルの値が含まれるか否かを判断してもよいし、監視制御装置300に警報を発報させてもよい。機場は、例えば、浄水場であってもよいし、下水処理場であってもよい。機場は、液体が処理される施設であればどのような施設であってもよい。本実施形態では、液体は水であるとして説明する。監視制御システム1は、ネットワーク20を介して互いに通信可能に接続される無人航空機100、判定装置200及び監視制御装置300を備える。判定装置200及び監視制御装置300は、機場10に構築される。ネットワーク20は、どのようなネットワークで構築されてもよい。例えば、ネットワーク20は、インターネットで構成されてもよいし、専用線等の閉域網で構成されてもよいし、携帯電話通信網で構成されてもよい。なお、判定装置200及び監視制御装置300は、クラウドコンピューティングシステムで構成されてもよい。この場合、判定装置200及び監視制御装置300は、機場10の外部に構築されてもよい。監視制御システム1は、判定システムの一態様である。判定システムは、が無人航空機100によって生成された画像データが、所定の条件を満たすか否か判定するシステムである。
(First embodiment)
FIG. 1 is a system configuration diagram showing the system configuration of a monitoring control system 1 according to the first embodiment. The monitoring control system 1 performs predetermined processing based on image data captured by the unmanned aerial vehicle 100 . The predetermined process may be, for example, based on the image data and the learning result data, determining whether or not the image data includes spectral values indicating algae, oil, fish, or the like. may issue an alarm. The pumping station may be, for example, a water purification plant or a sewage treatment plant. A pump station can be any facility where liquids are processed. In this embodiment, it is assumed that the liquid is water. The supervisory control system 1 includes an unmanned aerial vehicle 100 , a determination device 200 and a supervisory control device 300 that are communicably connected to each other via a network 20 . The determination device 200 and the supervisory control device 300 are built in the airport 10 . Network 20 may be constructed by any network. For example, the network 20 may be configured by the Internet, may be configured by a closed network such as a dedicated line, or may be configured by a mobile phone communication network. Note that the determination device 200 and the monitoring control device 300 may be configured by a cloud computing system. In this case, the determination device 200 and the monitoring control device 300 may be constructed outside the station 10 . The supervisory control system 1 is one aspect of the determination system. The determination system is a system that determines whether image data generated by the unmanned aerial vehicle 100 satisfies a predetermined condition.

無人航空機100は、ドローン又はラジコンヘリコプター等の飛翔体である。無人航空機100は、予め指定された日時になると、所定の場所に移動する。無人航空機100は、ネットワーク20を介して判定装置200と通信を行う。 The unmanned aerial vehicle 100 is a flying object such as a drone or a radio-controlled helicopter. The unmanned aerial vehicle 100 moves to a predetermined location at a predetermined date and time. Unmanned aerial vehicle 100 communicates with determination device 200 via network 20 .

判定装置200は、パーソナルコンピュータ、サーバ等の情報処理装置である。判定装置200は、ネットワーク20を介して無人航空機100と通信を行う。判定装置200は、無人航空機100と所定の情報を送受信したりする。所定の情報は、例えば、無人航空機100によって撮像された画像データであってもよいし、画像データに対する所定の判定結果であってもよい。 The determination device 200 is an information processing device such as a personal computer or a server. The determination device 200 communicates with the unmanned aerial vehicle 100 via the network 20 . The determination device 200 transmits and receives predetermined information to and from the unmanned aerial vehicle 100 . The predetermined information may be, for example, image data captured by the unmanned aerial vehicle 100, or predetermined determination results for the image data.

監視制御装置300は、パーソナルコンピュータ又はサーバ等の情報処理装置である。監視制御装置300は、判定装置200と通信可能に接続される。監視制御装置300は、判定装置200に記録された情報に基づいて、所定の画面データを生成する。所定の画面データは、例えばトレンドグラフであってもよいし、無人航空機100によって撮像された画像データであってもよい。監視制御装置300は、所定の指示を判定装置200に送信する。 The monitoring control device 300 is an information processing device such as a personal computer or a server. The monitoring control device 300 is communicably connected to the determination device 200 . The monitoring control device 300 generates predetermined screen data based on the information recorded in the determination device 200 . The predetermined screen data may be, for example, a trend graph or image data captured by the unmanned aerial vehicle 100 . The monitor control device 300 transmits a predetermined instruction to the determination device 200 .

図2は、第1の実施形態の無人航空機100の断面図の一例を示す図である。無人航空機100は、空中を飛行することで移動する。無人航空機100は、プロペラ部101、浮揚部102、撮像部103及び容器104を備える。 FIG. 2 is a diagram showing an example of a cross-sectional view of the unmanned aerial vehicle 100 of the first embodiment. The unmanned aerial vehicle 100 moves by flying in the air. The unmanned aerial vehicle 100 includes a propeller section 101 , a flotation section 102 , an imaging section 103 and a container 104 .

プロペラ部101は、複数のプロペラを備える。プロペラ部101は、プロペラを回転させることで、無人航空機100の高度調整又は移動を行う。浮揚部102は、水よりも軽い物質で構成される。浮揚部102は、発泡スチロール、エチレン酢酸ビニル又は空気等の無人航空機100は、浮揚部102の浮力によって、無人航空機100を浮かせる。浮揚部102によって、無人航空機100は、水源の採水地に着水しても水中に沈まない。 Propeller section 101 includes a plurality of propellers. The propeller unit 101 adjusts the altitude or moves the unmanned aerial vehicle 100 by rotating the propeller. Floating portion 102 is composed of a material lighter than water. The floating portion 102 is made of polystyrene foam, ethylene vinyl acetate, air, or the like. The flotation part 102 prevents the unmanned aerial vehicle 100 from sinking in the water even when it lands on the water source.

撮像部103は、マルチスペクトルカメラ等の既存の撮像装置である。撮像部103は、撮像装置を無人航空機100に接続するためのインタフェースであってもよい。この場合、撮像部103は、撮像装置において撮像された撮像信号から画像データを生成し、無人航空機100に入力する。撮像部103は、容器104内部を撮像してもよいし、無人航空機100直下を撮像してもよい。 The imaging unit 103 is an existing imaging device such as a multispectral camera. The imaging unit 103 may be an interface for connecting an imaging device to the unmanned aerial vehicle 100 . In this case, the imaging unit 103 generates image data from the imaging signal captured by the imaging device, and inputs the image data to the unmanned aerial vehicle 100 . The imaging unit 103 may capture an image of the inside of the container 104 or may capture an image of the unmanned aerial vehicle 100 directly below.

容器104は、タンク等の液体容器である。容器104には、採水地から採水された水が入れられてもよい。容器104の底部は突起105を備える。突起105の先端は、容器104の内部に通じる穴がある。容器104は、内部にピストン106を備える。ピストン106は、直動モータによって上方向又は下方向に駆動する。ピストン106は、下方向に動作した場合、容器104内の水等の液体を突起105を通じて、容器104外に押し出す。ピストン106は、上方向に動作した場合、容器104内に突起105を通じて、水等の液体を容器104内に取り込む。容器104は、アクリル等の無色透明な素材で構成される。容器104は、貯水された水等を撮像部103で撮像可能である。 The container 104 is a liquid container such as a tank. The container 104 may contain water sampled from a water sampling site. The bottom of container 104 is provided with protrusions 105 . The tip of the projection 105 has a hole leading to the inside of the container 104 . The container 104 has a piston 106 inside. The piston 106 is driven upward or downward by a linear motion motor. When the piston 106 moves downward, it pushes liquid such as water in the container 104 out of the container 104 through the protrusion 105 . When the piston 106 moves upward, it takes liquid such as water into the container 104 through the projection 105 into the container 104 . The container 104 is made of a colorless and transparent material such as acrylic. The container 104 can capture an image of water or the like stored in the container 104 with the imaging unit 103 .

図3は、第1の実施形態の無人航空機100の平面図の一例を示す図である。無人航空機100は、プロペラ部101、浮揚部102、撮像部103及び容器104を備える。 FIG. 3 is a diagram showing an example of a plan view of the unmanned aerial vehicle 100 of the first embodiment. The unmanned aerial vehicle 100 includes a propeller section 101 , a flotation section 102 , an imaging section 103 and a container 104 .

図3では、プロペラ部101が備えるプロペラは4本を例としているが、実施形態としては、4本に限定されない。プロペラは、何本備えられてもよい。例えば、プロペラ部101は、プロペラを5本備えていてもよいし、6本備えていてもよい。 In FIG. 3, the propeller unit 101 has four propellers as an example, but the number of propellers is not limited to four in the embodiment. Any number of propellers may be provided. For example, the propeller section 101 may have five propellers or six propellers.

図3では、浮揚部102は、円状に設置されるが、これに限定されない。浮揚部102は、例えば、多角形状に設置されてもよいし、複数カ所に分散されて設置されてもよい。浮揚部102は、無人航空機100が水中に沈まなければどのような形状であってもよい。 In FIG. 3, the floating part 102 is installed in a circular shape, but is not limited to this. For example, the floating part 102 may be installed in a polygonal shape, or may be installed dispersedly at a plurality of locations. Flotation portion 102 may be of any shape so long as unmanned aerial vehicle 100 is not submerged in water.

図3では、無人航空機100に備えられる容器104は、4個を例としているが、実施形態としては、4個に限定されない。容器104は、何個備えられてもよい。例えば、容器104は、5個備えられていてもよいし、6個備えられていてもよい。 In FIG. 3, four containers 104 are provided in the unmanned aerial vehicle 100, but the embodiment is not limited to four. Any number of containers 104 may be provided. For example, five or six containers 104 may be provided.

図4は、第1の実施形態の無人航空機100の機能構成を表す機能ブロック図である。無人航空機100は、水質検査プログラムを実行することによってプロペラ部101、浮揚部102、撮像部103、容器104、無線通信部107、スケジュール記憶部108、画像データ記憶部109及び制御部110を備える装置として機能する。なお、既に説明されたプロペラ部101、浮揚部102、撮像部103及び容器104は説明を省略する。 FIG. 4 is a functional block diagram showing the functional configuration of the unmanned aerial vehicle 100 of the first embodiment. Unmanned aerial vehicle 100 is a device comprising propeller unit 101, levitation unit 102, imaging unit 103, container 104, wireless communication unit 107, schedule storage unit 108, image data storage unit 109, and control unit 110 by executing a water quality inspection program. function as Description of the propeller unit 101, the levitation unit 102, the imaging unit 103, and the container 104, which have already been described, will be omitted.

無線通信部107は、無線ネットワークインタフェースである。無線通信部107は、無線通信方式を用いて、予め定められた外部機器と通信する。無線通信部107は、例えば無線LAN(Local Area Network)、Bluetooth(登録商標)又はLTE(Long Term Evolution)(登録商標)等の通信方式で通信してもよい。外部機器は例えば、判定装置200であってもよいし、判定装置200と通信可能に接続された情報処理装置であってもよい。 A wireless communication unit 107 is a wireless network interface. Wireless communication unit 107 communicates with a predetermined external device using a wireless communication method. The wireless communication unit 107 may communicate using a communication method such as a wireless LAN (Local Area Network), Bluetooth (registered trademark), or LTE (Long Term Evolution) (registered trademark). The external device may be, for example, the determination device 200 or an information processing device communicably connected to the determination device 200 .

スケジュール記憶部108は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。スケジュール記憶部108は、スケジュールテーブルを記憶する。スケジュールテーブルは、無人航空機100の動作スケジュールを保持する。 The schedule storage unit 108 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The schedule storage unit 108 stores a schedule table. The schedule table holds the operation schedule of unmanned aerial vehicle 100 .

図5は、第1の実施形態のスケジュールテーブルの具体例を示す図である。スケジュールテーブルは、スケジュールレコードを有する。スケジュールレコードは、日時、第1経路、第2経路、第N経路、第1動作、第2動作、第3動作及び動作の各値を有する。日時は、無人航空機100に動作スケジュールが実行される日時を表す。第1経路は、無人航空機100が最初に移動する場所を表す。第2経路は、無人航空機100が第1経路に移動した後、次に移動する場所を表す。第N経路は、無人航空機100が経路N-1に移動した後、次に移動する場所を表す。第1動作は、無人航空機100が最初に実行する動作を表す。第2動作は、無人航空機100が第1動作を実行した後に実行する動作を表す。第3動作は、無人航空機100が第2動作を実行した後に実行する動作を表す。第N動作は、無人航空機100が動作N-1を実行した後に実行する動作を表す。なお、Nは自然数を表す。 FIG. 5 is a diagram showing a specific example of a schedule table according to the first embodiment. The schedule table has schedule records. The schedule record has values for date and time, 1st route, 2nd route, Nth route, 1st action, 2nd action, 3rd action, and action. The date and time represents the date and time when the unmanned aerial vehicle 100 executes the operation schedule. The first path represents where unmanned aerial vehicle 100 initially travels. The second route represents the location to which the unmanned aerial vehicle 100 moves next after moving to the first route. The N-th route represents the location to which the unmanned aerial vehicle 100 moves next after moving to the route N-1. The first action represents the action that unmanned aerial vehicle 100 initially performs. The second action represents an action that unmanned aerial vehicle 100 performs after performing the first action. The third action represents an action that unmanned aerial vehicle 100 performs after performing the second action. The Nth action represents an action that unmanned aerial vehicle 100 performs after performing action N-1. Note that N represents a natural number.

図5に示される例では、スケジュールテーブルの最上段のスケジュールレコードは、日時の値が“2018.1.15 10:00”、第1経路の値が“35度39分2秒15N,138度22分35秒42E”、第2経路の値が、“35度39分2秒16N,138度22分35秒43E”、経路Nの値が“-”、第1動作の値が“採水”、第2動作の値が“撮像(容器)”、第3動作の値が“排水”、動作Nの値が“-”である。従って、スケジュールテーブルの最上段のスケジュールレコードによると、日時が、2018年1月15日10時00分になると、無人航空機100は、まず北緯35度39分2秒15、東経138度22分35秒42Eに移動し、次に、北緯35度39分2秒16、東経138度22分35秒43に移動する。移動した無人航空機100は、まず採水を行い、次に、無人航空機100は、容器の中の採水された水を撮像し、排水することがわかる。なお、図5に示されるスケジュールテーブルは一具体例に過ぎない。そのため、図5とは異なる態様でスケジュールテーブルが構成されてもよいし、第N経路又は第N動作等が選択される条件が定義されていてもよい。 In the example shown in FIG. 5, the schedule record at the top of the schedule table has a date and time value of "2018.1.15 10:00" and a first route value of "35 degrees 39 minutes 2 seconds 15N, 138 degrees 22 minutes 35 seconds 42E", the value of the second path is "35 degrees 39 minutes 2 seconds 16N, 138 degrees 22 minutes 35 seconds 43E", the value of the path N is "-", the value of the first operation is "water sampling ”, the value of the second operation is “imaging (container)”, the value of the third operation is “drainage”, and the value of the operation N is “−”. Therefore, according to the schedule record at the top of the schedule table, when the date and time reaches 10:00 on January 15, 2018, the unmanned aerial vehicle 100 first lands at 35 degrees 39 minutes 2 seconds 15 north latitude and 138 degrees 22 minutes 35 east longitude. It moves to second 42E and then moves to 35°39'2'16 N, 138°22'35'43 E. It can be seen that the unmanned aerial vehicle 100 that has moved first performs water sampling, and then the unmanned aerial vehicle 100 images and drains the sampled water in the container. Note that the schedule table shown in FIG. 5 is merely a specific example. Therefore, the schedule table may be configured in a manner different from that in FIG. 5, and conditions for selecting the Nth route or the Nth operation may be defined.

図4に戻って、無人航空機100の説明を続ける。画像データ記憶部109は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。画像データ記憶部109は、画像データを記憶する。画像データは、無人航空機100の撮像部103によって撮像される。 Returning to FIG. 4, the description of unmanned aerial vehicle 100 continues. The image data storage unit 109 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The image data storage unit 109 stores image data. Image data is captured by the imaging unit 103 of the unmanned aerial vehicle 100 .

制御部110は、無人航空機100の各部の動作を制御する。制御部110は、例えばCPU(Central Processing Unit)等のプロセッサ及びRAM(Random Access Memory)を備えた装置により実行される。制御部110は、画像判定プログラムを実行することによって、日時情報取得部111、移動制御部112、位置情報取得部113、採水制御部114及び画像取得部115として機能する。 The control unit 110 controls operations of each unit of the unmanned aerial vehicle 100 . The control unit 110 is executed by a device including a processor such as a CPU (Central Processing Unit) and a RAM (Random Access Memory). The control unit 110 functions as a date/time information acquisition unit 111, a movement control unit 112, a position information acquisition unit 113, a water sampling control unit 114, and an image acquisition unit 115 by executing an image determination program.

日時情報取得部111は、日時情報を取得する。日時情報は、取得された時点の年月日時分秒を識別可能な情報である。日時情報は、無人航空機100に内蔵された時計から取得されてもよいし、NTP(Network Time Protocol)サーバから取得されてもよい。また、日時情報は、UNIX(登録商標)時間であってもよい。日時情報は、日時情報に対してハッシュ関数やデジタル署名等によって処理された情報が用いられてもよい。 The date and time information acquisition unit 111 acquires date and time information. The date and time information is information that can identify the year, month, day, hour, minute, and second at the time of acquisition. The date and time information may be obtained from a clock built into the unmanned aerial vehicle 100, or may be obtained from an NTP (Network Time Protocol) server. Also, the date and time information may be UNIX (registered trademark) time. As the date/time information, information obtained by processing the date/time information using a hash function, a digital signature, or the like may be used.

移動制御部112は、無人航空機100に記録されたスケジュールテーブルに応じて、プロペラを回転させる。移動制御部112は、プロペラを回転させることで、無人航空機100の高度調整又は移動を行う。移動制御部112は、例えば、取得された日時情報が、スケジュールレコードに記録された日時と一致していた場合、スケジュールレコードに記録された経路に無人航空機100を移動させるように回転させてもよい。なお、日時情報とスケジュールテーブルに記録された日時は完全一致している必要はなく、予め指定された所定の時間の誤差が含まれていてもよい。移動制御部112は、無人航空機100がスケジュールテーブルに記録された経路に到達すると、記録された動作に応じて無人航空機100の高度が制御してもよい。例えば、移動制御部112は、高度が上がるようにプロペラを回転させてもよい。移動制御部112は、高度が下がるようにプロペラを回転させてもよい。また、移動制御部112は、判定装置200から受信した判定結果に応じて、経路が決定されてもよい。 The movement control unit 112 rotates the propeller according to the schedule table recorded in the unmanned aerial vehicle 100 . The movement control unit 112 adjusts the altitude or moves the unmanned aerial vehicle 100 by rotating the propeller. For example, if the acquired date and time information matches the date and time recorded in the schedule record, the movement control unit 112 may rotate the unmanned aerial vehicle 100 to move along the route recorded in the schedule record. . It should be noted that the date and time information and the date and time recorded in the schedule table do not have to match completely, and may include an error of a predetermined time specified in advance. The movement control unit 112 may control the altitude of the unmanned aerial vehicle 100 according to the recorded actions when the unmanned aerial vehicle 100 reaches the route recorded in the schedule table. For example, the movement control unit 112 may rotate the propellers to increase altitude. The movement control unit 112 may rotate the propellers so that the altitude decreases. Further, the movement control unit 112 may determine the route according to the determination result received from the determination device 200 .

位置情報取得部113は、位置情報を取得する。位置情報は、無人航空機100の位置を示す情報である。位置情報取得部113は、例えば、GPS(Global Positioning System)等の衛星測位システムによって位置情報を取得してもよい。位置情報は、例えば、経緯度情報であってもよい。位置情報は、例えば、経緯度の情報に加えて、高度又は速度等の情報が含まれていてもよい。位置情報は、衛星測位システムからの電波が届きにくい場所(例えば、山間部やトンネル)では、無人航空機100の速度の情報や加速度の情報を用いて補正されてもよい。 The position information acquisition unit 113 acquires position information. The position information is information indicating the position of the unmanned aerial vehicle 100 . The position information acquisition unit 113 may acquire position information by a satellite positioning system such as GPS (Global Positioning System), for example. The position information may be, for example, latitude and longitude information. The position information may include, for example, altitude or speed information in addition to latitude and longitude information. The position information may be corrected using the speed information and acceleration information of the unmanned aerial vehicle 100 in places where it is difficult for radio waves from the satellite positioning system to reach (for example, mountainous areas and tunnels).

採水制御部114は、無人航空機100に記録されたスケジュールテーブルに応じて、直動モータを駆動させる。直動モータが駆動することで、容器104内に設置されたピストン106は上下に駆動する。採水制御部114は、例えば、スケジュールテーブルの動作の値に“採水”が含まれる場合、ピストン106が上方向に駆動するように直動モータを駆動させてもよい。採水制御部114は、ピストン106が上方向に向かって移動する距離に応じて、容器104に採水される水の量を制御する。採水制御部114は、例えば、スケジュールテーブルの動作の値に“排水”が含まれる場合、ピストン106が下方向に駆動するように直動モータを駆動させてもよい。 The water sampling control unit 114 drives the linear motor according to the schedule table recorded in the unmanned aerial vehicle 100 . By driving the direct-acting motor, the piston 106 installed in the container 104 is driven up and down. For example, when "water sampling" is included in the operation value of the schedule table, the water sampling control unit 114 may drive the direct-acting motor so that the piston 106 is driven upward. The water sampling control unit 114 controls the amount of water to be sampled into the container 104 according to the distance that the piston 106 moves upward. For example, when the action value in the schedule table includes "drainage", the water sampling control unit 114 may drive the direct-acting motor so that the piston 106 is driven downward.

画像取得部115は、撮像部103によって生成された画像データを取得する。画像取得部115は、取得された画像データを画像データ記憶部109に記録する。画像取得部115は、取得された画像データを判定装置200に送信する。 The image acquisition unit 115 acquires image data generated by the imaging unit 103 . The image acquisition unit 115 records the acquired image data in the image data storage unit 109 . The image acquisition unit 115 transmits the acquired image data to the determination device 200 .

図6は、第1の実施形態の判定装置200の機能構成を表す機能ブロック図である。判定装置200は、画像判定プログラムを実行することによって第1通信部201、第2通信部202、入力部203、表示部204、画像データ記憶部205、学習結果データ記憶部206及び制御部207を備える装置として機能する。 FIG. 6 is a functional block diagram showing the functional configuration of the determination device 200 of the first embodiment. The determination device 200 operates the first communication unit 201, the second communication unit 202, the input unit 203, the display unit 204, the image data storage unit 205, the learning result data storage unit 206, and the control unit 207 by executing the image determination program. It functions as a device with

第1通信部201は、無線ネットワークインタフェースである。第1通信部201は、無線通信方式を用いて、無人航空機100と通信する。第1通信部201は、例えば無線LAN、Bluetooth又はLTE等の通信方式で通信してもよい。 The first communication unit 201 is a wireless network interface. The first communication unit 201 communicates with the unmanned aerial vehicle 100 using a wireless communication method. The first communication unit 201 may communicate using a communication method such as wireless LAN, Bluetooth, or LTE, for example.

第2通信部202は、ネットワークインタフェースである。第2通信部202は監視制御装置300と通信可能に接続される。第2通信部202は、例えば無線LAN、有線LAN、Bluetooth、PSTN(Public Switched Telephone Network)、LonWorks、専用線又はLTE等の通信方式で通信してもよい。 A second communication unit 202 is a network interface. The second communication unit 202 is communicably connected to the monitor control device 300 . The second communication unit 202 may communicate using a communication method such as wireless LAN, wired LAN, Bluetooth, PSTN (Public Switched Telephone Network), LonWorks, dedicated line, or LTE, for example.

入力部203は、タッチパネル、マウス及びキーボード等の入力装置を用いて構成される。入力部203は、入力装置を判定装置200に接続するためのインタフェースであってもよい。この場合、入力部203は、入力装置において入力された入力信号から入力データ(例えば、判定装置200に対する指示を示す指示情報)を生成し、判定装置200に入力する。 The input unit 203 is configured using an input device such as a touch panel, mouse, and keyboard. The input unit 203 may be an interface for connecting an input device to the determination device 200 . In this case, the input unit 203 generates input data (for example, instruction information indicating an instruction to the determination device 200 ) from an input signal input from the input device, and inputs the input data to the determination device 200 .

表示部204は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の出力装置である。表示部204は、出力装置を判定装置200に接続するためのインタフェースであってもよい。この場合、表示部204は、映像データから映像信号を生成し自身に接続されている映像出力装置に映像信号を出力する。 A display unit 204 is an output device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, an organic EL (Electro Luminescence) display, or the like. The display unit 204 may be an interface for connecting an output device to the determination device 200 . In this case, the display unit 204 generates a video signal from the video data and outputs the video signal to the video output device connected thereto.

画像データ記憶部205は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。画像データ記憶部205は、画像データを記憶する。画像データは、無人航空機100から送信される。 The image data storage unit 205 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The image data storage unit 205 stores image data. Image data is transmitted from unmanned aerial vehicle 100 .

学習結果データ記憶部206は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。学習結果データ記憶部206は、学習結果データを記憶する。学習結果データは、単一の藍藻類、油又は魚類等の動植物が撮像された画像データを教師データとして、所定の機械学習を行うことで生成される。学習結果データは、画像データに所定の特徴量が含まれているか否かを判定するために用いられる。所定の特徴量は、例えば、動植物又は油を表すスペクトルの波長の強度を示す値であってもよいし、画像の形状であってもよい。動植物の画像は、同じ場所で撮像された画像に限定されない。例えば、同じ動植物であれば、異なる場所で撮像された画像であってもよい。学習結果データは、予め記録される。学習結果データは、比較画像データの一態様である。 The learning result data storage unit 206 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The learning result data storage unit 206 stores learning result data. The learning result data is generated by performing predetermined machine learning using image data obtained by imaging a single cyanobacteria, oil, fish, or other animals and plants as teacher data. The learning result data is used to determine whether or not the image data contains a predetermined feature amount. The predetermined feature amount may be, for example, a value indicating the intensity of the wavelength of the spectrum representing the animal, plant, or oil, or may be the shape of the image. Images of animals and plants are not limited to images captured at the same location. For example, images of the same animal or plant may be images captured at different locations. Learning result data is recorded in advance. Learning result data is one aspect of comparison image data.

制御部207は、判定装置200の各部の動作を制御する。制御部207は、例えばCPU等のプロセッサ及びRAMを備えた装置により実行される。制御部207は、画像判定プログラムを実行することによって、画像取得部208、画像判定部209及び警報指示部210として機能する。 The control unit 207 controls the operation of each unit of the determination device 200 . The control unit 207 is executed by a device including a processor such as a CPU and a RAM, for example. The control unit 207 functions as an image acquisition unit 208, an image determination unit 209, and an alarm instruction unit 210 by executing an image determination program.

画像取得部208は、無人航空機100から画像データを取得する。画像取得部208は、取得された画像データを画像データ記憶部205に記録する。画像取得部208は、取得された画像データを画像判定部209に出力する。 The image acquisition unit 208 acquires image data from the unmanned aerial vehicle 100 . The image acquisition unit 208 records the acquired image data in the image data storage unit 205 . The image acquisition unit 208 outputs the acquired image data to the image determination unit 209 .

画像判定部209は、画像データ及び学習結果データが所定の条件を満たすか否かを判定する。画像判定部209は、画像データ及び学習結果データが所定の条件を満たす場合、警報発報を示す情報を警報指示部210に出力する。画像判定部209は、無人航空機100に対して、判定結果を送信する。所定の条件とは、例えば、画像データに含まれる水の色の特徴量が予め定められた閾値以内であるか否かであってもよい。予め定められた閾値は、例えば、学習結果データに含まれる藍藻類のスペクトルの波長の強度の値に基づいて決定された値であってもよい。所定の条件とは、例えば、画像判定部209は、画像データと学習結果データとの波長の強度の値の差分が閾値以内であることであってもよい。 The image determination unit 209 determines whether or not the image data and learning result data satisfy a predetermined condition. When the image data and the learning result data satisfy a predetermined condition, the image determination unit 209 outputs information indicating the issuance of an alarm to the alarm instruction unit 210 . The image determination unit 209 transmits determination results to the unmanned aerial vehicle 100 . The predetermined condition may be, for example, whether or not the water color feature amount included in the image data is within a predetermined threshold value. The predetermined threshold value may be, for example, a value determined based on the intensity value of the wavelength of the blue-green algae spectrum included in the learning result data. The predetermined condition may be, for example, that the image determination unit 209 determines that the difference in wavelength intensity value between the image data and the learning result data is within a threshold.

警報指示部210は、警報発報を示す情報を受付けると、警報発報指示を監視制御装置300に送信する。警報発報指示は、例えば、水源の水質の異常を示す音声又は文字列を発する警報であってもよいし、水源の水質改善を行うための処置を発する警報であってもよい。警報指示部210は、学習結果データと所定の条件を満たした画像データを監視制御装置300に送信する。 Upon receiving the information indicating the issuance of an alarm, the alarm instruction unit 210 transmits an instruction to issue an alarm to the monitoring control device 300 . The warning issuing instruction may be, for example, an alarm that emits a voice or character string indicating an abnormality in the water quality of the water source, or an alarm that issues measures to improve the water quality of the water source. The warning instruction unit 210 transmits the learning result data and the image data that satisfies a predetermined condition to the monitor control device 300 .

図7は、第1の実施形態の監視制御装置300の機能構成を表す機能ブロック図である。監視制御装置300は、水質検査プログラムを実行することによって通信部301、入力部302、表示部303、警報部304、画像データ記憶部305及び制御部306を備える装置として機能する。 FIG. 7 is a functional block diagram showing the functional configuration of the monitoring control device 300 of the first embodiment. The monitoring control device 300 functions as a device having a communication section 301, an input section 302, a display section 303, an alarm section 304, an image data storage section 305 and a control section 306 by executing a water quality inspection program.

通信部301は、ネットワークインタフェースである。通信部301は判定装置200と通信可能に接続される。通信部301は、例えば無線LAN、有線LAN、Bluetooth、PSTN、LonWorks、専用線又はLTE等の通信方式で通信してもよい。 A communication unit 301 is a network interface. The communication unit 301 is communicably connected to the determination device 200 . The communication unit 301 may communicate using a communication method such as wireless LAN, wired LAN, Bluetooth, PSTN, LonWorks, a dedicated line, or LTE, for example.

入力部302は、タッチパネル、マウス及びキーボード等の入力装置を用いて構成される。入力部302は、入力装置を監視制御装置300に接続するためのインタフェースであってもよい。この場合、入力部302は、入力装置において入力された入力信号から入力データ(例えば、監視制御装置300に対する指示を示す指示情報)を生成し、監視制御装置300に入力する。 The input unit 302 is configured using an input device such as a touch panel, mouse, and keyboard. The input unit 302 may be an interface for connecting an input device to the monitor control device 300 . In this case, the input unit 302 generates input data (for example, instruction information indicating an instruction to the supervisory control device 300 ) from an input signal input from the input device, and inputs the data to the supervisory control device 300 .

表示部303は、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ等の出力装置である。表示部303は、出力装置を監視制御装置300に接続するためのインタフェースであってもよい。この場合、表示部303は、映像データから映像信号を生成し自身に接続されている映像出力装置に映像信号を出力する。 A display unit 303 is an output device such as a CRT display, liquid crystal display, or organic EL display. The display unit 303 may be an interface for connecting an output device to the monitor control device 300 . In this case, the display unit 303 generates a video signal from the video data and outputs the video signal to the video output device connected thereto.

警報部304は、サイレン、回転灯、表示板及びスピーカー等の警報機器である。警報部304は、警報制御部307から出力された警報発報指示に基づいて、警報を発報する。例えば、警報部304は、警報制御部307から警報発報指示を受け付けた場合、警告音を発報してもよい。 The alarm unit 304 is alarm equipment such as a siren, a revolving light, a display board, and a speaker. The alarm unit 304 issues an alarm based on the alarm issuing instruction output from the alarm control unit 307 . For example, the alarm unit 304 may issue an alarm sound when receiving an alarm issuing instruction from the alarm control unit 307 .

画像データ記憶部305は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。画像データ記憶部205は、画像データを記憶する。画像データは、判定装置200から送信される。 The image data storage unit 305 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The image data storage unit 205 stores image data. Image data is transmitted from the determination device 200 .

制御部306は、監視制御装置300の各部の動作を制御する。制御部306は、例えばCPU等のプロセッサ及びRAMを備えた装置により実行される。制御部306は、画像判定プログラムを実行することによって、警報制御部307及び画面データ生成部308として機能する。 A control unit 306 controls the operation of each unit of the monitoring control device 300 . The control unit 306 is executed by a device having a processor such as a CPU and a RAM, for example. The control unit 306 functions as an alarm control unit 307 and a screen data generation unit 308 by executing an image determination program.

警報制御部307は、警報発報を示す情報と画像データとを受付けると、警報発報指示を警報部304に出力する。警報発報指示は、例えば、画像データの特徴量が予め定められた閾値以内であることを示す音声又は文言を出力する警報であってもよいし、水源の水質改善の手順を示す情報を表示されたことを表す警報であってもよい。警報制御部307は、画像データを画像データ記憶部305に記録する。警報制御部307は、画面データ生成部308に画面データ生成指示を出力する。 Alarm control unit 307 outputs an instruction to issue an alarm to alarm unit 304 upon receiving the information indicating the issuance of an alarm and the image data. The warning issuance instruction may be, for example, an alarm outputting a voice or text indicating that the feature value of the image data is within a predetermined threshold, or displaying information indicating a procedure for improving the water quality of the water source. It may be an alarm indicating that the The alarm control section 307 records the image data in the image data storage section 305 . The alarm control unit 307 outputs a screen data generation instruction to the screen data generation unit 308 .

画面データ生成部308は、画面データを生成する。まず、画面データ生成部308は、画面データの生成指示を受け付けると、画像データ記憶部305から画像データを取得する。画面データ生成部308は、取得した画像データに基づいて、画面データを生成する。画面データは、例えば、そのまま画像データが表示されていてもよいし、画像データの特徴量が予め定められた閾値以内であることを示す文言が付与されていてもよいし、警報が発報されたことを示す画面であってもよい。画面データ生成部308は、生成された画面データを表示部303に表示させる。 The screen data generation unit 308 generates screen data. First, the screen data generation unit 308 acquires image data from the image data storage unit 305 upon receiving a screen data generation instruction. A screen data generation unit 308 generates screen data based on the acquired image data. The screen data may be, for example, the image data displayed as it is, or may be given a wording indicating that the feature amount of the image data is within a predetermined threshold value, or an alarm may be issued. It may be a screen indicating that The screen data generation unit 308 causes the display unit 303 to display the generated screen data.

図8及び図9は、第1の実施形態の画像判定の処理の流れを示すシーケンスチャートである。無人航空機100の日時情報取得部111は、日時情報を取得する。無人航空機100の移動制御部112は、取得された日時情報がスケジュールレコードに記録された日時と一致していた場合、スケジュールレコードに記録された経路に移動する(ステップS101)。無人航空機100の位置情報取得部113は、位置情報を取得する(ステップS102)。位置情報取得部113は、取得された位置情報とスケジュールレコードに記録された経路とが一致するか否かを判定する(ステップS103)。スケジュールレコードに記録された経路と取得した位置情報とが一致しない場合(ステップS103:NO)、ステップS101に遷移する。 8 and 9 are sequence charts showing the flow of image determination processing according to the first embodiment. The date and time information acquisition unit 111 of the unmanned aerial vehicle 100 acquires date and time information. If the acquired date and time information matches the date and time recorded in the schedule record, the movement control unit 112 of the unmanned aerial vehicle 100 moves to the route recorded in the schedule record (step S101). The position information acquisition unit 113 of the unmanned aerial vehicle 100 acquires position information (step S102). The position information acquisition unit 113 determines whether the acquired position information matches the route recorded in the schedule record (step S103). If the route recorded in the schedule record does not match the acquired position information (step S103: NO), the process proceeds to step S101.

スケジュールレコードに記録された経路と取得した位置情報とが一致する場合(ステップS103:YES)、無人航空機100の採水制御部114は、スケジュールレコードに記録された第1動作を実行する(ステップS104)。例えば、第1動作が、“採水”である場合、無人航空機100は、採水を行う。なお、この場合、無人航空機100は、採水地に着水して採水を行ってもよい。採水地に着水した無人航空機100は、浮揚部102によって浮遊する。 If the route recorded in the schedule record matches the acquired position information (step S103: YES), the water sampling control unit 114 of the unmanned aerial vehicle 100 executes the first action recorded in the schedule record (step S104 ). For example, when the first action is "sampling water", the unmanned aerial vehicle 100 samples water. Note that in this case, the unmanned aerial vehicle 100 may land on the water sampling site to sample the water. The unmanned aerial vehicle 100 that has landed on the water sampling site is floated by the flotation unit 102 .

無人航空機100の画像取得部115は、画像データを取得する(ステップS105)。具体的には、無人航空機100の撮像部103は、容器104の内部を撮像し、画像データを生成する。画像取得部115は、撮像部103によって生成された画像データを取得する。画像取得部115は、画像データ記憶部109に取得した画像データを記録する(ステップS106)。画像取得部115は、判定装置200に画像データを送信する(ステップS107)。 The image acquisition unit 115 of the unmanned aerial vehicle 100 acquires image data (step S105). Specifically, the imaging unit 103 of the unmanned aerial vehicle 100 images the inside of the container 104 and generates image data. The image acquisition unit 115 acquires image data generated by the imaging unit 103 . The image acquisition unit 115 records the acquired image data in the image data storage unit 109 (step S106). The image acquisition unit 115 transmits the image data to the determination device 200 (step S107).

判定装置200の画像取得部208は、無人航空機100から画像でデータを取得する。画像取得部208は、取得した画像データを画像データ記憶部205に記録する(ステップS108)。判定装置200の画像判定部209は、学習結果データ記憶部206から学習結果データを取得する。画像判定部209は、画像データ及び学習結果データが所定の条件を満たすか否かを判定する(ステップS109)。所定の条件とは、例えば、画像データの特徴量が予め定められた閾値以内であるか否かであってもよい。画像判定部209は、所定の条件を満たす場合、画像データに藍藻類の画像が含まれると判定する(ステップS110)。画像判定部209は、所定の条件を満たさない場合、画像データに藍藻類の画像が含まれないと判定する。 The image acquisition unit 208 of the determination device 200 acquires image data from the unmanned aerial vehicle 100 . The image acquisition unit 208 records the acquired image data in the image data storage unit 205 (step S108). The image determination unit 209 of the determination device 200 acquires learning result data from the learning result data storage unit 206 . The image determination unit 209 determines whether or not the image data and the learning result data satisfy a predetermined condition (step S109). The predetermined condition may be, for example, whether or not the feature amount of the image data is within a predetermined threshold. The image determination unit 209 determines that the image data includes an image of cyanobacteria when a predetermined condition is satisfied (step S110). The image determination unit 209 determines that the image data does not include an image of cyanobacteria if the predetermined condition is not satisfied.

画像判定部209は、画像データに藍藻類の画像が含まれると判定した場合(ステップS110:YES)、画像判定部209は、警報発報を示す情報を警報指示部210に出力する。警報指示部210は、警報発報指示を監視制御装置300に送信する(ステップS111)。警報指示部210は、画像データを監視制御装置300に送信する(ステップS112)。画像判定部209は、判定結果を無人航空機100に送信する(ステップS113)。 When the image determination unit 209 determines that the image data includes an image of cyanobacteria (step S110: YES), the image determination unit 209 outputs information indicating an alarm to be issued to the alarm instruction unit 210 . The alarm instruction unit 210 transmits an alarm issuing instruction to the monitoring control device 300 (step S111). The warning instruction unit 210 transmits the image data to the monitor control device 300 (step S112). The image determination unit 209 transmits the determination result to the unmanned aerial vehicle 100 (step S113).

監視制御装置300の警報制御部307は、警報発報指示を受け付けたか否かを判定する(ステップS114)。警報指示を受け付けた場合(ステップS114:YES)、警報制御部307は、受け付けた画像データを画像データ記憶部305に記録する(ステップS115)。警報制御部307は、警報発報指示を警報部304に出力する。警報部304は、警報を発報する(ステップS116)。画面データ生成部308は、画面データを生成する。画面データ生成部308は、生成した画面データを表示部303に表示させる(ステップS117)。画面データは、例えば、警報が発報されたことを示す画面である。警報指示を受け付けていない場合(ステップS114:NO)、ステップS118に遷移する。 The alarm control unit 307 of the monitoring control device 300 determines whether or not an instruction to issue an alarm has been received (step S114). If the warning instruction is received (step S114: YES), the warning control unit 307 records the received image data in the image data storage unit 305 (step S115). The alarm control unit 307 outputs an alarm issuing instruction to the alarm unit 304 . The alarm unit 304 issues an alarm (step S116). The screen data generation unit 308 generates screen data. The screen data generation unit 308 displays the generated screen data on the display unit 303 (step S117). The screen data is, for example, a screen indicating that an alarm has been issued. If no warning instruction has been received (step S114: NO), the process proceeds to step S118.

無人航空機100の移動制御部112は、判定結果に応じて、スケジュールレコードの経路を決定する。移動制御部112は、受信した判定結果が藍藻類の画像が含まれると判定されたものであるか否かを判定する(ステップS118)。受信した判定結果が藍藻類の画像が含まれると判定されたものでない場合(ステップS118:NO)、採水制御部114は、スケジュールレコードの動作に応じて、容器104内の水を排水し、ステップS124に遷移する(ステップS119)。 The movement control unit 112 of the unmanned aerial vehicle 100 determines the route of the schedule record according to the determination result. The movement control unit 112 determines whether or not the received determination result indicates that an image of cyanobacteria is included (step S118). If it is determined that the received determination result does not include an image of cyanobacteria (step S118: NO), the water sampling control unit 114 drains the water in the container 104 according to the operation of the schedule record, The process transitions to step S124 (step S119).

移動制御部112は、受信した判定結果が藍藻類の画像が含まれると判定されたものである場合(ステップS118:YES)、移動制御部112は、所定のスケジュールレコードに記録された経路に無人航空機100を移動させる(ステップS120)。所定のスケジュールレコードは、判定結果に含まれていてもよいし、予めスケジュールレコードに記録されていてもよい。所定のスケジュールレコードに記録された経路は、例えば、水の分析場の場所を表していてもよい。位置情報取得部113は、位置情報を取得する(ステップS121)。位置情報取得部113は、取得された位置情報とスケジュールレコードに記録された経路とが一致するか否かを判定する(ステップS122)。スケジュールレコードに記録された経路と取得した位置情報とが一致しない場合(ステップS122:NO)、ステップS121に遷移する。 When it is determined that the received determination result includes an image of blue-green algae (step S118: YES), the movement control unit 112 determines whether the route recorded in the predetermined schedule record is unmanned. Move the aircraft 100 (step S120). The predetermined schedule record may be included in the determination result, or may be recorded in the schedule record in advance. The route recorded in a given schedule record may represent, for example, the location of a water analysis station. The position information acquisition unit 113 acquires position information (step S121). The position information acquisition unit 113 determines whether the acquired position information matches the route recorded in the schedule record (step S122). If the route recorded in the schedule record does not match the acquired position information (step S122: NO), the process proceeds to step S121.

スケジュールレコードに記録された経路と取得した位置情報とが一致する場合(ステップS122:YES)、採水制御部114は、スケジュールレコードの動作に応じて、容器104内の水を排水を行う(ステップS123)。移動制御部112は、所定のスケジュールレコードに記録された経路に基づいて、初期位置に無人航空機100を移動させる(ステップS124)。 If the route recorded in the schedule record matches the acquired position information (step S122: YES), the water sampling control unit 114 drains the water in the container 104 according to the operation of the schedule record (step S123). The movement control unit 112 moves the unmanned aerial vehicle 100 to the initial position based on the route recorded in the predetermined schedule record (step S124).

このように構成された監視制御システム1では、無人航空機100が指定された経路を移動する。無人航空機100の採水制御部114が、採水地の水を採水する。無人航空機100の撮像部103が、採水された水が収められた容器104を撮像し、画像データを生成する。判定装置200の画像判定部209は、生成された画像データに藻類等が含まれるか否かを判定する。画像データに藻類等が含まれる場合、判定装置200の警報指示部210は、監視制御装置300に対して警報発報指示を送信する。監視制御装置300の警報部304は、警報を発報する。画像データに藻類等が含まれる場合、無人航空機100は、所定の経路に移動することで、採水された水を分析場等の指定された場所に移動させることができる。したがって、実施形態の監視制御システム1によれば、無人航空機100が空中を移動することで、より早く採水地に移動することができ、未然に水質事故を予防することが可能となる。また、判定装置200によって、画像データに藻類等が含まれると判定された場合、判定装置200の警報指示部210は、監視制御装置300に対して警報発報指示を送信することで、浄水場等の機場のオペレータに対して、水質の異常に対して適切な処置を決定するための十分な時間を確保することができる。 In the supervisory control system 1 configured as described above, the unmanned aerial vehicle 100 moves along a designated route. The water sampling control unit 114 of the unmanned aerial vehicle 100 samples water from the water sampling site. The imaging unit 103 of the unmanned aerial vehicle 100 images the container 104 containing the sampled water and generates image data. The image determination unit 209 of the determination device 200 determines whether algae or the like is included in the generated image data. If the image data contains algae or the like, the warning instruction unit 210 of the determination device 200 transmits a warning issuance instruction to the monitoring control device 300 . The alarm unit 304 of the monitoring control device 300 issues an alarm. When the image data includes algae and the like, the unmanned aerial vehicle 100 can move the sampled water to a specified location such as an analysis site by moving along a predetermined route. Therefore, according to the monitoring control system 1 of the embodiment, by moving the unmanned aerial vehicle 100 in the air, it is possible to move to the water sampling site more quickly, and it is possible to prevent water quality accidents. Further, when the determination device 200 determines that the image data includes algae, etc., the warning instruction unit 210 of the determination device 200 transmits an alarm instruction to the monitoring control device 300, so that the water purification plant It is possible to ensure sufficient time for the operator of the pump station, etc., to decide on the appropriate action for the abnormal water quality.

(第2の実施形態)
次に、第2の実施形態における監視制御システム1について説明する。第2の実施形態における監視制御システム1の構成は第1の実施形態における監視制御システム1と同じである。以下、第1の実施形態と異なる点について説明する。
(Second embodiment)
Next, the monitor control system 1 in the second embodiment will be explained. The configuration of the supervisory control system 1 in the second embodiment is the same as that of the supervisory control system 1 in the first embodiment. Differences from the first embodiment will be described below.

第2の実施形態における判定装置200では、画像判定部209は、画像データ及び学習結果データが所定の条件を満たすか否かを判定する。画像判定部209は、画像データ及び学習結果データが所定の条件を満たす場合、警報発報を示す情報を警報指示部210に出力する。画像判定部209は、無人航空機100に対して、判定結果を送信する。所定の条件とは、例えば、画像データに含まれる水の色の特徴量が予め定められた閾値以内であるか否かであってもよい。予め定められた閾値は、例えば、学習結果データに含まれる油又は魚類のスペクトルの波長の強度の値に基づいて決定された値であってもよい。所定の条件とは、例えば、画像判定部209は、画像データと学習結果データとの波長の強度の値の差分が閾値以内であることであってもよい。 In the determination device 200 according to the second embodiment, the image determination unit 209 determines whether image data and learning result data satisfy a predetermined condition. When the image data and the learning result data satisfy a predetermined condition, the image determination unit 209 outputs information indicating the issuance of an alarm to the alarm instruction unit 210 . The image determination unit 209 transmits determination results to the unmanned aerial vehicle 100 . The predetermined condition may be, for example, whether or not the water color feature amount included in the image data is within a predetermined threshold value. The predetermined threshold value may be, for example, a value determined based on the intensity value of the wavelength of the spectrum of oil or fish contained in the learning result data. The predetermined condition may be, for example, that the image determination unit 209 determines that the difference in wavelength intensity value between the image data and the learning result data is within a threshold.

図10及び図11は、第2の実施形態の画像判定の処理の流れを示すシーケンスチャートである。ステップS201からステップS204までは、図8のステップS101からステップS104までと同じであるため、説明を省略する。 10 and 11 are sequence charts showing the flow of image determination processing according to the second embodiment. Since steps S201 to S204 are the same as steps S101 to S104 in FIG. 8, description thereof is omitted.

無人航空機100の移動制御部112は、無人航空機100が所定の高度が上昇するようにプロペラを回転させる(ステップS205)。所定の高度は、例えば、水面から3メートル程度の高度であってもよいし、水面の5メートル四方が撮像される程度の高度であってもよい。無人航空機100の画像取得部115は、画像データを取得する(ステップS206)。具体的には、無人航空機100の撮像部103は、無人航空機100によって採水された採水地を撮像し、画像データを生成する。画像取得部115は、撮像部103によって生成された画像データを取得する。画像取得部115は、画像データ記憶部109に取得した画像データを記録する(ステップS207)。画像取得部115は、判定装置200に画像データを送信する(ステップS208)。 The movement control unit 112 of the unmanned aerial vehicle 100 rotates the propeller so that the unmanned aerial vehicle 100 rises to a predetermined altitude (step S205). The predetermined altitude may be, for example, an altitude of about 3 meters from the surface of the water, or may be an altitude that captures an image of 5 meters square on the surface of the water. The image acquisition unit 115 of the unmanned aerial vehicle 100 acquires image data (step S206). Specifically, the imaging unit 103 of the unmanned aerial vehicle 100 captures an image of the water sampled by the unmanned aerial vehicle 100 and generates image data. The image acquisition unit 115 acquires image data generated by the imaging unit 103 . The image acquisition unit 115 records the acquired image data in the image data storage unit 109 (step S207). The image acquisition unit 115 transmits the image data to the determination device 200 (step S208).

判定装置200の画像取得部208は、無人航空機100から画像でデータを取得する。画像取得部208は、取得した画像データを画像データ記憶部205に記録する(ステップS209)。判定装置200の画像判定部209は、学習結果データ記憶部206から学習結果データを取得する。画像判定部209は、画像データ及び学習結果データが所定の条件を満たすか否かを判定する(ステップS210)。所定の条件とは、例えば、画像データの特徴量が予め定められた閾値以内であるか否かであってもよい。画像判定部209は、所定の条件を満たす場合、画像データに油又は魚類の画像が含まれると判定する(ステップS211)。画像判定部209は、所定の条件を満たさない場合、画像データに油又は魚類の画像が含まれないと判定する。 The image acquisition unit 208 of the determination device 200 acquires image data from the unmanned aerial vehicle 100 . The image acquisition unit 208 records the acquired image data in the image data storage unit 205 (step S209). The image determination unit 209 of the determination device 200 acquires learning result data from the learning result data storage unit 206 . The image determination unit 209 determines whether or not the image data and the learning result data satisfy a predetermined condition (step S210). The predetermined condition may be, for example, whether or not the feature amount of the image data is within a predetermined threshold. The image determination unit 209 determines that the image data includes an image of oil or fish when a predetermined condition is satisfied (step S211). The image determination unit 209 determines that the image data does not include an image of oil or fish when a predetermined condition is not satisfied.

画像判定部209は、画像データに藍藻類の画像が含まれると判定した場合(ステップS211:YES)、画像判定部209は、警報発報を示す情報を警報指示部210に出力する。警報指示部210は、警報発報指示を監視制御装置300に送信する(ステップS212)。警報指示部210は、画像データを監視制御装置300に送信する(ステップS213)。画像判定部209は、判定結果を無人航空機100に送信する(ステップS214)。 When the image determination unit 209 determines that the image data includes an image of cyanobacteria (step S211: YES), the image determination unit 209 outputs information indicating an alarm to be issued to the alarm instruction unit 210 . The alarm instruction unit 210 transmits an alarm issuing instruction to the monitoring control device 300 (step S212). The warning instruction unit 210 transmits the image data to the monitor control device 300 (step S213). The image determination unit 209 transmits the determination result to the unmanned aerial vehicle 100 (step S214).

ステップS215からステップS218は、図9のステップS114からステップS117までと同じであるため、説明を省略する。 Since steps S215 to S218 are the same as steps S114 to S117 in FIG. 9, description thereof is omitted.

無人航空機100の移動制御部112は、判定結果に応じて、スケジュールレコードの経路を決定する。移動制御部112は、受信した判定結果が油又は魚類の画像が含まれると判定されたものであるか否かを判定する(ステップS219)。受信した判定結果が油又は魚類の画像が含まれると判定されたものでない場合(ステップS219:NO)、採水制御部114は、スケジュールレコードの動作に応じて、容器104内の水を排水し、ステップS225に遷移する(ステップS220)。 The movement control unit 112 of the unmanned aerial vehicle 100 determines the route of the schedule record according to the determination result. The movement control unit 112 determines whether or not the received determination result indicates that an image of oil or fish is included (step S219). If the received determination result does not indicate that the image of oil or fish is included (step S219: NO), the water sampling control unit 114 drains the water in the container 104 according to the operation of the schedule record. , to step S225 (step S220).

移動制御部112は、受信した判定結果が油又は魚類の画像が含まれると判定されたものである場合(ステップS219:YES)、移動制御部112は、所定のスケジュールレコードに記録された経路に無人航空機100を移動させる(ステップS221)。所定のスケジュールレコードは、判定結果に含まれていてもよいし、予めスケジュールレコードに記録されていてもよい。所定のスケジュールレコードに記録された経路は、例えば、水の分析場の場所を表していてもよい。位置情報取得部113は、位置情報を取得する(ステップS222)。位置情報取得部113は、取得された位置情報とスケジュールレコードに記録された経路とが一致するか否かを判定する(ステップS223)。スケジュールレコードに記録された経路と取得した位置情報とが一致しない場合(ステップS223:NO)、ステップS222に遷移する。 If it is determined that the received determination result includes an image of oil or fish (step S219: YES), the movement control unit 112 follows the route recorded in the predetermined schedule record. The unmanned aerial vehicle 100 is moved (step S221). The predetermined schedule record may be included in the determination result, or may be recorded in the schedule record in advance. The route recorded in a given schedule record may represent, for example, the location of a water analysis station. The position information acquisition unit 113 acquires position information (step S222). The position information acquisition unit 113 determines whether the acquired position information matches the route recorded in the schedule record (step S223). If the route recorded in the schedule record does not match the acquired position information (step S223: NO), the process proceeds to step S222.

スケジュールレコードに記録された経路と取得した位置情報とが一致する場合(ステップS223:YES)、採水制御部114は、スケジュールレコードの動作に応じて、容器104内の水を排水を行う(ステップS224)。移動制御部112は、所定のスケジュールレコードに記録された経路に基づいて、初期位置に無人航空機100を移動させる(ステップS225)。 If the route recorded in the schedule record matches the acquired position information (step S223: YES), the water sampling control unit 114 drains the water in the container 104 according to the operation of the schedule record (step S224). The movement control unit 112 moves the unmanned aerial vehicle 100 to the initial position based on the route recorded in the predetermined schedule record (step S225).

このように構成された監視制御システム1では、無人航空機100が指定された経路を移動する。無人航空機100の採水制御部114が、採水地の水を採水する。無人航空機100の撮像部103が、無人航空機100によって採水された採水地を撮像し、画像データを生成する。判定装置200の画像判定部209は、生成された画像データに油又は魚類等が含まれるか否かを判定する。画像データに油又は魚類等が含まれる場合、判定装置200の警報指示部210は、監視制御装置300に対して警報発報指示を送信する。監視制御装置300の警報部304は、警報を発報する。画像データに油又は魚類等が含まれる場合、無人航空機100は、所定の経路に移動することで、採水された水を分析場等の指定された場所に移動させることができる。したがって、実施形態の監視制御システム1によれば、無人航空機100が空中を移動することで、より早く採水地に移動することができ、未然に水質事故を予防することが可能となる。また、判定装置200によって、画像データに藻類等が含まれると判定された場合、判定装置200の警報指示部210は、監視制御装置300に対して警報発報指示を送信することで、浄水場等の機場のオペレータに対して、水質の異常に対して適切な処置を決定するための十分な時間を確保することができる。 In the supervisory control system 1 configured as described above, the unmanned aerial vehicle 100 moves along a designated route. The water sampling control unit 114 of the unmanned aerial vehicle 100 samples water from the water sampling site. The image capturing unit 103 of the unmanned aerial vehicle 100 captures an image of the water sampled by the unmanned aerial vehicle 100 and generates image data. The image determination unit 209 of the determination device 200 determines whether oil, fish, or the like is included in the generated image data. If the image data contains oil, fish, or the like, the warning instruction unit 210 of the determination device 200 transmits a warning issuance instruction to the monitoring control device 300 . The alarm unit 304 of the monitoring control device 300 issues an alarm. If the image data contains oil, fish, or the like, the unmanned aerial vehicle 100 can move the sampled water to a designated location such as an analysis site by moving along a predetermined route. Therefore, according to the monitoring control system 1 of the embodiment, by moving the unmanned aerial vehicle 100 in the air, it is possible to move to the water sampling site more quickly, and it is possible to prevent water quality accidents. Further, when the determination device 200 determines that the image data includes algae, etc., the warning instruction unit 210 of the determination device 200 transmits an alarm instruction to the monitoring control device 300, so that the water purification plant It is possible to ensure sufficient time for the operator of the pump station, etc., to decide on the appropriate action for the abnormal water quality.

(実施形態に共通の変形例)
無人航空機100は、複数の容器104を備える。したがって、異なる採水地の水の画像データを解析又は運搬することが可能となる。
(Modified example common to the embodiments)
Unmanned aerial vehicle 100 includes a plurality of vessels 104 . Therefore, it becomes possible to analyze or transport image data of water from different water sampling locations.

無人航空機100の突起105は、延伸するように構成されてもよい。このように構成された無人航空機100は、採水地のより深い場所の水を採水することができる。したがって、監視制御システム1は、採水地の深さに応じて水質が異なる場合であっても、水質を分析することができる。 Protrusion 105 of unmanned aerial vehicle 100 may be configured to extend. The unmanned aerial vehicle 100 configured in this manner can sample water from a deeper location in the water sampling site. Therefore, the monitoring and control system 1 can analyze the water quality even when the water quality varies depending on the depth of the water sampling site.

判定装置200又は監視制御装置300は、無人航空機100を制御する制御指示を送信するように構成されてもよい。この場合、判定装置200又は監視制御装置300は、無人航空機100に対して、移動又は高度変更等の移動制御指示を送信する。移動制御部112は、受け付けた指示に応じて、無人航空機100を移動又は高度変更などの制御を行う。このように構成されることで、無人航空機100に気象の急な変動や動植物との衝突等の不測の事態が生じた場合であっても、安全に無人航空機100を動作させることが可能となる。 The determination device 200 or the supervisory control device 300 may be configured to transmit control instructions to control the unmanned aerial vehicle 100 . In this case, the determination device 200 or the supervisory control device 300 transmits a movement control instruction such as movement or altitude change to the unmanned aerial vehicle 100 . The movement control unit 112 performs control such as movement or altitude change of the unmanned aerial vehicle 100 according to the received instruction. With this configuration, even if unmanned aerial vehicle 100 encounters an unexpected situation such as a sudden change in weather or a collision with animals or plants, it is possible to operate unmanned aerial vehicle 100 safely. .

判定装置200又は監視制御装置300は、無人航空機100が記録するスケジュールレコードの日時を変更するように構成されてもよい。具体的には、判定装置200又は監視制御装置300は、気象情報を取得する。気象情報は、未来の降水確率、天気、気圧、気温、風速又は湿度等を含む。気象情報は、外部のサーバから取得される。判定装置200又は監視制御装置300は、取得された気象情報が、無人航空機100の移動に支障が出る場合、スケジュールレコードの日時を変更させる変更指示を送信する。支障とは、例えば、墜落又は故障で、スケジュールレコードに記録された経路に到達できない状態であってもよいし、法定の飛行条件を満たしていない場合であってもよい。変更指示には、変更後の日時が含まれる。無人航空機100は、スケジュールレコードに記録された日時の代わりに変更後の日時に移動を開始する。このように構成されることで、無人航空機100は、気象に関わらず、安全に無人航空機100を動作させることが可能となる。 The determination device 200 or the supervisory control device 300 may be configured to change the date and time of schedule records recorded by the unmanned aerial vehicle 100 . Specifically, the determination device 200 or the monitoring control device 300 acquires weather information. Weather information includes future precipitation probability, weather, atmospheric pressure, temperature, wind speed, humidity, and the like. Weather information is obtained from an external server. If the acquired weather information interferes with the movement of the unmanned aerial vehicle 100, the determination device 200 or the monitoring control device 300 transmits a change instruction to change the date and time of the schedule record. The obstacle may be, for example, a state in which the route recorded in the schedule record cannot be reached due to a crash or breakdown, or may be a case where legal flight conditions are not met. The change instruction includes the date and time after the change. The unmanned aerial vehicle 100 starts moving on the changed date and time instead of the date and time recorded in the schedule record. With this configuration, the unmanned aerial vehicle 100 can operate safely regardless of the weather.

本実施形態では、判定装置200が画像判定部209を備える構成としたが、判定装置200が備えることに限定されない。例えば、無人航空機100又は監視制御装置300が画像判定部209を備えるように構成されてもよい。 In the present embodiment, the determination device 200 is configured to include the image determination unit 209, but the determination device 200 is not limited to having the image determination unit 209. FIG. For example, the unmanned aerial vehicle 100 or the supervisory control device 300 may be configured to include the image determination section 209 .

本実施形態では、無人航空機100の容器104は、突起105及びピストン106を備える構成として説明したが、これに限定されない。例えば、容器104は、水中に沈められることで水をサンプリングしてもよい。 In the present embodiment, the container 104 of the unmanned aerial vehicle 100 has been described as having a configuration including the projection 105 and the piston 106, but is not limited to this. For example, container 104 may sample water by being submerged.

上記各実施形態では、採水制御部114、画像取得部115、画像判定部209及び警報指示部210はソフトウェア機能部であるものとしたが、LSI等のハードウェア機能部であってもよい。 In each of the above-described embodiments, the water sampling control unit 114, the image acquisition unit 115, the image determination unit 209, and the alarm instruction unit 210 are assumed to be software function units, but they may be hardware function units such as LSI.

以上説明した少なくともひとつの実施形態によれば、画像判定部209、水質情報判定部211、薬品量決定部212又はサンプリング判定部214を持つことにより、未然に水質事故を予防することが可能となる。 According to at least one embodiment described above, by having the image determination unit 209, the water quality information determination unit 211, the chemical amount determination unit 212, or the sampling determination unit 214, it is possible to prevent water quality accidents in advance. .

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1…監視制御システム、100…無人航空機、101…プロペラ部、102…浮揚部、103…撮像部、104…容器、105…突起、106…ピストン、107…無線通信部、108…スケジュール記憶部、109…画像データ記憶部、110…制御部、111…日時情報取得部、112…移動制御部、113…位置情報取得部、114…採水制御部、115…画像取得部、200…判定装置、201…第1通信部、202…第2通信部、203…入力部、204…表示部、205…画像データ記憶部、206…学習結果データ記憶部、207…制御部、208…画像取得部、209…画像判定部、210…警報指示部、300…監視制御装置、301…通信部、302…入力部、303…表示部、304…警報部、305…画像データ記憶部、306…制御部、307…警報制御部、308…画面データ生成部、10…機場、20…ネットワーク DESCRIPTION OF SYMBOLS 1... Monitoring control system 100... Unmanned aerial vehicle 101... Propeller part 102... Floating part 103... Imaging part 104... Container 105... Protrusion 106... Piston 107... Wireless communication part 108... Schedule storage part 109... Image data storage unit 110... Control unit 111... Date and time information acquisition unit 112... Movement control unit 113... Position information acquisition unit 114... Water sampling control unit 115... Image acquisition unit 200... Determining device, 201... First communication unit, 202... Second communication unit, 203... Input unit, 204... Display unit, 205... Image data storage unit, 206... Learning result data storage unit, 207... Control unit, 208... Image acquisition unit, 209... Image determination unit 210... Alarm instruction unit 300... Monitoring control device 301... Communication unit 302... Input unit 303... Display unit 304... Alarm unit 305... Image data storage unit 306... Control unit 307... Alarm control unit, 308... Screen data generation unit, 10... Machine, 20... Network

Claims (7)

水を含む対象物を撮像して画像データを生成する撮像部と、
前記画像データを予め定められた外部機器に送信する無線通信部と、
自機の動作スケジュールを保持するスケジュール記憶部と、
前記スケジュール記憶部に保持された前記動作スケジュールに基づいて、予め指定された日時に所定の場所に自機を移動させる移動制御部と、
を備える無人航空機と、
前記無人航空機によって送信された前記画像データを取得する画像取得部と、
前記画像データに含まれる水の色を示す特徴量が予め定められた条件を満たす場合、水質の異常と判定する画像判定部と、
を備える判定装置と、
を備え
前記判定装置は、気象情報を取得し、前記気象情報に基づいて前記無人航空機の移動に支障が出るか否か判定し、支障が出ると判定された場合、前記無人航空機の前記動作スケジュールを変更させる変更指示を前記無人航空機に送信し、
前記移動制御部は、前記判定装置から送信された前記動作スケジュールの変更指示に従って自機を移動させる判定システム。
an imaging unit that captures an image of an object containing water and generates image data;
a wireless communication unit that transmits the image data to a predetermined external device;
a schedule storage unit that holds an operation schedule of the own device;
a movement control unit for moving the device to a predetermined location on a date and time designated in advance based on the operation schedule held in the schedule storage unit;
an unmanned aerial vehicle comprising
an image acquisition unit that acquires the image data transmitted by the unmanned aerial vehicle;
an image determination unit that determines that the water quality is abnormal when the feature amount indicating the color of the water included in the image data satisfies a predetermined condition;
a determination device comprising
with
The determination device acquires weather information, determines whether movement of the unmanned aerial vehicle will be hindered based on the weather information, and changes the operation schedule of the unmanned aerial vehicle when it is determined that there will be a hindrance. sending a change instruction to the unmanned aerial vehicle to cause
The determination system, wherein the movement control unit moves the device according to the operation schedule change instruction transmitted from the determination device .
前記画像判定部は、
前記画像データに含まれる水の色の波長の強度と水質の異常を示す比較画像データの波長の強度とが予め定められた条件を満たす場合、水質の異常と判定し、
前記予め定められた条件は、前記画像データと予め所定の機械学習を行うことで生成される学習結果データとの波長の強度の値の差分が閾値以内であることを特徴とする、請求項1に記載の判定システム。
The image determination unit
If the intensity of the wavelength of the water color contained in the image data and the intensity of the wavelength of the comparison image data indicating the water quality abnormality meet a predetermined condition, it is determined that the water quality is abnormal,
2. The predetermined condition is that a difference in wavelength intensity value between the image data and learning result data generated by performing predetermined machine learning in advance is within a threshold value. Judgment system according to.
前記無人航空機は、
前記所定の場所に移動すると、前記所定の場所にある水を前記無人航空機が備える容器に貯留する制御を行う採水制御部をさらに備える、
請求項に記載の判定システム。
The unmanned aerial vehicle is
Further comprising a water sampling control unit that, when moved to the predetermined location, stores water at the predetermined location in a container provided in the unmanned aerial vehicle;
The determination system according to claim 1 .
前記撮像部は、前記容器に貯留された水又は前記無人航空機の直下を含むように撮像する、請求項に記載の判定システム。 4. The determination system according to claim 3 , wherein said imaging unit images water stored in said container or directly below said unmanned aerial vehicle. 前記判定装置が、
前記画像判定部が水質の異常と判定した場合、警報発報指示を送信する警報指示部と、 をさらに備える、
請求項1からのいずれか一項に記載の判定システム。
The determination device
an alarm instruction unit that transmits an instruction to issue an alarm when the image determination unit determines that the water quality is abnormal;
A determination system according to any one of claims 1 to 4 .
無人航空機が、水を含む対象物を撮像して画像データを生成する撮像ステップと、
無人航空機が、前記画像データを予め定められた外部機器に送信する無線通信ステップと、
無人航空機が、自機の動作スケジュールを保持するスケジュール記憶部に保持された前記動作スケジュールに基づいて予め指定された日時に所定の場所に自機を移動させる移動制御ステップと、
判定装置が、前記無人航空機によって送信された前記画像データを取得する画像取得ステップ、
判定装置が、前記画像データに含まれる水の色を示す特徴量が予め定められた条件を満たす場合、水質の異常と判定する画像判定ステップと、
判定装置が、気象情報を取得し、前記気象情報に基づいて前記無人航空機の移動に支障が出るか否か判定し、支障が出ると判定された場合、前記無人航空機の前記動作スケジュールを変更させる変更指示を前記無人航空機に送信するステップと、
無人航空機が、前記判定装置から送信された前記動作スケジュールの変更指示に従って自機を移動させるステップと、
を有する判定システムが実行する判定方法。
an imaging step in which the unmanned aerial vehicle images an object including water and generates image data;
a wireless communication step in which the unmanned aerial vehicle transmits the image data to a predetermined external device;
a movement control step in which the unmanned aerial vehicle moves to a predetermined location on a date and time designated in advance based on the operation schedule held in the schedule storage unit holding the operation schedule of the unmanned aerial vehicle;
an image acquisition step in which a determination device acquires the image data transmitted by the unmanned aerial vehicle;
an image determination step in which a determination device determines that the water quality is abnormal when the feature quantity indicating the color of the water included in the image data satisfies a predetermined condition;
A determination device acquires weather information, determines whether or not movement of the unmanned aerial vehicle will be hindered based on the weather information, and changes the operation schedule of the unmanned aerial vehicle when it is determined that there will be a hindrance. transmitting a change instruction to the unmanned aerial vehicle;
a step in which the unmanned aerial vehicle moves itself according to the operation schedule change instruction transmitted from the determination device;
A determination method performed by a determination system having
請求項1に記載の判定システムにおける無人航空機であって、
前記移動制御部は、前記判定装置から送信された前記動作スケジュールの変更指示に従って自機を移動させる無人航空機。
An unmanned aerial vehicle in the determination system of claim 1,
The unmanned aerial vehicle , wherein the movement control unit moves the own aircraft according to the operation schedule change instruction transmitted from the determination device .
JP2018073447A 2018-04-05 2018-04-05 Judgment system, judgment method and unmanned aerial vehicle Active JP7109969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018073447A JP7109969B2 (en) 2018-04-05 2018-04-05 Judgment system, judgment method and unmanned aerial vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018073447A JP7109969B2 (en) 2018-04-05 2018-04-05 Judgment system, judgment method and unmanned aerial vehicle

Publications (2)

Publication Number Publication Date
JP2019184345A JP2019184345A (en) 2019-10-24
JP7109969B2 true JP7109969B2 (en) 2022-08-01

Family

ID=68340721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018073447A Active JP7109969B2 (en) 2018-04-05 2018-04-05 Judgment system, judgment method and unmanned aerial vehicle

Country Status (1)

Country Link
JP (1) JP7109969B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7359429B2 (en) * 2019-11-01 2023-10-11 国立大学法人 長崎大学 Red tide inspection system and red tide inspection method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270689A (en) 2004-03-23 2005-10-06 Hitachi Plant Eng & Constr Co Ltd Wastewater treatment abnormality detecting system
JP2016095259A (en) 2014-11-17 2016-05-26 横河電機株式会社 Plankton measurement system and plankton measurement method
JP2017015527A (en) 2015-06-30 2017-01-19 株式会社トプコン Wide area sensor system, flight detection method and program
US20170202185A1 (en) 2016-01-18 2017-07-20 Dinklage Feed Yards, Inc. Unmanned livestock monitoring system and methods of use
JP2018033418A (en) 2016-09-02 2018-03-08 株式会社日立製作所 Culture pond water quality purification system and culture pond water quality purification method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03154851A (en) * 1989-11-10 1991-07-02 Shimizu Corp Method for measuring pollution distribution of water area

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270689A (en) 2004-03-23 2005-10-06 Hitachi Plant Eng & Constr Co Ltd Wastewater treatment abnormality detecting system
JP2016095259A (en) 2014-11-17 2016-05-26 横河電機株式会社 Plankton measurement system and plankton measurement method
JP2017015527A (en) 2015-06-30 2017-01-19 株式会社トプコン Wide area sensor system, flight detection method and program
US20170202185A1 (en) 2016-01-18 2017-07-20 Dinklage Feed Yards, Inc. Unmanned livestock monitoring system and methods of use
JP2018033418A (en) 2016-09-02 2018-03-08 株式会社日立製作所 Culture pond water quality purification system and culture pond water quality purification method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kageyama, Y. et al.,Analysisi of water quality in Miharu dam reservoir, Japan, using UAV data,IEEJ TRANSACTIONS ON ELECTRICAL AND ELECTRONIC ENGINEERING,2016年06月17日,Vol. 11,pp. S183-S185,doi:10.1002/tee.22253

Also Published As

Publication number Publication date
JP2019184345A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
Lally et al. Can drones be used to conduct water sampling in aquatic environments? A review
James et al. Volcanological applications of unoccupied aircraft systems (UAS): Developments, strategies, and future challenges
US10175388B2 (en) 4D volumetric weather data processing and display
US10710710B2 (en) Unmanned aerial vehicle (UAV) compliance using standard protocol requirements and components to enable identifying and controlling rogue UAVS
EP4224115B1 (en) Time varying loudness prediction system
KR100962615B1 (en) Observation system of measurement the sea circumstances and aerial vehicle with unmanned and methods thereof
US20220005359A1 (en) Novel vessel systems and methods relating thereto
US8583368B1 (en) Rule based depiction of minimum altitudes
CN113468287B (en) Flight data processing method, computing equipment, aircraft and landing system thereof
Cleguer et al. A novel method for using small unoccupied aerial vehicles to survey wildlife species and model their density distribution
JP7109969B2 (en) Judgment system, judgment method and unmanned aerial vehicle
Bruzzone et al. Monitoring of sea-ice-atmosphere interface in the proximity of Arctic tidewater glaciers: The contribution of marine robotics
de Boer et al. Atmospheric observations made at Oliktok Point, Alaska, as part of the Profiling at Oliktok Point to Enhance YOPP Experiments (POPEYE) campaign
Jessin et al. A systematic review of UAVs for island coastal environment and risk monitoring: Towards a Resilience Assessment
Trinh et al. A Framework for Survey Planning Using Portable Unmanned Aerial Vehicles (p UAVs) in Coastal Hydro-Environment
Kapetanović et al. Autonomous Vehicles Mapping Plitvice Lakes National Park, Croatia
US12010719B2 (en) Moving body, communication method, and program
JP7359429B2 (en) Red tide inspection system and red tide inspection method
August et al. Autonomous drones are a viable tool for acoustic bat surveys
Ferretti et al. New approaches for the observation of transient phenomena in critical marine environment
de Boer et al. University of Colorado and Black Swift Technologies RPAS-based measurements of the lower atmosphere during LAPSE-RATE
JP2019155341A (en) Control system, control method, and unmanned aerial vehicle
Perry et al. A prototype gui for unmanned air vehicle mission planning and execution
FR3127616A1 (en) Aerial avoidance management process
US9644990B2 (en) Systems and methods for adjusting sink rate alert envelope for special landing zones

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220720

R150 Certificate of patent or registration of utility model

Ref document number: 7109969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150