JP2021051767A - System and method for supporting operation using drone - Google Patents

System and method for supporting operation using drone Download PDF

Info

Publication number
JP2021051767A
JP2021051767A JP2020203163A JP2020203163A JP2021051767A JP 2021051767 A JP2021051767 A JP 2021051767A JP 2020203163 A JP2020203163 A JP 2020203163A JP 2020203163 A JP2020203163 A JP 2020203163A JP 2021051767 A JP2021051767 A JP 2021051767A
Authority
JP
Japan
Prior art keywords
work
users
image
drone
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020203163A
Other languages
Japanese (ja)
Other versions
JP7129069B2 (en
Inventor
泰隆 倉本
Yasutaka Kuramoto
泰隆 倉本
善太郎 渡邉
Zentaro Watanabe
善太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SkymatiX Inc
Original Assignee
SkymatiX Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SkymatiX Inc filed Critical SkymatiX Inc
Publication of JP2021051767A publication Critical patent/JP2021051767A/en
Application granted granted Critical
Publication of JP7129069B2 publication Critical patent/JP7129069B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

To facilitate utilization of a drone for a desired operation.SOLUTION: A system for supporting an operation using a drone comprises: first operation result storage means for receiving a result of a first operation performed to a first object and storing it; operation report preparation means for preparing an operation report representing the result of the first operation; operation report provision means for providing at least one of users with the operation report; second object specification tool provision means for providing at least one of the users with a second object specification tool constituted so that at least one of the users can specify a second object according to the result of the first operation displayed in the operation report; second object storage means for receiving specification of the second object from at least one of the users to store a position of the second object; and second object information processing means for performing information processing regarding a second operation regarding the second object according to the position of the second object to provide at least one of the users or at least one of drones with a result of the information processing.SELECTED DRAWING: Figure 2

Description

本発明は、施設、建造物、土地、圃場、森林などの人工物または自然物に対する調査、点検、保守、加工、破壊または建造などの作業を支援するためのシステム及び方法に関し、特に、ドローンを用いた作業の支援に好適なシステムおよび方法に関する。本明細書では、「ドローン」という用語を、搭乗員なしに操縦し得る移動体(例えば、遠隔から無線で操縦し得るか、または自律的に操縦し得る航空機、走行機、水上船、潜水機など)を指す意味で用いる。 The present invention relates to systems and methods for supporting operations such as investigation, inspection, maintenance, processing, destruction or construction of man-made or natural objects such as facilities, structures, lands, fields and forests, and particularly with respect to drones. Concerning systems and methods suitable for assisting the work that was being done. In the present specification, the term "drone" is used to refer to a mobile body that can be operated without a crew member (for example, an aircraft, a traveling vehicle, a surface ship, or a submersible that can be remotely controlled wirelessly or autonomously. Etc.).

ドローンを様々な用途に利用するための技術が知られている。例えば特許文献1に開示された管理システムは、無人飛行体を利用して、建物内に存在する対象物(例えば、屋内駐車場内の駐車車両)の位置の特定および特徴情報の取得を行なう。 Technologies for using drones for various purposes are known. For example, the management system disclosed in Patent Document 1 uses an unmanned aerial vehicle to identify the position of an object existing in a building (for example, a parked vehicle in an indoor parking lot) and acquire characteristic information.

この管理システムによれば、建物内の地図に基づいて、建物内における車両の位置を特定するための飛行経路が計算される。そして、その飛行経路に沿って、無人飛行体が飛行する。その飛行中、無人飛行体に搭載された位置関連情報取得部が、車両の位置に関連する情報を取得する。そして、取得された情報に基づいて、建屋内における車両の位置が特定され、その位置特定の結果に基づいて、それぞれの車両の特徴を特定するための飛行経路が算出される。その後、後者の飛行経路に沿って無人飛行体が飛行する。その飛行中、無人飛行体に搭載された特徴情報取得部が、個々の車両の特徴情報を取得する。そして、取得された特徴情報を、特定された車両の位置と関連付けることにより、個々の車両の特徴情報が特定される。 According to this management system, a flight path for locating a vehicle in a building is calculated based on a map in the building. Then, an unmanned aerial vehicle flies along the flight path. During the flight, the position-related information acquisition unit mounted on the unmanned aerial vehicle acquires information related to the position of the vehicle. Then, the position of the vehicle in the building is specified based on the acquired information, and the flight path for specifying the characteristics of each vehicle is calculated based on the result of the position identification. After that, the unmanned aerial vehicle flies along the latter flight path. During the flight, the feature information acquisition unit mounted on the unmanned aerial vehicle acquires the feature information of each vehicle. Then, by associating the acquired feature information with the position of the specified vehicle, the feature information of each vehicle is specified.

特許文献2には、無人飛行体を利用した送電線点検システムが開示されている。このシステムによると、無人飛行体が送電線の点検個所(鉄塔、送電線真下の敷地、送電線に近接した樹木など)を撮影し、その撮影画像から点検個所の三次元画像が生成される。その三次元画像に基づいて点検個所の異常が見つけだされる。例えば、鉄塔の色や輝度や彩度などから、メッキの腐食度合いが判定されたり、あるいは、過去の三次元画像との比較により新しい変化が把握されたりする。 Patent Document 2 discloses a power transmission line inspection system using an unmanned aerial vehicle. According to this system, an unmanned aircraft photographs the inspection points of the transmission line (steel tower, the site directly under the transmission line, trees near the transmission line, etc.), and a three-dimensional image of the inspection location is generated from the photographed images. Anomalies at the inspection points are found based on the three-dimensional image. For example, the degree of corrosion of plating is determined from the color, brightness, saturation, etc. of the steel tower, or new changes are grasped by comparison with past three-dimensional images.

特許文献3には、無人飛行体により水田を撮影することで得られた画像から、水田の水位を把握して、水門の開閉指示を送信する水位管理システムが開示されている。 Patent Document 3 discloses a water level management system that grasps the water level of a paddy field from an image obtained by photographing the paddy field with an unmanned air vehicle and transmits an opening / closing instruction of a floodgate.

特許文献4には、建物や橋梁などの構造物の劣化を推定し、点検計画を作成し、そして、補修要否を判断する点検システムが記載されている。点検システムは、構造物の設計データおよび状況データ(使用履歴や最近の点検結果や補修結果など)に基づいて、構造物の劣化を自動的に推定し、その推定結果に基づいて、無人飛行体による写真撮影などを用いた簡易点検を実施するための第1点検計画を自動作成する。そして、点検システムは、実施された簡易点検の結果に基づいて、人による詳細点検を実施するための第2点検計画を自動作成し、そして、実施された詳細点検の結果に基づいて、構造物の補修の要否を自動判断する。 Patent Document 4 describes an inspection system that estimates deterioration of structures such as buildings and bridges, creates an inspection plan, and determines whether repair is necessary. The inspection system automatically estimates the deterioration of the structure based on the design data and status data of the structure (usage history, recent inspection results, repair results, etc.), and based on the estimated results, the unmanned aerial vehicle The first inspection plan for carrying out a simple inspection using photography etc. is automatically created. Then, the inspection system automatically creates a second inspection plan for carrying out a detailed inspection by a person based on the result of the simple inspection carried out, and based on the result of the carried out detailed inspection, the structure. Automatically determines the necessity of repair.

特開2015−131713号公報Japanese Unexamined Patent Publication No. 2015-131713 特開2005−265699号公報Japanese Unexamined Patent Publication No. 2005-265699 特開2016−220681号公報Japanese Unexamined Patent Publication No. 2016-220681 特開2017−071972号公報JP-A-2017-071972

ある作業にドローンを利用するためには、その作業に適した移動計画(例えば飛行ドローン用の飛行計画)を用意する、あるいは、その作業が適切に行われるようにドローンを手動で操縦する必要がある。しかし、これは多くの作業者にとりそう容易ではない。例えば、農薬散布などの農作業にドローンが利用できれば農業の生産性が改善されるであろうが、一般的な農家にとり、それを実行することは容易でない。 In order to use a drone for a certain task, it is necessary to prepare a movement plan suitable for the task (for example, a flight plan for a flying drone), or to manually steer the drone so that the task can be performed properly. is there. However, this is not so easy for many workers. For example, the availability of drones for agricultural work such as pesticide spraying would improve agricultural productivity, but it is not easy for the average farmer to do so.

作業は、期待される効果が得られるように、適切に計画され実施されることが望まれる。しかし、現実のさまざまな状況においてどのような作業が適切であるかを判断することは、個々の作業者にとっても、作業を支援するシステムの設計者にとっても、容易ではない。さらには、例えば圃場への農薬散布の場合、同じ農作物の同じ病害に対して、同じ農薬が常に期待の効果をもたらすわけではない。同じ病害に同じ農薬を繰り返し使い続けると、効果が落ちてくるため、農薬を変更した方がよい場合がある。このような事情が、期待された作業効果を得るための作業計画の設計をいっそう難しくする。 It is hoped that the work will be properly planned and carried out to achieve the expected effects. However, determining what kind of work is appropriate in various real-life situations is not easy for both individual workers and the designers of systems that support the work. Furthermore, for example, in the case of spraying pesticides in the field, the same pesticides do not always have the expected effect on the same disease of the same crop. If you continue to use the same pesticide for the same disease repeatedly, the effect will decrease, so it may be better to change the pesticide. Such circumstances make it more difficult to design a work plan to obtain the expected work effect.

本発明の目的の一つは、ドローンなどの移動体を用いた作業を支援するシステムにおいて、ユーザによる移動体の所望作業への利用をいっそう容易化することにある。 One of the objects of the present invention is to further facilitate the user's use of the mobile body for desired work in a system that supports work using a moving body such as a drone.

本発明の別の目的は、期待された作業効果を得るための作業計画の設計を支援することにある。 Another object of the present invention is to support the design of a work plan to obtain the expected work effect.

本発明の一実施形態に従う、1以上のドローンと通信可能に、又は、1以上のドローンを用いる1以上のユーザと通信可能に構成されたドローン作業支援システムは、第一の対象に対して行われた第一の作業の結果を受けて記憶する第一の作業結果記憶手段と、記憶された第一の作業の結果を表す作業報告を作成する作業報告作成手段と、作成された作業報告をユーザの少なくとも一人に提供する作業報告提供手段と、ユーザの少なくとも一人が作業報告に表示された第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、ユーザの少なくとも一人に提供する第二の対象特定ツール提供手段と、ユーザの少なくとも一人から第二の対象の特定を受け、第二の対象の位置を記憶する第二の対象記憶手段と、記憶された第二の対象の位置に応じて第二の対象に関する第二の作業に関する情報処理を行ない、情報処理の結果をユーザの少なくとも一人又はドローンの少なくとも一つに提供する第二対象情報処理手段とを備える。 A drone work support system configured to be able to communicate with one or more drones or to one or more users using one or more drones according to one embodiment of the present invention is a line for the first object. The first work result storage means for receiving and storing the result of the first work, the work report creation means for creating the work report representing the stored result of the first work, and the created work report. A second target configured to provide a work report providing means to at least one of the users and to allow at least one of the users to identify a second target according to the result of the first work displayed in the work report. A second target identification tool providing means for providing the target identification tool to at least one of the users, and a second target for storing the position of the second target after receiving the identification of the second target from at least one of the users. Information processing related to the second work related to the second object according to the storage means and the position of the second object stored, and providing the result of the information processing to at least one of the users or at least one of the drones. (Ii) Provided with a target information processing means.

このドローン作業支援システムによれば、ドローンなどの移動体を用いた作業を支援するシステムにおいて、ユーザによる移動体の所望作業への利用をいっそう容易化することができる。 According to this drone work support system, in a system that supports work using a moving body such as a drone, it is possible to further facilitate the user's use of the moving body for a desired work.

本発明の一実施形態に係るドローンを用いた作業を支援するシステムの全体構成を示すブロック線図。The block diagram which shows the whole structure of the system which supports the work using the drone which concerns on one Embodiment of this invention. 同システムの全体的な制御例の流れを示すフローチャート。A flowchart showing the flow of an overall control example of the system. 同システムにおける地域位置の登録の制御例の流れを示すフローチャート。The flowchart which shows the flow of the control example of the registration of the area position in the system. 地域位置の指定方法例と地域位置のデータ構成例を示す説明図。Explanatory drawing which shows the example of the designation method of the area position and the data structure example of the area position. 同システムにおける調査飛行計画の作成と設定の制御例の流れを示すフローチャート。A flowchart showing the flow of a control example of creating and setting a survey flight plan in the system. 地域と調査飛行計画の関係例を示す説明図。Explanatory drawing showing an example of the relationship between the area and the survey flight plan. 調査飛行計画のデータ構成例を示す説明図。Explanatory drawing which shows the data structure example of the investigation flight plan. 同システムにおける調査ドローンを用いた写真撮影の制御例の流れを示すフローチャート。A flowchart showing the flow of a control example of photography using a survey drone in the same system. 同システムにおける撮影画像からの地域画像の作成と登録の制御例の流れを示すフローチャート。A flowchart showing a flow of control examples of creating and registering a regional image from a captured image in the system. 地域画像のデータ構成例を示す説明図。Explanatory drawing which shows the data structure example of the area image. 同システムにおける作業個所と実作業飛行計画の登録の制御例の流れを示すフローチャート。A flowchart showing the flow of a control example of registration of a work location and an actual work flight plan in the system. 作業個所のデータ構成例を示す説明図。Explanatory drawing which shows the data structure example of a work place. 作業個所と実作業飛行計画との関係例を示す説明図。Explanatory drawing which shows an example of the relationship between a work place and an actual work flight plan. 実作業飛行計画のデータ構成例を示す説明図。Explanatory drawing which shows the data structure example of the actual work flight plan. 同システムにおける実作業飛行計画の設定の制御例の流れを示すフローチャート。The flowchart which shows the flow of the control example of the setting of the actual work flight plan in the system. 同システムにおける実作業ドローンを用いた実作業の制御例の流れを示すフローチャート。The flowchart which shows the flow of the control example of the actual work using the actual work drone in the same system. 本発明の第2の実施形態に係る作業支援システムの全体構成を示すブロック線図。The block diagram which shows the whole structure of the work support system which concerns on 2nd Embodiment of this invention. 第2の実施形態にかかるシステムの全体的な制御例の流れを示すフローチャート。The flowchart which shows the flow of the whole control example of the system which concerns on 2nd Embodiment. 症状解析部の構成例を示すブロック線図。A block diagram showing a configuration example of the symptomatology analysis unit. 作業解析部の構成例を示すブロック線図。A block diagram showing a configuration example of the work analysis unit. 操作端末の表示スクリーン上で作業個所の領域を選択するときのグラフィックインタフェース例を示す図。The figure which shows the example of the graphic interface when the area of a work place is selected on the display screen of an operation terminal. 操作端末の表示スクリーン上で作業個所の症状を特定するときのグラフィックインタフェース例を示す図。The figure which shows the example of the graphic interface when the symptom of a work place is identified on the display screen of an operation terminal. 操作端末の表示スクリーン上で作業個所に施すべき実作業を決定するときのグラフィックインタフェースを示す図。The figure which shows the graphic interface when deciding the actual work to be performed on the work place on the display screen of the operation terminal. 解析部の別の構成例を示すブロック線図。A block diagram showing another configuration example of the analysis unit. 解析部のまた別の構成例を示すブロック線図。A block diagram showing another configuration example of the analysis unit. ドローンによる写真撮影で用いることができる画像補正スケールの一例の平面デザインを示す平面図。A plan view showing a plan design of an example of an image correction scale that can be used for photography with a drone. 図26に示された画像補正スケールの一例における各基準色のパネルが満たす寸法条件の一例を示す図。FIG. 6 is a diagram showing an example of dimensional conditions satisfied by each reference color panel in an example of the image correction scale shown in FIG. 26. 画像補正スケールを利用して地域画像を補正するためのシステムの構成例を示すブロック線図。A block diagram showing a configuration example of a system for correcting a regional image using an image correction scale. 図28に示された補正システムが行う制御の一例を示すフローチャート。The flowchart which shows an example of the control performed by the correction system shown in FIG. 28.

以下、本発明の一実施形態を図面を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

以下の説明では、圃場の点検保守(例えば、病害や生理障害が生じた個所の特定と、その箇所への農薬や肥料の散布など)に無人航空機として構成されたドローンを利用するという用途を例にとり、本発明の実施形態を説明する。しかし、この用途は説明のための例示にすぎず、他の用途に同実施形態を適用することを制限する趣旨ではない。 In the following explanation, an example is the use of a drone configured as an unmanned aerial vehicle for inspection and maintenance of a field (for example, identification of a location where a disease or physiological disorder has occurred and spraying pesticides or fertilizers on that location). Hereinafter, embodiments of the present invention will be described. However, this use is merely an example for illustration purposes and is not intended to limit the application of the embodiment to other uses.

図1は、本発明の一実施形態に係るドローンを用いた作業を支援するシステムの全体構成を示す。 FIG. 1 shows the overall configuration of a system that supports work using a drone according to an embodiment of the present invention.

図1に示される作業支援システム1は、典型的には、複数の異なるユーザがこれを利用することができるものである。しかし、以下では、複数のユーザの中の一人のユーザの利用シーンに的を絞って説明を進める。 The work support system 1 shown in FIG. 1 is typically available to a plurality of different users. However, in the following, the explanation will be focused on the usage scene of one user among a plurality of users.

図1に示すように、作業支援システム1を利用する際、ユーザは異なる作業に適した異なる種類のドローン、例えば二種類のドローン3、5を使用することができる。本実施形態では、その一つは調査ドローン3であり、ユーザが所望する地理的領域つまり地域(例えば、そのユーザが保有または利用する圃場)の状態を調査、つまりその地域の情報を収集する役目をもつ。本実施形態では、地域調査の方法として、その地域の写真を上空から撮影することを採用する。しかし、写真撮影は一つの例示であり、他の調査方法、例えば、電波レーダ、音波レーダ、あるいは各種のセンサを用いた情報収集法を採用してもよい。また、異なる調査方法を組み合わせてもよい。 As shown in FIG. 1, when using the work support system 1, the user can use different types of drones suitable for different tasks, for example, two types of drones 3, 5. In the present embodiment, one of them is the survey drone 3, which serves to survey the state of the geographical area, that is, the area (for example, the field owned or used by the user) desired by the user, that is, to collect information on the area. Have. In the present embodiment, as a method of the area survey, a photograph of the area is taken from the sky. However, photography is an example, and other survey methods, such as radio radar, sound wave radar, or information gathering methods using various sensors, may be adopted. Moreover, you may combine different investigation methods.

本実施形態では、もう一つの種類のドローンは、実作業ドローン5であり、その地域で実施されるべきある種の作業(以下、実作業という)、例えば広大な圃場の中で病害が発生した個所へ選択的に農薬を散布する作業、を実行する役目をもつ。 In this embodiment, another type of drone is the actual work drone 5, which is a type of work that should be performed in the area (hereinafter referred to as actual work), for example, a disease has occurred in a vast field. It has the role of selectively spraying pesticides on the spots.

調査ドローン3と実作業ドローン5として、同じ機体のドローンを用いてもよいが、それぞれの役目を最適に果たすためには、それぞれに別の機体のドローンを用いることが望ましい場合が多いであろう。また、一つの地域について、複数機の調査ドローン3を用いる、および/または複数機の実作業ドローン5を用いることも可能である。しかし、以下では、一人のユーザが一機の調査ドローン3と別の一機の実作業ドローン5を用いる場合を例にとり、説明を進める。 The same aircraft drone may be used as the survey drone 3 and the actual work drone 5, but it is often desirable to use different aircraft drones in order to optimally fulfill their respective roles. It is also possible to use a plurality of survey drones 3 and / or a plurality of actual work drones 5 for one area. However, in the following, the description will proceed by taking as an example the case where one user uses one survey drone 3 and another actual work drone 5.

作業支援システム1は、また、データサーバ7を有し、これはドローン3、5の利用に必要なさまざまなデータを管理および処理するためのコンピュータシステムである。 The work support system 1 also has a data server 7, which is a computer system for managing and processing various data necessary for using the drones 3 and 5.

さらに、作業支援システム1を利用する際、ユーザは操作端末9を使用する。操作端末9は、データサーバ7とインターネットのような通信ネットワークを通じてデータ通信を行う機能をもつ。操作端末9は、また、ドローン3、5とデータを受け渡しする機能をもつ(例えば、有線または無線の通信方法により、または、可搬式のデータストレージを介して、ドローン3、5とデータを受け渡しできる)。 Further, when using the work support system 1, the user uses the operation terminal 9. The operation terminal 9 has a function of performing data communication with the data server 7 through a communication network such as the Internet. The operation terminal 9 also has a function of transferring data to and from the drones 3 and 5 (for example, data can be exchanged with the drones 3 and 5 by a wired or wireless communication method or via a portable data storage. ).

そのような機能をもつ汎用の携帯可能な情報処理端末(例えば、いわゆる携帯電話、スマートフォン、タブレット端末、モバイル形パーソナルコンピュータ、またはノート形パーソナルコンピュータなど)、あるいは、他の種類のコンピュータ(例えば、デスクトップ型パーソナルコンピュータ)を、操作端末9として採用することができる。その場合、この作業支援システム1を利用するためのコンピュータプログラム(例えば、本システム専用のアプリケーション、あるいは、データサーバ7の外部インタフェースであるウェブサイトにアクセス可能な汎用ウェブブラウザ、など)が、その汎用の情報処理端末にインストールされ、その端末上でそのコンピュータプログラムを実行することにより、その汎用端末が、この作業支援システム1用の操作端末9として機能することになる。あるいは、操作端末9として、この作業支援システム1に専用のハードウェアが用意されてもよい。 A general-purpose portable information processing terminal having such a function (for example, a so-called mobile phone, a smartphone, a tablet terminal, a mobile personal computer, or a notebook personal computer), or another type of computer (for example, a desktop). A type personal computer) can be adopted as the operation terminal 9. In that case, a computer program for using the work support system 1 (for example, an application dedicated to this system or a general-purpose web browser that can access a website that is an external interface of the data server 7) is the general-purpose. By being installed in the information processing terminal of the above and executing the computer program on the terminal, the general-purpose terminal functions as an operation terminal 9 for the work support system 1. Alternatively, as the operation terminal 9, dedicated hardware may be prepared for the work support system 1.

各ユーザは、作業支援システム1を利用する際、常に同じ一台の操作端末9のみを使用してもよいし、時と場合に応じて複数の操作端末9の中の一つを適宜に選択して使用してもいい。また、複数の異なるユーザが、それぞれの操作端末9を使って、同じ地域(例えば、同じ圃場)に関する情報を参照して、所望の情報を入力することもできる。以下では、一人のユーザが一台の操作端末9を使用する場合を例にとり、説明を進める。 When using the work support system 1, each user may always use only the same one operation terminal 9, or appropriately select one of a plurality of operation terminals 9 depending on the time and the case. You can use it. Further, a plurality of different users can use their respective operation terminals 9 to refer to information about the same area (for example, the same field) and input desired information. In the following, the description will proceed by taking the case where one user uses one operation terminal 9 as an example.

調査ドローン3は、それを飛行させるための飛行機構11、その三次元位置(緯度、経度、高度)を計測するためのGPSレシーバ13、写真を撮影するためのカメラ15、それらの装置11、13、15を制御するための制御器17を有する。また、調査ドローン3には、それをユーザが遠隔から無線で操縦するための無線操縦器19(いわゆるプロポ)が付属する。無線操縦器19は、制御器17と無線で通信可能であり、無線操縦器19に対するユーザの各種操作に応答して、各種の操縦指令を制御器17に送信する。 The survey drone 3 includes a flight mechanism 11 for flying it, a GPS receiver 13 for measuring its three-dimensional position (latitude, longitude, altitude), a camera 15 for taking a picture, and their devices 11, 13 , 15 has a controller 17 for controlling. Further, the survey drone 3 is attached with a radio control device 19 (so-called radio control) for the user to remotely control it wirelessly. The radio-controlled model 19 can wirelessly communicate with the controller 17, and transmits various control commands to the controller 17 in response to various user operations on the radio-controlled model 19.

実作業ドローン5は、それを飛行させるための飛行機構21、その三次元位置(緯度、経度、高度)を計測するためのGPSレシーバ23、実作業を行うための実作業装置25、それらの装置21、23、25を制御するための制御器27を有する。実作業が圃場での農薬散布である場合、実作業機械25は当然に農薬散布装置であるが、これに、補助的な装置、例えば、実作業の状況を撮影するカメラなどが追加装備されてもよい。また、実作業ドローン5には、それをユーザが遠隔から無線で操縦するための無線操縦器29(いわゆるプロポ)が付属する。無線操縦器29は、制御器27と無線で通信可能であり、無線操縦器29に対するユーザの各種操作に応答して、各種の操縦指令を制御器27に送信する。 The actual work drone 5 includes a flight mechanism 21 for flying it, a GPS receiver 23 for measuring its three-dimensional position (latitude, longitude, altitude), an actual work device 25 for performing actual work, and those devices. It has a controller 27 for controlling 21, 23, 25. When the actual work is pesticide spraying in the field, the actual work machine 25 is naturally a pesticide spraying device, but an auxiliary device such as a camera for photographing the actual work situation is additionally equipped. May be good. Further, the actual work drone 5 is attached with a radio control device 29 (so-called radio control) for the user to remotely control it wirelessly. The radio-controlled model 29 can wirelessly communicate with the controller 27, and transmits various control commands to the controller 27 in response to various user operations on the radio-controlled model 29.

操作端末9は、それをユーザが使用する通常のステップの順序に沿って、地域登録部31、飛行計画入力部33、飛行計画出力部35、撮影画像入力部37、撮影画像出力部39、撮影位置入力部41、撮影位置出力部43、画像表示部45、作業個所登録部47、作業結果入力部48、および作業結果出力部49などの情報処理機能要素を有する。 The operation terminal 9 has the area registration unit 31, the flight plan input unit 33, the flight plan output unit 35, the photographed image input unit 37, the photographed image output unit 39, and the photographed image in the order of the normal steps in which the user uses the operation terminal 9. It has information processing function elements such as a position input unit 41, a shooting position output unit 43, an image display unit 45, a work location registration unit 47, a work result input unit 48, and a work result output unit 49.

地域登録部31は、ユーザ入力に応答して、ユーザの所望する地理的領域つまり地域(例えばそのユーザが保有する圃場)の位置(例えば、その地域の輪郭の頂点の緯度と経度)(以下、地域位置という)をデータサーバ7に登録する。 In response to user input, the area registration unit 31 responds to the position of the geographical area, that is, the area (for example, the field owned by the user) desired by the user (for example, the latitude and longitude of the apex of the contour of the area) (hereinafter, Register the area location) in the data server 7.

飛行計画入力部33は、ユーザ入力に応答して、データサーバ7から、ユーザの所望する飛行計画をダウンロードする。飛行計画出力部35は、ユーザ入力に応答して、ダウンロードされた飛行計画を、ユーザの所望するドローン3または5に送信して、そのドローン3または5の制御器17または27にその飛行計画をインストールさせる。ここで、飛行計画とは、ドローンが飛行する予定の地理的経路を定義した一種の移動計画である。 The flight plan input unit 33 downloads the flight plan desired by the user from the data server 7 in response to the user input. The flight plan output unit 35 sends the downloaded flight plan to the drone 3 or 5 desired by the user in response to the user input, and sends the flight plan to the controller 17 or 27 of the drone 3 or 5. Install it. Here, the flight plan is a kind of movement plan that defines the geographical route that the drone will fly.

撮影画像入力部37は、ユーザ入力に応答して、調査ドローン3で撮影された画像(一つの地域で多数の画像が撮影される)(以下、撮影画像という)を受け取る。撮影画像出力部39は、ユーザ入力に応答して、受け取った多数の撮影画像をデータサーバ7へ送信する。 In response to the user input, the captured image input unit 37 receives an image captured by the survey drone 3 (a large number of images are captured in one area) (hereinafter, referred to as a captured image). The captured image output unit 39 transmits a large number of received captured images to the data server 7 in response to the user input.

撮影位置入力部41は、ユーザ入力に応答して、調査ドローン3で計測された各撮影画像の撮影時の調査ドローン3(またはカメラ15)の位置および角度(以下、撮影の位置と角度を総称して撮影位置という)を受け取る。撮影位置出力部43は、ユーザ入力に応答して、受け取った撮影位置をデータサーバ7へ送信する。 The shooting position input unit 41 responds to the user input and responds to the position and angle of the survey drone 3 (or camera 15) at the time of shooting each shot image measured by the survey drone 3 (hereinafter, the shooting position and angle are collectively referred to). And receive the shooting position). The shooting position output unit 43 transmits the received shooting position to the data server 7 in response to the user input.

画像表示部45は、ユーザ入力に応答して、データサーバ7から、そのユーザがすでに登録した地域の全体の画像(以下、地域画像という)をダウンロードして、操作端末9の表示スクリーン(図示省略)に表示する。ここで、各地域画像は、データサーバ7によって、その地域の多数の撮影画像を結合することが作成される。 In response to user input, the image display unit 45 downloads an entire image of the area already registered by the user (hereinafter referred to as an area image) from the data server 7, and displays the display screen of the operation terminal 9 (not shown). ). Here, each area image is created by the data server 7 to combine a large number of captured images of the area.

作業個所登録部47は、ユーザ入力に応答して、表示された地域画像上で、その地域内の実作業を施したい1以上の地理的小領域つまり個所(以下、作業個所という)を特定して、その作業個所をデータサーバ7に登録する。例えば、実作業が圃場の農薬散布である場合、ある圃場の地域画像の中から、ユーザが作物や葉などの色や形を観察して病害が発生していると認めた個所を、作業個所とすることができる。この作業個所の登録の際、ユーザは、その作業個所に対して実施したい作業の内容(例えば、農薬Aと農薬Bを散布する)も併せて指定して、作業個所に関連付けてデータサーバ7に登録する。 In response to user input, the work location registration unit 47 identifies one or more geographical small areas, that is, locations (hereinafter referred to as work locations) in which the actual work in the region is to be performed on the displayed region image. Then, the work place is registered in the data server 7. For example, when the actual work is spraying pesticides in a field, the work place is the place where the user observes the color and shape of crops and leaves and recognizes that a disease has occurred from the area image of a certain field. Can be. When registering this work location, the user also specifies the content of the work to be performed on the work location (for example, spraying pesticide A and pesticide B), and associates it with the work location on the data server 7. register.

作業結果入力部48は、ユーザ入力に応答して、実作業ドローン5が実施した実作業の結果(例えば、農薬の散布位置と散布量など)を受け取る。作業結果出力部49は、ユーザ入力に応答して、受け取った作業結果をデータサーバ7へ送信する。 The work result input unit 48 receives the result of the actual work performed by the actual work drone 5 (for example, the spraying position and the spraying amount of the pesticide) in response to the user input. The work result output unit 49 responds to the user input and transmits the received work result to the data server 7.

データサーバ7は、地域位置データベース51、三次元地図データベース53、飛行計画データベース55、撮影画像データベース57、撮影位置データベース59、地域画像データベース61、作業個所データベース63、および作業結果データベース65などのデータベースを有する。また、データサーバ7は、飛行計画作成部71、撮影画像入力部73、撮影位置入力部75、撮影画像結合部77、および分析部79などの情報処機能理要素を有する。 The data server 7 includes databases such as a regional location database 51, a three-dimensional map database 53, a flight planning database 55, a captured image database 57, a captured position database 59, a regional image database 61, a work location database 63, and a work result database 65. Have. Further, the data server 7 has information processing functional elements such as a flight plan creation unit 71, a photographed image input unit 73, a photographed position input unit 75, a photographed image combining unit 77, and an analysis unit 79.

地域位置データベース51は、操作端末9の地域登録部31に応答して、ユーザが指定した地域(例えば、そのユーザの圃場)の地域位置を登録し管理する。 The area location database 51 registers and manages the area position of the area designated by the user (for example, the field of the user) in response to the area registration unit 31 of the operation terminal 9.

三次元地図データベース53は、各位置の緯度と経度と高度を定義した三次元地図を保存し管理する。三次元地図データベース53は、ドローン3、5のための飛行計画を作成するために、飛行計画作成部71によって利用される。なお、データサーバ7は、三次元地図データベース53をサーバ7内にもたずに、インターネット上などにある外部の三次元地図を利用してもよい。 The three-dimensional map database 53 stores and manages a three-dimensional map that defines the latitude, longitude, and altitude of each position. The three-dimensional map database 53 is used by the flight planning unit 71 to create flight plans for drones 3, 5. The data server 7 may use an external three-dimensional map on the Internet or the like without having the three-dimensional map database 53 in the server 7.

飛行計画データベース55は、ドローン3、5のための飛行計画を保存し管理する。飛行計画データベース55は、操作端末9の飛行計画入力部33から要求を受けて、要求された飛行計画を飛行計画入力部33へ送る。飛行計画データベース55で管理される飛行計画は、例えば調査飛行計画と実作業飛行計画の二種類に大別される。調査飛行計画は、登録された各地域を調査用ドローン3で調査する(例えば写真を撮影する)ための飛行計画である。実作業飛行計画は、登録された各地域内の1以上の作業個所に実作業ドローン5で実作業(例えば農薬散布)を施すための飛行計画である。 The flight plan database 55 stores and manages flight plans for drones 3 and 5. The flight plan database 55 receives a request from the flight plan input unit 33 of the operation terminal 9 and sends the requested flight plan to the flight plan input unit 33. The flight plans managed in the flight plan database 55 are roughly classified into two types, for example, a survey flight plan and an actual work flight plan. The survey flight plan is a flight plan for surveying (for example, taking a picture) each registered area with the survey drone 3. The actual work flight plan is a flight plan for performing actual work (for example, spraying pesticides) with the actual work drone 5 at one or more work locations in each registered area.

撮影画像データベース57は、操作端末9の撮影画像出力部39から受け取った撮影画像を保存し管理する。撮影位置データベース59は、操作端末9の撮影位置出力部43から受け取った撮影位置を保存し管理する。 The captured image database 57 stores and manages captured images received from the captured image output unit 39 of the operation terminal 9. The shooting position database 59 stores and manages the shooting position received from the shooting position output unit 43 of the operation terminal 9.

地域画像データベース61は、各地域の撮影画像を結合することで作成された各地域の全貌を示す地域画像を保存し管理する。地域画像データベース61は、操作端末9の画像表示部45からの要求を受けて、要求された地域画像を画像表示部45へ送る。 The regional image database 61 stores and manages regional images showing the entire picture of each region created by combining captured images of each region. The area image database 61 receives a request from the image display unit 45 of the operation terminal 9 and sends the requested area image to the image display unit 45.

作業個所データベースは、操作端末9の作業個所登録部47に応答して、ユーザにより指定された作業個所を登録し管理する。 The work location database registers and manages the work location specified by the user in response to the work location registration unit 47 of the operation terminal 9.

作業結果データベース65は、操作端末9の作業結果出力部49から受け取った作業結果を保存し管理する。 The work result database 65 stores and manages the work results received from the work result output unit 49 of the operation terminal 9.

撮影画像入力部73と撮影位置入力部75は、それぞれ、調査ドローン3から操作端末9に渡された撮影画像と撮影位置を、操作端末9から受け取り撮影画像データベース57と撮影位置データベース59に登録する。 The photographed image input unit 73 and the photographed position input unit 75 receive the photographed image and the photographed position passed from the survey drone 3 to the operation terminal 9 from the operation terminal 9, and register them in the photographed image database 57 and the photographed position database 59, respectively. ..

飛行計画作成部71は、各地域の調査飛行計画、および、各地域内の1以上の作業個所の実作業飛行計画を作成し、作成した飛行計画を飛行計画データベース55に登録する。飛行計画作成部71は、全自動で飛行計画を作成できる全自動ツールであってもよいし、あるいは、人がそれを操作して飛行計画を作成できるようになった半自動ツールであってもよい。 The flight plan creation unit 71 creates a survey flight plan for each region and an actual work flight plan for one or more work locations in each region, and registers the created flight plan in the flight plan database 55. The flight plan creation unit 71 may be a fully automatic tool that can create a flight plan fully automatically, or a semi-automatic tool that allows a person to operate it to create a flight plan. ..

各地域の調査飛行計画は、地域位置データベース51内の各地域の地域位置(例えばその地域の輪郭の頂点の緯度と経度)と、三次元地図データベース53内の各地域内の諸地点の三次元位置(例えば緯度と経度と高度)を用いて作成される。各地域内の1以上の作業個所の実作業飛行計画は、作業個所データベース63内の該当の作業個所の位置(例えば、作業個所の輪郭の頂点の緯度と経度)と、三次元地図データベース53内の各作業個所内の諸地点の三次元位置(例えば緯度と経度と高度)を用いて作成される。 The survey flight plan for each region includes the regional location of each region in the regional location database 51 (for example, the latitude and longitude of the apex of the contour of the region) and the three-dimensional position of various points in each region in the three-dimensional map database 53. Created using (eg latitude, longitude and altitude). The actual work flight plan for one or more work locations in each region includes the location of the work location in the work location database 63 (eg, the latitude and longitude of the apex of the contour of the work location) and in the 3D map database 53. It is created using the three-dimensional positions (eg latitude, longitude and altitude) of various points within each work location.

撮影画像入力部73は、操作端末9の撮影画像出力部39から各地域の撮影画像を受け取り、受け取った撮影画像を撮影画像データベース57に登録する。撮影位置入力部75は、操作端末9の撮影位置出力部43から各地域の撮影位置を受け取り、受け取った撮影位置を撮影位置データベース59に登録する。 The photographed image input unit 73 receives a photographed image of each area from the photographed image output unit 39 of the operation terminal 9, and registers the received photographed image in the photographed image database 57. The shooting position input unit 75 receives the shooting position of each area from the shooting position output unit 43 of the operation terminal 9, and registers the received shooting position in the shooting position database 59.

撮影画像結合部77は、撮影画像データベース57内の各地域の撮影画像を、撮影位置データベース59内の各地域撮影位置に基づいて結合し、各地域の全体を表した地域画像を作成し、その地位画像を地域画像データベース61に登録する。各地域の地域画像は、その地域の調査(例えば写真撮影)の結果をユーザに知らせるための調査報告としての役割を果たす。各地域の地域画像を参照することで、ユーザは、その地域内のどの個所に実作業(例えば農薬散布)を施すべきかを判断し、その個所を指定することができる。 The photographed image combining unit 77 combines the photographed images of each area in the photographed image database 57 based on each area photographed position in the photographed position database 59 to create a regional image showing the whole of each area, and creates a regional image thereof. The position image is registered in the regional image database 61. The area image of each area serves as a survey report for informing the user of the result of the survey (for example, photography) of the area. By referring to the area image of each area, the user can determine which part in the area the actual work (for example, pesticide spraying) should be applied and specify the part.

分析部79は、作業結果データベース65に保管されている作業結果を分析する。作業結果の分析結果は、後の作業方法の改善やその他の用途に活用することができる。 The analysis unit 79 analyzes the work results stored in the work result database 65. The analysis result of the work result can be utilized for the improvement of the work method and other uses later.

図2は、この作業支援システム1の全体的な制御例の流れを示す。 FIG. 2 shows the flow of an overall control example of the work support system 1.

図2に示すように、操作端末9では、ユーザによって、所望の地域(例えばそのユーザの保有する圃場)の登録のための操作が行われる(ステップS1)。登録操作は、例えば、インターネットで提供されているような地図を操作端末9のスクリーンに表示して、その地図上で地域の地域位置を指定するというような操作である。この登録操作に応答して、データサーバ7が、その地域の地域位置を記録することで、その地域を登録する(ステップS2)。その後、データサーバ7は、その地域位置に基づいて、その地域の調査飛行計画を作成する(ステップS3)。 As shown in FIG. 2, in the operation terminal 9, the user performs an operation for registering a desired area (for example, a field owned by the user) (step S1). The registration operation is, for example, an operation of displaying a map as provided on the Internet on the screen of the operation terminal 9 and designating the area position of the area on the map. In response to this registration operation, the data server 7 registers the area by recording the area position of the area (step S2). After that, the data server 7 creates a survey flight plan for the area based on the location of the area (step S3).

その後、ユーザが操作端末9を操作して、データサーバ7から操作端末9に、その地域の調査飛行計画をダウンロードし、その調査飛行計画を、操作端末9から調査ドローン3に送る(ステップS4)。すると、その調査ドローン3にその調査飛行計画がインストールされる(ステップS5)。 After that, the user operates the operation terminal 9, downloads the survey flight plan of the area from the data server 7 to the operation terminal 9, and sends the survey flight plan from the operation terminal 9 to the survey drone 3 (step S4). .. Then, the survey flight plan is installed in the survey drone 3 (step S5).

ユーザが、調査ドローン3をその地域(例えば、ユーザの保有する圃場)へもっていき、そして、無線操縦器19を操作して、調査ドローン3に、離陸およびその他の補助的な操縦指示を送る(ステップS6)。調査ドローン3は、調査飛行計画に基本的に従って、自動的かつ自律的に、その地域の上空を飛行しつつ、飛行経路上の諸位置で地表領域の写真撮影を繰り返して、多くの撮影画像と撮影位置を記録する(ステップS7)。この飛行の制御は、基本的には調査飛行計画に従って自動的かつ自律的に行われ、無線操縦器19からの操縦指示は、離陸の開始や、飛行位置または速度の若干の修正など、補助的に使用される。 The user takes the exploration drone 3 to the area (eg, the field owned by the user) and operates the radio control 19 to send the exploration drone 3 takeoff and other ancillary maneuvering instructions (eg, the user's own field). Step S6). The survey drone 3 automatically and autonomously flies over the area according to the survey flight plan, and repeatedly takes photographs of the surface area at various positions on the flight path, and many captured images and Record the shooting position (step S7). The control of this flight is basically performed automatically and autonomously according to the survey flight plan, and the flight instructions from the radio control device 19 are auxiliary such as the start of takeoff and slight modification of the flight position or speed. Used for.

その地域の多数の撮影画像と撮影位置は、調査ドローン3から操作端末9に渡され、そして、操作端末9からデータサーバ7に送られる(ステップS8)。データサーバ7が、それらの撮影画像をそれぞれの撮影位置に応じて結合して、その地域全体の地域画像を作成する(ステップS9)。 A large number of captured images and captured positions in the area are passed from the survey drone 3 to the operating terminal 9 and then sent from the operating terminal 9 to the data server 7 (step S8). The data server 7 combines these captured images according to their respective captured positions to create a regional image of the entire region (step S9).

その後、ユーザが操作端末9を操作して、データサーバ7からその地域の地域画像を受け取ってスクリーンに表示し、そして、その表示された地域画像上で作業個所(例えば、その圃場の中の病害が発生していると視認される個所)を特定し、その作業個所の登録をサーバ7に要求する(ステップS10)。データサーバ7は、その作業個所を登録し、そして、その作業個所の実作業飛行計画(例えば、その個所に農薬を散布するための飛行計画)を作成する(ステップS11)。 After that, the user operates the operation terminal 9, receives the area image of the area from the data server 7, displays it on the screen, and works on the displayed area image (for example, a disease in the field). The location where is visually recognized as occurring) is specified, and the server 7 is requested to register the work location (step S10). The data server 7 registers the work site and creates an actual work flight plan for the work site (for example, a flight plan for spraying pesticides at the work site) (step S11).

その後、ユーザが操作端末9を操作して、データサーバ7から操作端末9に、その実作業飛行計画をダウンロードし、その実作業飛行計画を、操作端末9から実作業ドローン5に送る(ステップS12)。すると、その実作業ドローン5にその実作業飛行計画がインストールされる(ステップS13)。 After that, the user operates the operation terminal 9, downloads the actual work flight plan from the data server 7 to the operation terminal 9, and sends the actual work flight plan from the operation terminal 9 to the actual work drone 5 (step S12). Then, the actual work flight plan is installed in the actual work drone 5 (step S13).

ユーザが、実作業ドローン5をその地域(例えば、ユーザの保有する圃場)へもっていき、そして、無線操縦器29を操作して、実作業ドローンに、離陸およびその他の補助的な操縦指示を送る(ステップS14)。実作業ドローン5は、基本的に実作業飛行計画に従って、作業個所の上空を飛行しつつ作業個所に実作業(例えば、圃場の病害個所へに農薬散布)を実施し、その作業結果を記録する(ステップS15)。この飛行の制御は、基本的には実作業飛行計画に従って自動的かつ自律的に行われ、無線操縦器19からの操縦指示は、離陸の開始や、飛行位置または速度の若干の修正など、補助的に使用される。 The user takes the working drone 5 to the area (eg, the field owned by the user) and operates the radio control 29 to send the working drone takeoff and other auxiliary maneuvering instructions. (Step S14). The actual work drone 5 basically carries out actual work (for example, spraying pesticides on diseased parts in the field) at the work place while flying over the work place according to the actual work flight plan, and records the work result. (Step S15). The control of this flight is basically performed automatically and autonomously according to the actual flight plan, and the flight instruction from the radio control device 19 assists such as the start of takeoff and slight correction of the flight position or speed. Used for

その作業結果は、実作業ドローン5から操作端末9に渡され、そして、操作端末9からデータサーバ7に送られる(ステップS16)。データサーバ7が、その作業結果を保存し、そして分析する(ステップS17)。 The work result is passed from the actual work drone 5 to the operation terminal 9, and is sent from the operation terminal 9 to the data server 7 (step S16). The data server 7 saves and analyzes the work result (step S17).

以上の制御流れから分かるように、ユーザは操作端末9を使って比較的に容易に、ドローン3、5を利用して、所望の地域における所望の作業を実施することができる。 As can be seen from the above control flow, the user can relatively easily perform the desired work in the desired area by using the drones 3 and 5 using the operation terminal 9.

以下では、上述の制御流れを複数部分に分け、各部分をより詳細に説明する。 In the following, the above-mentioned control flow is divided into a plurality of parts, and each part will be described in more detail.

図3は、この作業支援システム1における地域位置の登録の制御例の流れを示す。 FIG. 3 shows a flow of a control example of registration of the area position in the work support system 1.

図3に示すように、操作端末9において、ユーザが自分のユーザ認証情報を入力してデータサーバ7へのログインを要求する(ステップS21)。データサーバ7は、そのユーザを認証してユーザのログインを許可する(ステップS22)。 As shown in FIG. 3, in the operation terminal 9, the user inputs his / her own user authentication information and requests login to the data server 7 (step S21). The data server 7 authenticates the user and allows the user to log in (step S22).

そして、操作端末9で、ユーザが地図を表示し(ステップS23)、その地図上で所望の地域(例えば、自分の圃場)を指定する(ステップS24)。また、ユーザは操作端末9上で、その地域の名前を入力する(ステップS25)。 Then, on the operation terminal 9, the user displays a map (step S23) and specifies a desired area (for example, his / her own field) on the map (step S24). Further, the user inputs the name of the area on the operation terminal 9 (step S25).

ここで使用される地図は、例えばインターネットから提供される地図でも、あるいは、データサーバ7から提供される地図でもよい。地域の指定方法としては、例えば地図上でユーザが所望地域の輪郭の頂点を指定する方法が採用できる。あるいは、その輪郭が定義済みの地域名(例えば、地名や地番)を入力する方法も採用できる。地域の頂点が指定されると、それらの頂点の位置(例えば緯度と経度)が操作端末9により特定される。 The map used here may be, for example, a map provided from the Internet or a map provided from the data server 7. As a method for designating the area, for example, a method in which the user specifies the apex of the outline of the desired area on the map can be adopted. Alternatively, a method of inputting a region name (for example, a place name or a lot number) whose outline is defined can be adopted. When the vertices of the region are specified, the positions of those vertices (for example, latitude and longitude) are specified by the operation terminal 9.

そして、操作端末9が、指定された地域名と地域位置をデータサーバ7へ送る(ステップS26)。データサーバ7は、その地域名と地域位置とその地域のID(識別名)とを、そのユーザのID(識別名)に関連づけて、地域位置データベース51に登録する(ステップS27)。 Then, the operation terminal 9 sends the designated area name and area position to the data server 7 (step S26). The data server 7 associates the area name, the area location, and the area ID (identification name) with the user's ID (identification name), and registers the area location database 51 (step S27).

図4は、上述した地域位置の指定方法例と登録される地域位置のデータ構成例を示す。 FIG. 4 shows an example of the above-mentioned method for designating the area position and an example of the data configuration of the registered area position.

図4の左側部分に示すように、ある地域81を指定する方法として、ユーザは、地図上でその地域81の輪郭83の頂点A1〜A5を指定することができる。これに加えて、ユーザは、ドローンを発着させることができる発着点P1の位置も、その地域81内またはその地域81の周辺近傍に指定してよい。これらの点が地図上で指定されると、その地図がもつ位置座標系(例えば緯度と経度の座標系)に基づいて、それらの指定点A1〜A5、P1の位置(例えば緯度と経度(Xa1, Ya1)〜(Xa5, Ya5)、(Xp1, Yp1))が操作端末9により自動的に特定される。 As shown in the left side portion of FIG. 4, as a method of designating a certain area 81, the user can specify the vertices A1 to A5 of the contour 83 of the area 81 on the map. In addition to this, the user may also specify the position of the departure / arrival point P1 at which the drone can arrive and depart within the area 81 or near the periphery of the area 81. When these points are specified on the map, the positions of those specified points A1 to A5 and P1 (for example, latitude and longitude (Xa1)) are based on the position coordinate system of the map (for example, the coordinate system of latitude and longitude). , Ya1) to (Xa5, Ya5), (Xp1, Yp1)) are automatically specified by the operation terminal 9.

そして、データサーバ7では、図4の右側部分に示すように、地域ID87と地域名88と地域位置(例えば、すべての頂点の緯度と経度のセット)89と発着点位置(例えば発着点の緯度と経度)91が、地域データ93として、それらを指定したユーザのユーザID85に関連づけられて、地域位置データベース51に保存される。 Then, in the data server 7, as shown in the right part of FIG. 4, the area ID 87, the area name 88, the area position (for example, a set of latitude and longitude of all vertices) 89, and the departure / arrival point position (for example, the latitude of the departure / arrival point) And longitude) 91 are stored in the regional location database 51 as regional data 93 in association with the user ID 85 of the user who specified them.

図5は、調査飛行計画の作成と設定の制御例の流れを示す。 FIG. 5 shows the flow of a control example of creating and setting a survey flight plan.

図5に示すように、データサーバ7が、地域位置データベース51内のあるユーザが登録した地域の地域位置と発着点位置に基づいて調査飛行計画を作成する(ステップS31)。調査飛行計画は、調査ドローン3を発着点から離陸させて、その地域の上空を飛行しつつその地域のすべての領域の写真を撮影し、そして、発着点に着陸させるための、撮影ドローン3に対する動作制御指示である。この調査飛行計画を作成する際、データサーバ7は、三次元地図データベース53から提供されるその地域の諸地点の三次元位置(例えば、緯度と経度と高度)を計算に入れて、飛行経路を決定する。 As shown in FIG. 5, the data server 7 creates a survey flight plan based on the regional position and the departure / arrival point position of the region registered by a user in the regional location database 51 (step S31). The research flight plan is for the shooting drone 3 to take off the research drone 3 from the departure / arrival point, take a picture of all areas of the area while flying over the area, and land at the departure / arrival point. This is an operation control instruction. When creating this survey flight plan, the data server 7 takes into account the 3D positions (eg, latitude, longitude and altitude) of the points in the area provided by the 3D map database 53, and determines the flight path. decide.

データサーバ7は、その調査飛行計画を、そのユーザのユーザIDとその地域の地域名とに関連づけて、飛行計画データベース55に登録する(ステップS32)。 The data server 7 registers the survey flight plan in the flight plan database 55 in association with the user ID of the user and the area name of the area (step S32).

その後、そのユーザが、操作端末9からデータサーバ7にログインする(ステップS33〜S34)。データサーバ7が、ユーザ要求に応答して、飛行計画データベース55内から、そのユーザのユーザIDに関連づけられた調査飛行計画を選択し、選択された調査飛行計画のリストを操作端末に送る(ステップS35)。操作端末9は、そのリストを表示する(ステップS36)。 After that, the user logs in to the data server 7 from the operation terminal 9 (steps S33 to S34). In response to the user request, the data server 7 selects the survey flight plan associated with the user ID of the user from the flight plan database 55, and sends a list of the selected survey flight plans to the operation terminal (step). S35). The operation terminal 9 displays the list (step S36).

ユーザは、表示されたリスト中から所望の調査飛行計画を選んでデータサーバ7に要求し、データサーバ7はその調査飛行計画を操作端末に送り、それにより、操作端末9にその調査飛行計画がダウンロードされる(ステップS37〜S38)。 The user selects a desired survey flight plan from the displayed list and requests the data server 7, and the data server 7 sends the survey flight plan to the operation terminal, whereby the survey flight plan is sent to the operation terminal 9. It will be downloaded (steps S37-S38).

その後、ユーザは、その調査飛行計画を操作端末9から調査ドローン3に供給する(ステップS39)。調査ドローン3は、受け取った調査飛行計画を自機の制御器17にインストールする(S40)。 After that, the user supplies the survey flight plan from the operation terminal 9 to the survey drone 3 (step S39). The survey drone 3 installs the received survey flight plan on its own controller 17 (S40).

図6は、登録された地域と調査飛行計画の関係例を示す。 FIG. 6 shows an example of the relationship between the registered area and the survey flight plan.

調査飛行計画には、飛行経路と飛行速度と撮影位置が含まれる。図6の左側部分に示すように、飛行経路113は、発着点P1から離陸し、地域81の全域をカバーする複数の区域のすべての写真が撮影できるよう地域81の上空を飛行し、そして、発着点P1に着陸するまでの調査ドローン3の三次元の経路を、例えばその経路上の飛行方向または速度の変更点の3次元位置(例えば、緯度と経度と高度)を用いて、定義する。 The survey flight plan includes the flight path, flight speed, and shooting position. As shown in the left portion of FIG. 6, flight path 113 takes off from landing point P1 and flies over area 81 so that all photographs of the plurality of areas covering the entire area 81 can be taken. The three-dimensional route of the survey drone 3 until landing at the departure / arrival point P1 is defined by using, for example, the three-dimensional position (for example, latitude, longitude, and altitude) of the flight direction or velocity change point on the route.

飛行速度は、その飛行経路101上の諸区間における飛行速度の制御目標値を定義する。 The flight speed defines a control target value of the flight speed in various sections on the flight path 101.

撮影位置は、図6の右側部分(左側部分の一点鎖線で囲んだ部分の拡大図)に示すように、飛行経路101上の写真撮影を行うべきすべての位置(ドットで図示する)を定義する。 The shooting position defines all the positions (indicated by dots) on the flight path 101 to be photographed, as shown in the right side portion of FIG. 6 (enlarged view of the portion surrounded by the alternate long and short dash line) in FIG. ..

撮影位置の各々は、そこで撮影した写真画像(図6中、実線または破線の長方形で示される)と、その隣の撮影位置で撮影した写真画像とが、それぞれの辺縁部分で重なり合うように、配置される。例えば、図6中、ある撮影位置103で撮影した写真画像103Aは、その上隣の撮影位置105で撮影した写真画像105Aと、それぞれの上辺縁部分と下辺縁部分で重なり合い、また、その左隣の撮影位置107で撮影した写真画像107Aと、それぞれの左辺縁部分と右辺縁で重なり合う。その結果、すべての撮影位置で撮影した写真画像を、相互の重なり合う部分で重ね合わせて、結合することにより、地域81の全域の写真画像(つまり、地域81の地位画像)を合成することができる。 At each of the shooting positions, the photographic image taken there (indicated by a solid line or a broken line rectangle in FIG. 6) and the photographic image taken at the next shooting position overlap at each edge portion. Be placed. For example, in FIG. 6, the photographic image 103A taken at a certain shooting position 103 overlaps with the photographic image 105A taken at the next shooting position 105 at the upper edge portion and the lower edge portion, respectively, and is adjacent to the left side thereof. The photographic image 107A taken at the shooting position 107 of the above overlaps with the left edge portion and the right edge of each. As a result, by superimposing and combining the photographic images taken at all the shooting positions at the overlapping portions, it is possible to synthesize the photographic images of the entire area 81 (that is, the position image of the area 81). ..

図7は、調査飛行計画のデータ構成例を示す。 FIG. 7 shows an example of the data structure of the survey flight plan.

図7に示すように、調査飛行計画109には、その飛行計画のID(識別名)111と、飛行経路(例えば、その経路上のすべての変更点の各々の緯度Xrと経度Yrと高度Zr)と飛行速度(各変更点から次の変更点までの目標速度V)のセット113と、撮影位置(例えば、すべての撮影位置の各々の緯度Xsと経度Ysと高度Zsと撮影角度As)115が含まれる。この調査飛行計画109が、該当のユーザID85と地域ID87に関連づけられて、飛行計画データベース55で管理される。 As shown in FIG. 7, the survey flight plan 109 includes the flight plan ID (identification name) 111 and the flight path (eg, latitude Xr, longitude Yr, and altitude Zr, respectively, of all changes on that path. ) And flight speed (target speed V from each change to the next change) and shooting position (eg, latitude Xs and longitude Ys and altitude Zs and shooting angle As of each shooting position) 115 Is included. The survey flight plan 109 is associated with the corresponding user ID 85 and area ID 87 and managed in the flight plan database 55.

図8は、調査ドローン3を用いた写真撮影の制御例の流れを示す。 FIG. 8 shows a flow of a control example of photography using the survey drone 3.

ユーザは、調査ドローン3を対象の地域の発着点に置いた後、その調査ドローン3用の無線操縦器19を操作して、まず作業開始を調査ドローン3に指示する(ステップS41)。その指示に応答して、調査ドローン3は離陸し(ステップS42)、そして、制御器17による調査飛行計画に従った自動操縦制御により、その飛行計画の飛行経路に沿って飛行しつつ各撮影位置で写真撮影を実行する(ステップS43)。そして、調査ドローン3は、撮影された写真画像と撮影時の撮影位置(例えば、緯度と経度と高度)を記録する(ステップS44)。 After placing the survey drone 3 at the departure / arrival point in the target area, the user operates the radio controller 19 for the survey drone 3 to first instruct the survey drone 3 to start work (step S41). In response to the instruction, the survey drone 3 takes off (step S42), and each shooting position while flying along the flight path of the flight plan by autopilot control according to the survey flight plan by the controller 17. Take a photo with (step S43). Then, the survey drone 3 records the photographed image and the photographing position (for example, latitude, longitude, and altitude) at the time of photographing (step S44).

ユーザは、調査ドローン3の飛行を観察しつつ、その飛行状態(例えば、飛行位置と飛行速度)を修正すべき事情が起きた(例えば、風の影響などで調査ドローン3の飛行状態が飛行計画から外れた、他物体との衝突や危険を避けるために飛行状態を変える必が生じた、など)とき、無線操縦器19を操作して、必要な修正を行うための補助的な操縦指示を調査ドローン3に送る(ステップS45)。調査ドローン3は、その補助的な指示を、例えば自動操縦制御に対する割り込みとして処理することで、その修正指示に従った飛行状態(位置または速度など)の修正を行う(ステップS46)。 While observing the flight of the survey drone 3, the user has a situation in which the flight state (for example, flight position and flight speed) should be corrected (for example, the flight state of the survey drone 3 is a flight plan due to the influence of wind, etc.). When it is out of the way, it is necessary to change the flight state to avoid collision with other objects or danger, etc.), operate the radio controller 19 and give auxiliary maneuvering instructions to make necessary corrections. Send to Survey Drone 3 (step S45). The investigation drone 3 corrects the flight state (position or speed, etc.) according to the correction instruction by processing the auxiliary instruction as, for example, an interrupt to the autopilot control (step S46).

上記の修正の処理が終わると、調査ドローン3は、自動操縦制御に戻って(ステップS47)、調査飛行計画に従った飛行と写真撮影を継続する(S43)。その後、全経路を飛行してすべての撮影位置で写真撮影を行った後、調査ドローン3は、飛行計画で定められた着陸点に着陸する(ステップS48)。 After the above modification process is completed, the research drone 3 returns to the autopilot control (step S47) and continues the flight and photography according to the research flight plan (S43). After that, after flying all routes and taking photographs at all shooting positions, the survey drone 3 lands at the landing point specified in the flight plan (step S48).

調査ドローン3に記録された撮影画像117と撮影位置119は、操作端末7に送られて、操作端末7内に記録される(ステップS49〜S50)。このデータ移送は、飛行中に無線通信で行われてもいいし、着陸後に無線通信か有線通信により、または、撮影画像117と撮影位置119を記録したデータストレージを調査ドローン3から取り出して操作端末7に装着することにより、行われてもよい。 The captured image 117 and the captured position 119 recorded on the survey drone 3 are sent to the operation terminal 7 and recorded in the operation terminal 7 (steps S49 to S50). This data transfer may be performed by wireless communication during flight, by wireless communication or wired communication after landing, or by taking out the data storage recording the captured image 117 and the captured position 119 from the survey drone 3 and operating the operation terminal. It may be done by attaching to 7.

図9は、撮影画像からの地域画像の作成と登録の制御例の流れを示す。 FIG. 9 shows a flow of a control example of creating and registering a regional image from a captured image.

ユーザが、操作端末9を操作してデータサーバ7にログインする(ステップS51〜S52)。その後、データサーバ7が、ユーザ要求に応答して、地域位置データベース51から、そのユーザIDに関連づけられた地域名を選び、その地域名のリストを操作端末9に送る(ステップS53)。操作端末9では、その地域名リストが表示され、ユーザがそのリスト中から所望の地域名を選び(ステップS54)、そして、調査ドローン3から取得した撮影画像121と撮影位置123を、その地域の地域IDに関連づけて、データサーバ7に送る(ステップS55)。 The user operates the operation terminal 9 to log in to the data server 7 (steps S51 to S52). After that, the data server 7 selects the area name associated with the user ID from the area location database 51 in response to the user request, and sends the list of the area names to the operation terminal 9 (step S53). On the operation terminal 9, the area name list is displayed, the user selects a desired area name from the list (step S54), and the photographed image 121 and the imaged position 123 acquired from the survey drone 3 are selected from the list. It is associated with the area ID and sent to the data server 7 (step S55).

データサーバ7は、受け取った撮影画像と撮影位置を、該当のユーザIDと地域IDに関連づけて、撮影画像データベース57と撮影位置データベース59に登録する(ステップS56)。その後、データサーバ7は、撮影画像データベース57と撮影位置データベース59から、その地域の撮影画像と撮影位置を読み出し、撮影画像を撮影位置に応じて結合することで、その地域の全域をカバーする地域画像を合成する(ステップS57)。その地域画像は、該当のユーザIDと地域IDに関連づけられて、地域画像データベース61に登録される(ステップS58)。 The data server 7 registers the received photographed image and the photographed position in the photographed image database 57 and the photographed position database 59 in association with the corresponding user ID and area ID (step S56). After that, the data server 7 reads the photographed image and the photographed position of the area from the photographed image database 57 and the photographed position database 59, and combines the photographed images according to the photographed position to cover the entire area of the area. Combine the images (step S57). The area image is associated with the corresponding user ID and area ID, and is registered in the area image database 61 (step S58).

図10は、地域画像のデータ構成例を示す。 FIG. 10 shows an example of data composition of a regional image.

図10に示すように、地域画像125には、例えば、地域画像のID(識別名)127と、撮影日時129と、その地域全域をカバーする画像データ131が含まれる。この地域画像125が、該当のユーザID85と地域ID87に関連づけられて、地域画像データベース61で管理される。 As shown in FIG. 10, the area image 125 includes, for example, an ID (identification name) 127 of the area image, a shooting date and time 129, and image data 131 covering the entire area. The area image 125 is associated with the corresponding user ID 85 and area ID 87, and is managed in the area image database 61.

図11は、作業個所と実作業飛行計画の登録の制御例の流れを示す。 FIG. 11 shows a flow of a control example of registration of a work location and an actual work flight plan.

図11に示すように、ユーザが操作端末9からデータサーバ7にログインする(ステップS61〜S62)。その後、データサーバ7が、ユーザ要求に応答して、地域画像データベース61から、そのユーザIDに関連づけられた地域画像を選び、その地位画像のリストを操作端末9に送る(ステップS63)。 As shown in FIG. 11, the user logs in to the data server 7 from the operation terminal 9 (steps S61 to S62). After that, the data server 7 selects a regional image associated with the user ID from the regional image database 61 in response to the user request, and sends a list of the status images to the operation terminal 9 (step S63).

操作端末9では、その地域画像のリストが表示され、ユーザがそのリスト中から所望の地位画像を選ぶ(ステップS64)。その選択を受けて、データサーバ7が、地域画像データベース61から選ばれた地域画像を読み出して、それを操作端末9に送る(ステップS65)。操作端末は、その地域画像を表示する(ステップS66)。 On the operation terminal 9, a list of the area images is displayed, and the user selects a desired position image from the list (step S64). In response to the selection, the data server 7 reads the selected regional image from the regional image database 61 and sends it to the operation terminal 9 (step S65). The operation terminal displays the area image (step S66).

ユーザは、操作端末9に表示された地域画像(例えば、圃場の画像)を見て、作業を施したい個所(例えば、圃場の中の農薬散布をしたい個所つまり小領域)を見つけ、その個所を作業個所として地域画像上で指定する(ステップS67)。作業個所の指定は、例えば作業個所の輪郭の頂点を指定するという方法で行うことができる。このステップS67では、また、ユーザは、その作業個所に対して行いたい作業の内容(例えば、「作業種別は農薬散布、使用農薬は農薬Aと農薬B」というように)を指定する。 The user looks at the area image (for example, the image of the field) displayed on the operation terminal 9, finds the place where he / she wants to work (for example, the place where he / she wants to spray pesticides in the field, that is, a small area), and finds the place. Specify the work location on the area image (step S67). The work location can be specified, for example, by designating the apex of the contour of the work location. In this step S67, the user also specifies the content of the work to be performed on the work location (for example, "work type is pesticide spraying, pesticides used are pesticide A and pesticide B").

この指定を受けて、データサーバ7が、地域画像上での作業個所の位置と、地域位置データベース51記録されているその地域の位置とに基づいて、作業個所の位置(例えば、作業個所の輪郭の頂点の緯度と経度)を特定し、その作業個所を作業個所データベース63に登録する(ステップS68)。このステップS68では、また、データベースサーバ7は、ユーザに指定された作業内容を、その作業個所に関連づけて、作業個所データベース63に登録する。 In response to this designation, the data server 7 determines the position of the work location (for example, the outline of the work location) based on the location of the work location on the regional image and the location of the region recorded in the regional location database 51. (Latitude and longitude of the apex of) are specified, and the work location is registered in the work location database 63 (step S68). In step S68, the database server 7 also registers the work content specified by the user in the work location database 63 in association with the work location.

その後、データサーバ7は、登録された作業個所の位置と、三次元地図データベース53に記録されているその地域とその作業個所の諸地点の三次元位置に基づいて、実作業飛行計画を作成する(ステップS69)。実作業飛行計画は、実作業ドローンを、その地域の発着点から離陸させ、その地域内の1以上の作業個所の上空を飛行させて、それぞれの作業個所に実作業(例えば、農薬の散布)を施し、そして、発着点に戻って着陸させるための、実作業ドローン5に対する動作制御指示である。 After that, the data server 7 creates an actual work flight plan based on the position of the registered work place and the three-dimensional position of the area and various points of the work place recorded in the three-dimensional map database 53. (Step S69). The actual work flight plan is to take off the actual work drone from the departure and arrival point in the area, fly over one or more work points in the area, and perform the actual work (for example, spraying pesticides) at each work point. This is an operation control instruction for the actual work drone 5 for returning to the departure / arrival point and landing.

データサーバ7は、その実作業飛行計画を、該当のユーザIDと地域IDと作業個所IDに関連づけて、飛行計画データベース55に登録する(ステップS70)。 The data server 7 registers the actual work flight plan in the flight plan database 55 in association with the corresponding user ID, area ID, and work location ID (step S70).

図12は、作業個所のデータ構成例を示す。 FIG. 12 shows an example of data configuration at the work location.

図12に示すように、作業個所133には、そのID(識別名)、それがユーザに指定された日時、およびその領域の輪郭の頂点の位置(例えば、各頂点の緯度Xaおよび経度Ya)139などを含む。この作業個所133が、該当のユーザID85、地域ID87および地域画像ID127と関連づけられて、作業個所データベース63で管理される。また、作業内容140が、その作業個所133に関連付けられて、作業個所データベース63で管理される。作業内容63を管理することで、その作業内容を後に評価するのに役立つ(例えば、実作業を実施した後に、ドローンで調査飛行を行って、作業個所の状態を調べ、その調査結果と作業内容とを分析することで、評価ができる)。 As shown in FIG. 12, the work location 133 includes its ID (distinguishing name), the date and time it was specified by the user, and the position of the vertices of the contour of the area (eg, latitude Xa and longitude Ya of each vertex). 139 and the like are included. This work place 133 is associated with the corresponding user ID 85, area ID 87, and area image ID 127, and is managed in the work place database 63. Further, the work content 140 is associated with the work location 133 and managed in the work location database 63. By managing the work content 63, it is useful to evaluate the work content later (for example, after performing the actual work, perform a survey flight with a drone to check the state of the work site, and the survey result and the work content. It can be evaluated by analyzing and).

図13は、作業個所と実作業飛行計画との関係例を示す。 FIG. 13 shows an example of the relationship between the work location and the actual work flight plan.

図13に示された例では、地域81内に3つの作業個所141、145、147が指定されており、そのうちの一つの作業個所141に対して一つの実作業飛行計画143が用意されており、二つの作業個所145、147に対して別の一つの実作業飛行計画149が用意されている。作業個所が複数ある場合、それらの作業個所のすべてをカバーする一つの実作業飛行計画を作成するか、図示の例のように異なる作業個所を分担する二以上の実作業飛行計画を作成するかを、ユーザの要求に応じて、あるいは飛行時間の都合などに応じて、適宜に選択できるようになっていてよい。 In the example shown in FIG. 13, three work locations 141, 145, and 147 are designated in the area 81, and one actual work flight plan 143 is prepared for one of the work locations 141. , Another actual work flight plan 149 is prepared for the two work sites 145 and 147. If there are multiple work locations, create one actual work flight plan that covers all of those work locations, or create two or more actual work flight plans that share different work locations as shown in the example shown. May be appropriately selected according to the user's request or the convenience of flight time.

一つの地域81に対して、複数の実作業飛行計画を用意した場合、それぞれの飛行計画に基づいて複数機の実作業ドローン5で作業を実施したり、あるいは、異なる日時に異なる飛行計画に従った作業を実施したりすることができる。 When a plurality of actual work flight plans are prepared for one area 81, work is carried out with a plurality of actual work drones 5 based on each flight plan, or according to different flight plans at different dates and times. You can carry out other tasks.

各実作業飛行計画には、実作業ドローン5の飛行経路と飛行速度が含まれる。例えば、図示の実作業飛行計149には、発着点P1から離陸して、最初の作業個所145へ行き、その全域に実作業(例えば、農薬散布)を施せるよう作業個所145を巡り、そして、次の作業個所147へ行ってそこを同様に巡り、そして、発着点P1に戻り着陸する、というような飛行経路が含まれる。 Each actual work flight plan includes the flight path and speed of the actual work drone 5. For example, the illustrated actual work flight meter 149 takes off from the landing point P1 and goes to the first work point 145, goes around the work place 145 so that the actual work (for example, pesticide spraying) can be applied to the entire area, and then It includes flight paths such as going to the next work site 147, going around it in the same way, and then returning to the departure / arrival point P1 to land.

各実作業飛行計画には、さらに、実作業ドローン5の飛行中に、その実作業装置25を駆動し制御するための制御指示が含まれる。その制御指示には、例えば、実作業(例えば、農薬散布)を実行すべき位置(例えば、作業開始位置と終了位置)や、その他の制御値(例えば。単位時間当たり農薬散布量など)などが含まれ得る。 Each actual work flight plan further includes control instructions for driving and controlling the actual work device 25 during the flight of the actual work drone 5. The control instructions include, for example, the position where the actual work (for example, pesticide spraying) should be executed (for example, the work start position and the end position) and other control values (for example, the amount of pesticide sprayed per unit time). Can be included.

図14は、実作業飛行計画のデータ構成例を示す。 FIG. 14 shows an example of data configuration of an actual work flight plan.

図14に示すように、実作業飛行計画151には、例えば、そのID(識別名)153、飛行経路(例えば、その経路上で飛行方向または速度を変えるべき変更点の緯度Xrと経度Yrと高度Zr)と飛行速度(例えば、各変更点から次の変更点までの速度Vr)155、および、作業位置(例えば、作業の開始位置の緯度Xsと経度Ysと高度Zs、ならびに作業の終了位置の緯度Xeと経度Yeと高度Ze)と制御値(例えば、各開始位置から終了位置までの第一制御量の目標値C1、第二制御量の目標値C2、第三制御量の目標値C3、など)157が含まれる。 As shown in FIG. 14, the actual work flight plan 151 includes, for example, its ID (identification name) 153, the flight path (for example, the latitude Xr and the longitude Yr of the change that should change the flight direction or speed on the path. Altitude Zr) and flight speed (eg, speed Vr from each change to the next change), and work position (eg latitude Xs and longitude Ys and altitude Zs at the start of the work, as well as the end position of the work. Latitude Xe, Longitude Ye, and Altitude Ze) and control values (for example, target value C1 for the first control amount, target value C2 for the second control amount, and target value C3 for the third control amount from each start position to the end position. , Etc.) 157 is included.

また、作業状況を映すカメラが実作業ドローン5に搭載されている場合、そのカメラで写真を撮影するべき位置159(例えば、撮影位置の緯度Xs、経度Ys、高度Zs、および撮影角度As)も、実作業飛行計画151に含まれてよい。 In addition, when a camera that shows the work situation is mounted on the actual work drone 5, the position 159 for taking a picture with the camera (for example, latitude Xs, longitude Ys, altitude Zs, and shooting angle As of the shooting position) is also determined. , May be included in the actual work flight plan 151.

このような構成の実作業事項計画151が、該当のユーザID85、地域ID87および作業個所ID135に関連づけられて、飛行計画データベース55で管理される。 The actual work item plan 151 having such a configuration is associated with the corresponding user ID 85, area ID 87, and work location ID 135, and is managed in the flight plan database 55.

図15は、実作業飛行計画の設定の制御例の流れを示す。 FIG. 15 shows a flow of a control example of setting an actual work flight plan.

図15に示すように、ユーザが、操作端末9からデータサーバ7にログインする(ステップS71〜S72)。データサーバ7が、ユーザ要求に応答して、飛行計画データベース55内から、そのユーザIDに関連づけられた実作業飛行計画を選び、選ばれた実作業飛行計画のリストを操作端末に送る(ステップS72)。操作端末9は、そのリストを表示する(ステップS73)。 As shown in FIG. 15, the user logs in to the data server 7 from the operation terminal 9 (steps S71 to S72). In response to the user request, the data server 7 selects the actual work flight plan associated with the user ID from the flight plan database 55, and sends a list of the selected actual work flight plans to the operation terminal (step S72). ). The operation terminal 9 displays the list (step S73).

ユーザは、表示されたリスト中から所望の実作業飛行計画を選んでデータサーバ7に要求し、データサーバ7はその実作業飛行計画を操作端末に送り、それにより、操作端末9にその実作業飛行計画がダウンロードされる(ステップS74〜S75)。 The user selects a desired actual work flight plan from the displayed list and requests the data server 7, and the data server 7 sends the actual work flight plan to the operation terminal, whereby the actual work flight plan is sent to the operation terminal 9. Is downloaded (steps S74-S75).

その後、ユーザは、その実作業飛行計画を操作端末9から実作業ドローン5に送る(ステップS76)。実作業ドローン5は、受信した実作業飛行計画を自機の制御器27にインストールする(S77)。 After that, the user sends the actual work flight plan from the operation terminal 9 to the actual work drone 5 (step S76). The actual work drone 5 installs the received actual work flight plan on its own controller 27 (S77).

図16は、実作業ドローンを用いた実作業の制御例の流れを示す。 FIG. 16 shows a flow of a control example of actual work using an actual work drone.

ユーザは、実作業ドローン5を対象の地域の発着点に置いた後、その実作業ドローン5用の無線操縦器29を操作して、まず作業開始を実作業ドローン5に指示する(ステップS81)。その指示に応答して、実作業ドローン5は離陸し(ステップS82)、そして、制御器27による実作業飛行計画に従った自動操縦制御により、その飛行計画の飛行経路に沿って飛行しつつ各作業位置(例えば、各作業開始位置から終了位置までの区間)で実作業(例えば、農薬散布)を実行する(ステップS83)。そして、実作業ドローン5は、実施した作業の結果(例えば、農薬散布の開始位置と終了位置と時間と散布量など)を記録する(ステップS84)。 After placing the actual work drone 5 at the departure / arrival point in the target area, the user operates the radio controller 29 for the actual work drone 5 to first instruct the actual work drone 5 to start the work (step S81). In response to the instruction, the actual work drone 5 takes off (step S82), and each of them flies along the flight path of the flight plan by autopilot control according to the actual work flight plan by the controller 27. The actual work (for example, pesticide spraying) is executed at the work position (for example, the section from each work start position to the end position) (step S83). Then, the actual work drone 5 records the result of the performed work (for example, the start position, the end position, the time, and the amount of spraying of the pesticide) (step S84).

ユーザは、実作業ドローン5の飛行を観察しつつ、その飛行状態(例えば、飛行位置と飛行速度)を修正すべき事情が起きた(例えば、風の影響などで実作業ドローン5の飛行位置または速度が飛行計画から外れた、他物体との衝突や危険を避けるために飛行状態を変える必が生じた、など)とき、無線操縦器29を操作して、必要な修正を行うための補助的な操縦指示を実作業ドローン3に送る(ステップS85)。実作業ドローン5は、その補助的な指示を、例えば自動操縦制御に対する割り込みとして処理することで、その修正指示に従った飛行状態(位置または速度など)の修正を行う(ステップS86)。 While observing the flight of the actual work drone 5, the user has a situation in which the flight state (for example, the flight position and the flight speed) should be corrected (for example, the flight position of the actual work drone 5 or the flight position due to the influence of wind, etc.). When the speed deviates from the flight plan, it becomes necessary to change the flight state to avoid collision with other objects or danger, etc.), the radio control 29 is operated to assist in making necessary corrections. Send a flight instruction to the actual work drone 3 (step S85). The actual work drone 5 corrects the flight state (position or speed, etc.) according to the correction instruction by processing the auxiliary instruction as, for example, an interrupt to the autopilot control (step S86).

上記の修正の処理が終わると、実作業ドローン5は、自動操縦制御に戻り(ステップS87)、実作業飛行計画に従った飛行と実作業を継続する(S83)。その後、全経路を飛行してすべての作業位置で実作業を行った後、実作業ドローン5は、飛行計画で定められた着陸点に着陸する(ステップS88)。 When the above modification process is completed, the actual work drone 5 returns to the autopilot control (step S87) and continues the flight and the actual work according to the actual work flight plan (S83). After that, after flying all routes and performing actual work at all work positions, the actual work drone 5 lands at the landing point specified in the flight plan (step S88).

実作業ドローン5に記録された作業結果161は、操作端末7に送られて、操作端末7内に記録される(ステップS89〜S90)。このデータ移送は、飛行中に無線通信で行われてもいいし、着陸後に無線通信か有線通信により、または、作業結果161を記録したデータストレージを実作業ドローン3から外して操作端末7に装着することにより、行われてよい。 The work result 161 recorded in the actual work drone 5 is sent to the operation terminal 7 and recorded in the operation terminal 7 (steps S89 to S90). This data transfer may be performed by wireless communication during flight, by wireless communication or wired communication after landing, or by removing the data storage recording the work result 161 from the actual work drone 3 and attaching it to the operation terminal 7. It may be done by doing so.

その後、図2を参照してすでに説明したように、操作端末7に記録された作業結果163はデータサーバ7へ送られ(ステップS16)、そして、データサーバ7は、その作業結果を、後の有効利用のために分析する(ステップS17)。 After that, as already described with reference to FIG. 2, the work result 163 recorded in the operation terminal 7 is sent to the data server 7 (step S16), and the data server 7 sends the work result later. Analyze for effective use (step S17).

図17は、本発明の第2の実施形態に係る作業支援システムの全体構成を示す。 FIG. 17 shows the overall configuration of the work support system according to the second embodiment of the present invention.

この実施形態にかかる作業支援システム100は、図1に示された第一の実施形態にかかる作業支援システム1の構成要素に加えて、期待された作業効果を得るための作業計画の設定を容易化するための幾つかの追加の構成要素を備える。以下の作業支援システム100の説明と参照図面では、最初の実施形態のシステム1と共通する要素には同じ参照番号を付して、冗長な説明を省略する。 The work support system 100 according to this embodiment facilitates the setting of a work plan for obtaining the expected work effect, in addition to the components of the work support system 1 according to the first embodiment shown in FIG. It has some additional components to make it. In the following description and reference drawings of the work support system 100, the same reference numbers are given to the elements common to the system 1 of the first embodiment, and redundant description is omitted.

図17に示すように、第2実施形態にかかる作業支援システム100において、データサーバ101および操作端末111は、それぞれ、最初の実施形態にかかる作業支援システム1のデータサーバ7および操作端末9のもつ構成要素のほかに、追加の幾つかの構成要素を有する。 As shown in FIG. 17, in the work support system 100 according to the second embodiment, the data server 101 and the operation terminal 111 have the data server 7 and the operation terminal 9 of the work support system 1 according to the first embodiment, respectively. In addition to the components, it has several additional components.

すなわち、データサーバ101は、追加の構成要素として、作業計画データベース103、作業計画提案データベース105、および解析部107を有する。操作端末111は、追加の構成要素として、特異個所検出部113、作業計画入力部115、提案提示部117、および作業選択部119を有する。 That is, the data server 101 has a work plan database 103, a work plan proposal database 105, and an analysis unit 107 as additional components. The operation terminal 111 has a peculiar part detection unit 113, a work plan input unit 115, a proposal presentation unit 117, and a work selection unit 119 as additional components.

操作端末111の特異個所検出部113は、操作端末111の表示スクリーン上に画像表示部45により表示された地域の調査結果つまり地域画像(例えば、登録された特定の圃場の画像)を、自動的に解析して、その地域画像中から、特異個所(例えば、圃場中の病害などが起きていると推測される領域)を検出する。特異個所検出部113は、検出された特異個所の領域(例えば、その領域の輪郭を示す枠線)を、表示スクリーン上の地域画像内に表示する。 The peculiar part detection unit 113 of the operation terminal 111 automatically displays the survey result of the area, that is, the area image (for example, the image of the registered specific field) displayed by the image display unit 45 on the display screen of the operation terminal 111. In the area image, a peculiar part (for example, a region where a disease or the like in the field is presumed to occur) is detected. The singularity detection unit 113 displays the detected singularity region (for example, a frame line showing the outline of the region) in the area image on the display screen.

なお、特異個所検出部113は、操作端末111に設けられる代わりに、データサーバ101に設けられてもよい。例えば、データサーバ101の解析部107が、特異個所検出部113を有してもよい。特異個所検出部113は、後述する解析部107内の症状解析部108または作業解析部109のように、ディープニューラルネットワークを用いて構成されて、ディープラーニングにより地域画像から特異個所を検出する推論方法を機械学習するようになっていてもよい。 The singular location detection unit 113 may be provided in the data server 101 instead of being provided in the operation terminal 111. For example, the analysis unit 107 of the data server 101 may have a singular location detection unit 113. The singular part detection unit 113 is configured by using a deep neural network like the symptom analysis unit 108 or the work analysis unit 109 in the analysis unit 107 described later, and is an inference method for detecting a singular part from a regional image by deep learning. May be machine-learned.

操作端末111の作業計画入力部115は、操作端末111の表示スクリーン上に画像表示部45が地域画像(例えば、登録された特定の圃場の画像)を表示し、かつ、ユーザが作業個所登録部47を用いてその地域画像の中で作業個所を特定したときに、その特定された作業個所に対する作業計画をユーザが入力することを可能にする。すなわち、作業計画入力部115は、表示スクリーン上で各作業個所に対してユーザが任意の作業計画を入力するための作業計画入力ツールを、表示スクリーン上に表示する。ユーザは、その作業計画入力ツールを操作することで、各作業個所に対して任意の作業計画をシステム100に入力するができる。作業計画の入力が終わると(例えば、ユーザが作業計画の登録を表示スクリーン上で要求すると)、作業計画入力部115は、入力された作業計画をデータサーバ101に送り、その作業計画は、対応する作業個所と関連付けられて、データサーバ101の作業計画データベース103に登録される。 In the work plan input unit 115 of the operation terminal 111, the image display unit 45 displays an area image (for example, an image of a registered specific field) on the display screen of the operation terminal 111, and the user can register the work location. When a work location is specified in the area image using 47, the user can input a work plan for the specified work location. That is, the work plan input unit 115 displays on the display screen a work plan input tool for the user to input an arbitrary work plan for each work location on the display screen. By operating the work plan input tool, the user can input an arbitrary work plan to the system 100 for each work location. When the input of the work plan is completed (for example, when the user requests the registration of the work plan on the display screen), the work plan input unit 115 sends the input work plan to the data server 101, and the work plan responds. It is registered in the work plan database 103 of the data server 101 in association with the work place to be performed.

ここで、作業計画とは、各作業個所に対して行う予定の実作業を定義したデータである。この実施形態では、各作業個所に対する作業計画は、一例として、その作業個所の症状名(例えば、病害や生理障害の名称)と、その症状に応じて実行されるべき実作業の名称(例えば、その作業個所に施されるべき農薬や肥料やその他の保守作業の名称)を含む。あるいは、作業計画は、症状名を含まず、作業名だけであってもよいし、あるいは、症状名と作業名の他に、追加の情報(例えば、作業個所を特定する情報や画像、あるいは、農薬や肥料の散布量など)が含まれてもよい。 Here, the work plan is data that defines the actual work to be performed for each work location. In this embodiment, the work plan for each work place is, for example, the name of the symptom of the work place (for example, the name of a disease or a physiological disorder) and the name of the actual work to be performed according to the symptom (for example, the name of the actual work). Includes pesticides, fertilizers and other maintenance work to be applied to the work site). Alternatively, the work plan may not include the symptom name but only the work name, or in addition to the symptom name and the work name, additional information (eg, information or images identifying the work location, or the work location). Agricultural chemicals, fertilizer application amount, etc.) may be included.

作業計画データベース103に登録された各地域内の各作業個所の作業計画(例えば、各圃場内の各特異個所に対する症状名と実作業名)は、データサーバ101の飛行計画作成部71が各地域の飛行計画を作成する際に、次のように利用され得る。すなわち、飛行計画作成部71は、例えば、同じ地域内の異なる作業個所に対して異なる作業計画が登録されている場合、同じ作業計画(同じ作業名)が与えられた作業個所を同じグループに分類し、各グループに一つの飛行計画、つまり、異なるグループに異なる飛行計画を作成する。例えば、一つの圃場内で、作業個所AとBには農薬Cを施す作業計画が登録され、別の作業個所DとEには別の農薬Fを施す作業計画が登録された場合、飛行計画作成部71は、作業個所AとBのグループには農薬Cを施すための飛行計画を作成し、別の作業個所DとEのグループには別の農薬Fを散布するための飛行計画を作成する。 The flight plan creation unit 71 of the data server 101 determines the work plan (for example, the symptom name and the actual work name for each peculiar part in each field) of each work place in each area registered in the work plan database 103 in each area. It can be used as follows when creating a flight plan. That is, for example, when different work plans are registered for different work places in the same area, the flight plan creation unit 71 classifies the work places given the same work plan (same work name) into the same group. Then create one flight plan for each group, that is, different flight plans for different groups. For example, in one field, if a work plan for applying pesticide C is registered in work sites A and B, and a work plan for applying another pesticide F is registered in different work sites D and E, a flight plan is registered. The preparation unit 71 creates a flight plan for applying pesticide C to the groups of work sites A and B, and creates a flight plan for spraying another pesticide F to the groups of different work sites D and E. To do.

操作端末111の提案提示部117は、ユーザが作業計画入力部115を用いて各作業個所に対する作業計画を入力するときに、データサーバ101の作業計画提案データベース105から、各作業個所に対する作業計画提案を読み込んで、各作業計画提案を、操作端末111の表示スクリーン上に、各作業個所に関連付けて表示する。 When the user inputs a work plan for each work location using the work plan input unit 115, the proposal presentation unit 117 of the operation terminal 111 proposes a work plan for each work location from the work plan proposal database 105 of the data server 101. Is read, and each work plan proposal is displayed in association with each work location on the display screen of the operation terminal 111.

ここで、作業計画提案とは、データサーバ101の解析部107が推論により生成した、各作業個所に対して推奨される作業計画の提案である。解析部107により生成された各作業個所の作業計画提案は、各作業個所に関連付けられて作業計画提案データベース105に記憶される。解析部107のより具体的な構成と機能については、後に説明する。 Here, the work plan proposal is a work plan proposal that is generated by inference by the analysis unit 107 of the data server 101 and is recommended for each work location. The work plan proposal of each work location generated by the analysis unit 107 is associated with each work location and stored in the work plan proposal database 105. A more specific configuration and function of the analysis unit 107 will be described later.

操作端末111の表示スクリーン上に表示される作業計画提案は、ユーザが作業計画入力部115を用いて作業計画を入力する際、ユーザの参考になる。とくに作業計画を決めるための知識や経験の浅いユーザにとり、より適切な作業計画を決定するために、作業計画提案は助けになる。解析部107の推論能力が高いほど、作業計画提案がユーザを助ける性能が高くなる。解析部107の推論能力を高めるために、解析部107は後述する構成を有する。 The work plan proposal displayed on the display screen of the operation terminal 111 serves as a reference for the user when the user inputs the work plan using the work plan input unit 115. Work plan proposals are helpful, especially for users who are inexperienced in determining work plans, in order to determine more appropriate work plans. The higher the inference ability of the analysis unit 107, the higher the performance of the work plan proposal to help the user. In order to enhance the inference ability of the analysis unit 107, the analysis unit 107 has a configuration described later.

操作端末111の作業選択部119は、飛行計画入力部33が飛行計画データベース55から読み込んだ特定の地域(例えば、特定の圃場)に対する飛行計画の中から、実作業ドローン5に今回実行させたい特定の作業に関する飛行計画を、ユーザに選択させる。例えば、その特定の圃場に対して、農薬Cを散布する飛行計画と、別の農薬Fを散布する飛行計画とが飛行計画入力部33により読み込まれた場合、作業選択部119は、それらの飛行計画を表示スクリーン上に表示して、その中から所望の飛行計画をユーザに選択させる。作業選択部119は、選択された飛行計画を飛行計画出力部35に提供する。その選択された飛行計画は、飛行計画出力部35から実作業ドローン5の制御器27に供給される。 The work selection unit 119 of the operation terminal 111 specifies that the actual work drone 5 wants to execute this time from the flight plans for a specific area (for example, a specific field) read from the flight plan database 55 by the flight plan input unit 33. Let the user choose a flight plan for the work. For example, when a flight plan for spraying pesticide C and a flight plan for spraying another pesticide F are read by the flight plan input unit 33 for the specific field, the work selection unit 119 makes those flights. Display the plan on the display screen and let the user select the desired flight plan. The work selection unit 119 provides the selected flight plan to the flight plan output unit 35. The selected flight plan is supplied from the flight plan output unit 35 to the controller 27 of the actual work drone 5.

データサーバ101の解析部107は、地域画像データベース61、作業個所データベース63、地域位置データベース51、作業計画データベース103、および作業結果データベース65から、登録された各地域(例えば、各圃場)の画像、各地域内の各作業個所の位置、各作業個所に対する作業計画(例えば症状名と実作業名)、各作業計画に基づく実作業の実施後の各地域(各作業個所)の画像、作業実施後の画像に基づいてユーザが再び入力した作業計画(とくに症状名)などのデータを読み込む。解析部107は、それらの読み込まれたデータを利用して機械学習を行うことで、各作業個所に対する作業計画の提案を自動的に生成するための推論方法を作成(つまり学習)する(いったん作成つまり学習された推論方法を改良することも含む)。また、解析部107は、その機械学習によって作成された推論方法を用いて、各作業個所の画像から、その画像に応じた作業計画提案を作成する。作成された各作業個所の作業計画提案は、各作業個所に関連付けられて、作業計画提案データベース105に格納される。 The analysis unit 107 of the data server 101 is an image of each area (for example, each field) registered from the area image database 61, the work location database 63, the area location database 51, the work plan database 103, and the work result database 65. Location of each work location in each region, work plan for each work location (for example, symptom name and actual work name), image of each region (each work location) after actual work based on each work plan, after work implementation Read the data such as the work plan (especially the symptom name) re-entered by the user based on the image. The analysis unit 107 creates (that is, learns) an inference method for automatically generating a work plan proposal for each work location by performing machine learning using the read data (once created). In other words, it also includes improving the learned inference method). In addition, the analysis unit 107 creates a work plan proposal corresponding to the image from the image of each work location by using the inference method created by the machine learning. The created work plan proposal for each work location is associated with each work location and stored in the work plan proposal database 105.

ここで、各作業個所に対する作業計画の提案とは、例えば、その作業個所について推定される症状(例えば、病害名など)の提案と、その症状に応じてその作業個所に推奨される実作業(例えば、農薬名や肥料名など)の提案とを含む。 Here, the proposal of the work plan for each work place is, for example, the proposal of the presumed symptomatism (for example, the name of the disease) for the work place and the actual work recommended for the work place according to the symptomatism (for example, the actual work recommended for the work place). For example, it includes proposals for pesticide names, fertilizer names, etc.).

図18は、この作業支援システム100の全体的な制御例の流れを示す。 FIG. 18 shows the flow of an overall control example of the work support system 100.

ユーザの所望する地域の地域画像がデータサーバ101に登録された(ステップS9)後、ユーザは操作端末111の表示スクリーンにその地域画像を表示させることができる(ステップS20)。このステップS20において、操作端末111は、その地域画像を自動的に解析して特異個所を自動検出し、その検出された特異個所がどこであるかを表示スクリーン上の地域画像内に表示する。そして、ユーザは、その表示された特異個所を参考にして、自分の目視で作業個所を特定し、その特定された作業個所の登録を操作端末111に要求する。すると、その作業個所が操作端末111からデータサーバ101に通知されて、データサーバ101に登録され(ステップS21)。 After the area image of the area desired by the user is registered in the data server 101 (step S9), the user can display the area image on the display screen of the operation terminal 111 (step S20). In step S20, the operation terminal 111 automatically analyzes the area image, automatically detects the peculiar part, and displays the detected peculiar part in the area image on the display screen. Then, the user visually identifies the work portion with reference to the displayed peculiar portion, and requests the operation terminal 111 to register the identified work portion. Then, the work location is notified from the operation terminal 111 to the data server 101 and registered in the data server 101 (step S21).

ステップS21で作業個所がデータサーバ101に登録されると、データサーバ101の解析部107が、その登録された作業個所の画像に対して推論を実行して、その作業個所に対する作業計画提案を自動的に生成する(ステップS22)。操作端末111は、その作業計画提案をデータサーバ111から受けて、その作業計画提案を、表示スクリーン上に表示された作業個所に関連させて、表示スクリーン上に表示する(ステップS23)。 When the work location is registered in the data server 101 in step S21, the analysis unit 107 of the data server 101 executes inference for the image of the registered work location and automatically proposes a work plan for the work location. (Step S22). The operation terminal 111 receives the work plan proposal from the data server 111, and displays the work plan proposal on the display screen in association with the work location displayed on the display screen (step S23).

ユーザは、操作端末111に表示されたその作業個所に対する作業計画提案を参考にして、その作業個所に対する作業計画(例えば、症状名と実作業名)を決定して操作端末111に入力し、その登録を操作端末111に要求する(ステップS23)。すると、その入力された作業計画は、その作業個所に関連付けられて、データサーバ101に通知されそこに登録される(ステップS25)。 The user determines a work plan (for example, a symptomatological name and an actual work name) for the work place by referring to the work plan proposal for the work place displayed on the operation terminal 111, inputs the work plan to the operation terminal 111, and inputs the work plan to the operation terminal 111. Request registration from the operation terminal 111 (step S23). Then, the input work plan is associated with the work location, notified to the data server 101, and registered there (step S25).

ある地域に対する実作業が実施された後、その地域の写真画像(そこには、その実作業の効果が現れている)が改めて撮影されてその地域画像が得られ、さらに、その地域画像に基づいてユーザが改めて特定した作業個所(以前の作業個所と同じ個所、あいは、以前とは異なる個所が含まれている場合、あるいは、作業個所が無い場合があり得る)と、各作業個所についてユーザが改めて判断した症状名(以前と同じ症状、あるいは、以前とは異なる症状が含まれ得る)が入力され登録されると、データサーバ101の推論部107が、その実施された実作業の作業計画と、その作業の効果が現れた画像と、その画像に基づき改めて特定された作業個所と症状名を、教師データとして受けて、機械学習を行い、作業計画の推論方法を自動的に作成つまり学習する(ステップS26)。解析部107は、学習された推論方法を、後に実行されるステップS22での推論に適用することができる。 After the actual work is carried out on a certain area, a photographic image of the area (where the effect of the actual work is shown) is taken again to obtain the area image, and further, based on the area image. The user re-identified the work location (the same location as the previous work location, in other words, it may contain a different location, or there may be no work location), and the user for each work location. When the newly determined symptom name (the same symptom as before or a symptom different from the previous one may be included) is input and registered, the inference unit 107 of the data server 101 sets the work plan of the actual work performed. , The image showing the effect of the work and the work location and symptom name re-identified based on the image are received as teacher data, machine learning is performed, and the inference method of the work plan is automatically created, that is, learned. (Step S26). The analysis unit 107 can apply the learned inference method to the inference in step S22 to be executed later.

以上の制御により、データサーバ101がもつ作業計画提案を生成するための推論方法は、多くの地域の写真撮影や実作業が繰り返されていくのにつれて、より性能の高いものへと改善されていき、より適切な作業計画提案をユーザに提供することができるようになる。それにより、期待された作用効果を得るための作業計画の設計が、ユーザにとりより容易になる。 With the above control, the inference method for generating the work plan proposal possessed by the data server 101 will be improved to a higher performance as the photography and the actual work of many areas are repeated. , It will be possible to provide users with more appropriate work plan proposals. This makes it easier for the user to design a work plan to obtain the expected effects.

再び図17を参照する。データサーバ101の解析部107は、症状解析部108と作業解析部109を有する。症状解析部108は、各作業個所の画像(地域画像の中の、各作業個所に該当する部分)を解析して、その作業個所の症状を推定し、推定された症状(例えば病害名や生理障害名など)を症状提案として、その作業個所に関連づけて作業計画提案データベース105に格納する。作業解析部109は、各作業個所の症状から、その作業個所に適用することが推奨される実作業(例えば、農薬名や肥料名など)を推定し、その推定された実作業を作業提案として、その作業個所に関連づけて作業計画提案データベース105に格納する。各作業個所に対する症状提案と作業提案が、その作業個所に対する作業計画提案を構成する。 See FIG. 17 again. The analysis unit 107 of the data server 101 includes a symptomatology analysis unit 108 and a work analysis unit 109. The symptom analysis unit 108 analyzes the image of each work place (the part corresponding to each work place in the area image), estimates the symptom of the work place, and estimates the symptom (for example, disease name and physiology). (Failure name, etc.) is stored in the work plan proposal database 105 as a symptom proposal in association with the work location. The work analysis unit 109 estimates the actual work (for example, pesticide name, fertilizer name, etc.) recommended to be applied to the work place from the symptom of each work place, and uses the estimated actual work as a work proposal. , Store in the work plan proposal database 105 in association with the work location. Symptom proposals and work proposals for each work location constitute a work plan proposal for that work location.

症状解析部108と作業解析部109は、それぞれ、例えばニューラルネットワークを用いて、それぞれの目的に適した機械学習と推論を行えるように構成することができる。 The symptomatology analysis unit 108 and the work analysis unit 109 can be configured to perform machine learning and inference suitable for their respective purposes by using, for example, a neural network.

図19と図20は、症状解析部108と作業解析部109の構成例をそれぞれ示す。 19 and 20 show configuration examples of the symptomatology analysis unit 108 and the work analysis unit 109, respectively.

図19に示すように、症状解析部108は、次の2種類のディープニューラルネットワーク(以下、DNNと略称する)を有する。一つは、症状学習DNN121であり、もう一つは症状推論DNN123である。 As shown in FIG. 19, the symptomatology analysis unit 108 has the following two types of deep neural networks (hereinafter, abbreviated as DNN). One is symptomatology learning DNN121 and the other is symptomatology inference DNN123.

症状学習DNN121は、多数の作業個所の画像と症状、および、過去から現在までの画像と症状と実作業の履歴(変遷経緯)を、教師データ125として大量に入力して、機械学習、例えばディープラーニング、を実行し、それにより、画像から症状を推論するための推論方法を学習する(つまり、推論ニューラルネットワークを作り上げる)。 The symptom learning DNN121 inputs a large amount of images and symptoms of a large number of work locations, images and symptoms from the past to the present, and a history of actual work (transition history) as teacher data 125, and performs machine learning, for example, deep. Learn, and thereby learn inference methods for inferring symptoms from images (ie, build inference neural networks).

症状推論DNN123は、症状学習DNN121による機械学習で過去の或る時点で作成された推論方法(つまり、推論ニューラルネットワーク)を有し、各作業個所の画像と履歴のデータをその推論方法(推論ニューラルネットワーク)に入力して推論を行って、その作業個所に対する症状提案データ129を出力する。 The symptom inference DNN123 has an inference method (that is, an inference neural network) created at a certain point in the past by machine learning by the symptom learning DNN 121, and the inference method (inference neural) uses the image and history data of each work location. The network) is input to perform inference, and the symptom proposal data 129 for the work location is output.

症状学習DNN121と症状推論DNN123は、異なるハードウェアまたは異なるコンピュータソフトウェアとして構成されてよい。その場合、症状学習DNN121がある期間にある量の学習を行って作成した推論方法を症状推論DNN123に複製することで、以後、症状推論DNN123がその推論方法を実行できる。このような複製を適当な期間をおいて繰り返すことで、時間経過に伴って症状推論DNN123の推論性能が向上していく。 The symptomatology learning DNN 121 and the symptomatology inference DNN 123 may be configured as different hardware or different computer software. In that case, by replicating the inference method created by performing a certain amount of learning in a certain period of time to the symptom inference DNN123, the symptom inference DNN123 can execute the inference method thereafter. By repeating such replication at an appropriate period, the inference performance of the symptom inference DNN123 improves with the passage of time.

あるいは、症状学習DNN121と症状推論DNN123は、同じハードウェアまたは同じコンピュータソフトウェアとして構成されてもよい。その場合、その同じハードウェアまたはコンピュータソフトウェアが、ある時間帯に症状学習DNN121として動作し、別の時間帯に症状推論DNN123として動作することができる。このように学習と推論を異なる時間帯で交互に繰り返すことにより、前の時間帯の学習結果が次の時間帯での推論に使用されることが繰り返されるので、時間経過に伴って症状推論DNN123の推論性能が向上していく。あるいは、その同じハードウェアまたはコンピュータソフトウェアが、同時並行的に学習と推論を実行する(つまり、同時並行的に症状学習DNN121と症状推論DNN123として動作する)ように構成されてもよい。 Alternatively, the symptomatology learning DNN 121 and the symptomatology inference DNN 123 may be configured as the same hardware or the same computer software. In that case, the same hardware or computer software can act as a symptomatology learning DNN121 at one time and as a symptomatology inference DNN123 at another time. By alternately repeating learning and inference in different time zones in this way, the learning results of the previous time zone are repeatedly used for inference in the next time zone, so that symptom inference DNN123 with the passage of time. The inference performance of is improved. Alternatively, the same hardware or computer software may be configured to perform learning and inference in parallel (ie, act as symptomatology learning DNN121 and symptomatology inference DNN123 in parallel).

図20に示すように、作業解析部109も、上述の症状解析部108と同様、2種類のDNNを有する。それらは作業学習DNN131と作業推論DNN133である。 As shown in FIG. 20, the work analysis unit 109 also has two types of DNNs like the symptomatology analysis unit 108 described above. They are work learning DNN131 and work inference DNN133.

作業学習DNN131は、多数の作業個所の症状と、そこに適用された実作業と、その実作業を実施した後に改めて撮影された作業個所の画像と、その画像に基づいて改めて判断された症状を、教師データ135として大量に入力して、機械学習、例えばディープラーニング、を実行し、それにより、症状からそこに適用すべきを実作業を推論するための推論方法を学習する(つまり、推論ニューラルネットワークを作り上げる)。 The work learning DNN131 captures the symptoms of a large number of work locations, the actual work applied to them, the images of the work locations taken again after the actual work is performed, and the symptoms judged again based on the images. Input a large amount of teacher data 135 to perform machine learning, such as deep learning, thereby learning inference methods for inferring the actual work to apply to it from the symptoms (ie, inference neural networks). To make up).

作業推論DNN133は、作業学習DNN131による機械学習で過去の或る時点で作成された推論方法(つまり、推論ニューラルネットワーク)を有し、各作業個所の症状をその推論方法(推論ニューラルネットワーク)に入力して推論を行って、その作業個所に対する作業提案データ139を出力する。 The work inference DNN 133 has an inference method (that is, an inference neural network) created at a certain point in the past by machine learning by the work learning DNN 131, and inputs the symptom of each work location into the inference method (inference neural network). Then, inference is performed, and work proposal data 139 for the work location is output.

作業学習DNN131と作業推論DNN133は、前述の症状学習DNN121と症状推論DNN123と同様に、異なるハードウェアまたは異なるコンピュータソフトウェアとして構成されてよい。その場合、作業状学習DNN131がある期間にある量の学習を行って作成した推論方法を作業推論DNN13に複製することで、以後、作業推論DNN133がその推論方法を実行できる。このような複製を適当な期間をおいて繰り返すことで、時間経過に伴って作業推論DNN133の推論性能が向上していく。 The work learning DNN 131 and the work inference DNN 133 may be configured as different hardware or different computer software, similarly to the symptomatology learning DNN 121 and the symptomatology inference DNN 123 described above. In that case, by duplicating the inference method created by performing a certain amount of learning in a certain period of time to the work inference DNN 13, the work inference DNN 133 can execute the inference method thereafter. By repeating such duplication at an appropriate period, the inference performance of the work inference DNN133 is improved with the passage of time.

あるいは、作業学習DNN131と作業推論DNN133は、同じハードウェアまたは同じコンピュータソフトウェアとして構成されてもよい。その場合、その同じハードウェアまたはコンピュータソフトウェアが、ある時間帯に作業学習DNN131として動作し、別の時間帯に作業推論DNN133として動作することができる。このように学習と推論を異なる時間帯で交互に繰り返すことにより、前の時間帯の学習結果が次の時間帯での推論に使用されることが繰り返されるので、時間経過に伴って作業推論DNN133の推論性能が向上していく。あるいは、その同じハードウェアまたはコンピュータソフトウェアが、同時並行的に学習と推論を実行する(つまり、同時並行的に作業学習DNN131と作業推論DNN133として動作する)ように構成されてもよい。 Alternatively, the work learning DNN 131 and the work inference DNN 133 may be configured as the same hardware or the same computer software. In that case, the same hardware or computer software can operate as a work learning DNN131 at one time zone and as a work inference DNN133 at another time zone. By alternately repeating learning and inference in different time zones in this way, the learning results of the previous time zone are repeatedly used for inference in the next time zone, so that work inference DNN133 with the passage of time. The inference performance of is improved. Alternatively, the same hardware or computer software may be configured to perform learning and inference in parallel (ie, act as work learning DNN 131 and work inference DNN 133 in parallel).

図21から図23は、操作端末111の表示スクリーン上でユーザが作業個所と作業計画を特定するためのグラフィックインタフェースの例を示す。 21 to 23 show an example of a graphic interface for a user to identify a work location and a work plan on the display screen of the operation terminal 111.

図21は、作業個所を特定する時のインタフェース200の画像例を示す。地域画像ウィンドウ201に、ユーザ所望の地域(例えば圃場)の画像が表示されている(この例では、個々の農作物の状態がわかるように圃場の一部が拡大表示されている)。ユーザが領域選択ボタン203を操作すると、特異個所検出部113により地域画像の解析が実施されて、その地域内の特異個所が自動的に検出され、そして、その検出された特異個所が領域選択ツール213によって提案される。ユーザは、目視で作業個所を見つけるとき、この提案を参考にすることができる。ユーザは、領域選択ツール213を必要に応じて操作して、作業個所を特定することができる。ユーザは、作業個所名入力ツール205を使用して、作業個所の名称を入力できる。ユーザは、登録ボタン211を操作することで、作業個所(領域選択ツール211によって特定された領域の位置)とその名前をデータサーバ101に登録できる。 FIG. 21 shows an example of an image of the interface 200 when specifying a work location. An image of an area (for example, a field) desired by the user is displayed in the area image window 201 (in this example, a part of the field is enlarged and displayed so that the state of each crop can be understood). When the user operates the area selection button 203, the area image is analyzed by the singular part detection unit 113, the singular part in the area is automatically detected, and the detected singular part is the area selection tool. Proposed by 213. The user can refer to this proposal when visually locating the work site. The user can operate the area selection tool 213 as necessary to identify the work location. The user can input the name of the work place by using the work place name input tool 205. By operating the registration button 211, the user can register the work location (the position of the region specified by the region selection tool 211) and its name in the data server 101.

図22は、作業個所の症状を特定するときのグラフィックインタフェースの画像例を示す。作業個所221、223がいったん登録されると、データサーバ101が各作業個所221,223の画像からその症状を推定して症状提案を生成する。その症状提案225、227が地域画像ウィンドウ201上に、各作業個所221、223に関連付けられて表示される。ユーザは、各作業個所221、223の症状を特定するとき、その症状提案を参考にできる。ユーザは、症状入力ツール207を操作して、各作業個所221、223の症状名を特定することができる。ユーザは、登録ボタン211を操作することで、各作業個所221、223の症状名をデータサーバ101に登録できる。 FIG. 22 shows an image example of the graphic interface when identifying the symptom of the work place. Once the work locations 221 and 223 are registered, the data server 101 estimates the symptom from the images of the work locations 221, 223 and generates a symptom proposal. The symptomatological proposals 225 and 227 are displayed on the area image window 201 in association with each work location 221 and 223. When identifying the symptom of each work place 221 and 223, the user can refer to the symptom proposal. The user can operate the symptom input tool 207 to specify the symptom name of each work location 221 and 223. By operating the registration button 211, the user can register the symptom names of the work locations 221 and 223 in the data server 101.

図23は、各作業個所に対する実作業を決定するときのグラフィックインタフェースの画像例を示す。作業個所221、223の症状がいったん登録されると、データサーバ101が各作業個所221、223の症状から、推奨される実作業を推定して作業提案を生成する。その作業提案235、237が地域画像ウィンドウ上の各作業個所221、223に関連付けられて表示される。ユーザは、各作業個所221、223の実作業を特定するとき、その作業提案を参考にできる。ユーザは、実作業入力ツール209を操作して、各作業個所221、223に対する実作業名を決定することができる。ユーザは、登録ボタン211を操作することで、各作業個所221、223に対する実作業名をデータサーバ101に登録できる。 FIG. 23 shows an image example of the graphic interface when determining the actual work for each work location. Once the symptoms of the work locations 221 and 223 are registered, the data server 101 estimates the recommended actual work from the symptoms of the work locations 221 and 223 and generates a work proposal. The work proposals 235 and 237 are displayed in association with each work location 221 and 223 on the area image window. The user can refer to the work proposal when identifying the actual work of each work location 221 and 223. The user can operate the actual work input tool 209 to determine the actual work name for each work location 221 and 223. By operating the registration button 211, the user can register the actual work name for each work location 221 and 223 in the data server 101.

図24は、データサーバ101の解析部107の別の構成例を示す。 FIG. 24 shows another configuration example of the analysis unit 107 of the data server 101.

図24の構成例では、解析部107は、各作業個所の作業計画提案、つまり、症状提案と実作業提案を、分離せずに一緒に出力することができる。すなわち、解析部107は、作業計画学習DNN141と作業計画推論DNN143を有する。 In the configuration example of FIG. 24, the analysis unit 107 can output the work plan proposal of each work location, that is, the symptom proposal and the actual work proposal together without separating them. That is, the analysis unit 107 has a work plan learning DNN 141 and a work plan inference DNN 143.

作業計画学習DNN141は、多数の作業個所の画像と作業計画(症状名と実作業名)、および、その作業計画に基づく実作業実施後の同作業個所の画像と症状、ならびに、過去から現在までのその作業個所の画像と症状と実作業の履歴(変遷経緯)を、教師データ145として大量に入力して、機械学習、例えばディープラーニング、を実行し、それにより、画像から作業計画を推論するための推論方法を学習する(つまり、推論ニューラルネットワークを作り上げる)。 Work plan learning DNN141 includes images and work plans (symptom names and actual work names) of a large number of work locations, images and symptoms of the same work locations after actual work is performed based on the work plan, and from the past to the present. A large amount of images and symptoms of the work location and the history of actual work (transition history) are input as teacher data 145 to execute machine learning, for example, deep learning, thereby inferring a work plan from the images. Learn the inference method for (that is, build an inference neural network).

作業計画推論DNN143は、作業計画症状学習DNN141による機械学習で過去の或る時点で作成された推論方法(つまり、推論ニューラルネットワーク)を有し、各作業個所の画像と上記履歴のデータをその推論方法(推論ニューラルネットワーク)に入力して推論を行って、その作業個所に対する作業計画提案149を出力する。
作業計画学習DNN141と作業計画推論DNN143は、異なるハードウェアまたは異なるコンピュータソフトウェアとして構成されてよいし、あるいは、同じハードウェアまたは同じコンピュータソフトウェアとして構成されてもよい。
The work plan inference DNN143 has an inference method (that is, an inference neural network) created at a certain point in the past by machine learning by the work plan symptom learning DNN141, and infers the image of each work part and the data of the above history. Input to the method (inference neural network) to perform inference, and output the work plan proposal 149 for the work location.
The work plan learning DNN 141 and the work plan inference DNN 143 may be configured as different hardware or different computer software, or may be configured as the same hardware or the same computer software.

図25は、解析部107のまた別の構成例を示す。 FIG. 25 shows another configuration example of the analysis unit 107.

図25の構成例では、解析部107は、地域内の作業個所ごとではなく、地域ごとに、作業計画提案(そこには、地域内の1以上の作業個所の位置と、各作業個所の症状名と実作業名が含まれる)を作成して出力することができる。すなわち、解析部107は、作業計画学習DNN151と作業計画推論DNN153を有する。 In the configuration example of FIG. 25, the analysis unit 107 proposes a work plan for each region, not for each work location in the region (there are the positions of one or more work locations in the region and the symptoms of each work location). Name and actual work name are included) can be created and output. That is, the analysis unit 107 has a work plan learning DNN 151 and a work plan inference DNN 153.

作業計画学習DNN151は、多数の地域の全体画像とその中の各作業個所の位置とその症状名と実作業名、および、それらの地域の実作業実施後の全体画像と作業個所と症状、ならびに、過去から現在までのそれら地域の全体画像と作業個所と症状と実作業の履歴(変遷経緯)を、教師データ155として大量に入力して、機械学習、例えばディープラーニング、を実行し、それにより、地域の全体画像から作業計画(地域中の作業個所の位置と、各作業個所の症状名と実作業名)を推論するための推論方法を学習する(つまり、推論ニューラルネットワークを作り上げる)。 The work plan learning DNN 151 includes an overall image of a large number of areas, the position of each work location in the area, the symptom name and the actual work name, and the overall image, the work location and the symptom after the actual work is performed in those areas, and the symptom. , The whole image of those areas from the past to the present, the work place, the symptom, and the history of the actual work (transition history) are input in large quantities as teacher data 155, and machine learning, for example, deep learning, is executed, thereby performing machine learning, for example, deep learning. , Learn the inference method for inferring the work plan (the position of the work part in the area, the symptom name and the actual work name of each work part) from the whole image of the area (that is, create an inference neural network).

作業計画推論DNN153は、作業計画症状学習DNN151による機械学習で過去の或る時点で作成された推論方法(つまり、推論ニューラルネットワーク)を有し、各地域の作業個所の画像と上記履歴のデータをその推論方法(推論ニューラルネットワーク)に入力して推論を行って、その地域に対する作業計画提案159を出力する。 The work plan inference DNN153 has an inference method (that is, an inference neural network) created at a certain point in the past by machine learning by the work plan symptom learning DNN151, and images of work locations in each region and the above history data are obtained. Input to the inference method (inference neural network) to perform inference, and output work plan proposal 159 for the area.

作業計画学習DNN151と作業計画推論DNN153は、異なるハードウェアまたは異なるコンピュータソフトウェアとして構成されてよいし、あるいは、同じハードウェアまたは同じコンピュータソフトウェアとして構成されてもよい。 The work plan learning DNN 151 and the work plan inference DNN 153 may be configured as different hardware or different computer software, or may be configured as the same hardware or the same computer software.

再び図17を参照する。データサーバ101の地域画像データベース61、作業個所データベース63、地域位置データベース51、飛行計画データベース55、作業計画データベース、作業結果データベース、作業計画提案データベース105に蓄積されたデータ、ならびに、解析部107が機械学習によって作成した推論方法つまり推論ニューラルネットワークは、操作端末111に表示してユーザを助ける用途以外に、さまざまな有益な用途に利用可能である。それゆえ、それらデータベースに蓄積されたデータや、推論ニューラルネットワークの全部または任意の部分は、データサーバ101から外部へ出力することができる。 See FIG. 17 again. The data stored in the regional image database 61, the work location database 63, the regional location database 51, the flight plan database 55, the work plan database, the work result database, the work plan proposal database 105 of the data server 101, and the analysis unit 107 are machines. The inference method created by learning, that is, the inference neural network, can be used for various useful purposes other than the use of displaying on the operation terminal 111 to help the user. Therefore, the data stored in those databases and all or any part of the inference neural network can be output from the data server 101 to the outside.

以上、本発明の二つの実施形態に従う作業支援システムを説明したが、それらの作業支援システムは、ドローンによる調査で収集されたデータ(例えば、写真撮影で得られた圃場などの地域の画像)に含まれるノイズ(例えば、撮影時の天候や時間帯などの環境状態によって生じる写真画像の色調や明るさなどの実際からの誤差)を除去するデータ補正を行うための補正システムを備えてもよい。例えば、上述した二つの実施形態にかかる作業支援システム1、100は、それぞれ、そのような補正システムを、例えばデータサーバ7、101または例えば操作端末9、111内に備えてよい。 The work support systems according to the two embodiments of the present invention have been described above, but these work support systems are based on the data collected in the survey by the drone (for example, the image of the area such as the field obtained by photography). A correction system for performing data correction for removing included noise (for example, an error from the actual state such as color tone and brightness of a photographic image caused by an environmental condition such as the weather and time zone at the time of shooting) may be provided. For example, the work support systems 1 and 100 according to the two embodiments described above may each include such a correction system in, for example, data servers 7, 101 or, for example, operating terminals 9, 111.

以下、そのような補正システムの一例について説明する。以下に例示する補正システムは、ドローンによる写真撮影で得られた地域画像を補正するためのものであり、上述した二つの実施形態にかかる作業支援システム1、100に設けることができる。 Hereinafter, an example of such a correction system will be described. The correction system illustrated below is for correcting a regional image obtained by taking a picture with a drone, and can be provided in the work support systems 1 and 100 according to the above two embodiments.

図26は、その補正システムを利用するために使用される画像補正スケールの一例の平面デザインを示す。 FIG. 26 shows an example planar design of an image correction scale used to utilize the correction system.

図26に示された画像補正スケール161は、例えば長方形の平板であり、ドローンによる写真撮影時に撮影対象の地域内または地域近傍周辺の地表上に、図26に示された表面を上に向けて置かれる。 The image correction scale 161 shown in FIG. 26 is, for example, a rectangular flat plate, and the surface shown in FIG. 26 faces upward on the ground surface in or around the area to be photographed when taking a picture with a drone. Be placed.

画像補正スケール161は、複数(この例では8つであるが、それ以外の数でもよい)の基準色スケール163C1〜163C7、163Gを有する。そのうち、一部の基準色スケール163C1〜163C7(この例では7つであるが、それ以外の数でもよい)は、それぞれ、異なる所定の有彩色に着色されており、これらを纏めて以下「カラースケール」163Cという。また、残りの基準色スケール163G(この例では1つであるが、それ以外の数でもよい)は、所定の無彩色(例えば、純白色、あるいは、所定のグレー色)に着色されており、これを以下「グレースケール」という。 The image correction scale 161 has a plurality of reference color scales 163C1 to 163C7, 163G (8 in this example, but other numbers may be used). Among them, some of the reference color scales 163C1 to 163C7 (7 in this example, but other numbers may be used) are colored in different predetermined chromatic colors, and these are collectively referred to as "colors" below. The scale is called "163C". Further, the remaining reference color scale 163G (one in this example, but other numbers may be used) is colored in a predetermined achromatic color (for example, pure white or a predetermined gray color). This is hereinafter referred to as "gray scale".

カラースケール163Cの複数の基準色スケール163C1〜163C7にそれぞれ塗られた異なる有彩色は、対象地域の状態を判断するために予め定められた(つまり、RGBなどの要素色のトーン値が予め決められた)異なる基準色である。例えば、画像補正スケール161の適用地域が稲の圃場である場合、それらの基準色は、稲の状態を稲の葉色から判断するために予め定められた緑色系の異なる色である。それぞれの基準色には、予め識別符号が定義されており、各基準色スケール163C1〜163C7にはその識別符号の表示も付随する。グレースケール163Cの基準色も、予め決められた要素色のトーン値をもつ無彩色であり、そして、予め定められたその識別符号の表示がグレースケール163Cに付随する。 The different chromatic colors painted on the plurality of reference color scales 163C1 to 163C7 of the color scale 163C are predetermined in order to judge the state of the target area (that is, the tone values of the element colors such as RGB are predetermined. It is a different standard color. For example, when the application area of the image correction scale 161 is a rice field, the reference colors thereof are different greenish colors predetermined for determining the state of the rice from the leaf color of the rice. An identification code is defined in advance for each reference color, and each reference color scale 163C1 to 163C7 is accompanied by a display of the identification code. The reference color of the grayscale 163C is also an achromatic color having a predetermined element color tone value, and the display of the predetermined identification code is attached to the grayscale 163C.

すべての基準色スケール163C1〜163C7、163Gは例えば真円形である。ドローンは、地域の写真を撮影するときに、その地域だけでなくその地域の近傍の周辺も撮影し、したがって、画像補正スケール161も撮影する。その写真撮影により得られた地域画像には、その地域だけでなく、その地域の近傍周辺の画像も含まれ、画像補正スケール161の画像も含まれる。その地域画像内で、画像補正スケール161の画像がどの方向を向いていても、各基準色スケール163C1〜163C7、163Gが真円形であると、撮影で得られた地域画像の中から各基準色スケール163C1〜163C7、163Gの画像を画像処理により識別し抽出することが容易である。 All reference color scales 163C1 to 163C7, 163G are, for example, perfectly circular. When the drone takes a picture of an area, it takes not only the area but also the surroundings in the vicinity of the area, and therefore also the image correction scale 161. The area image obtained by the photography includes not only the image of the area but also the image of the vicinity of the area, and also includes the image of the image correction scale 161. Regardless of the direction in which the image of the image correction scale 161 is oriented in the regional image, if each reference color scale 163C1 to 163C7, 163G is a perfect circle, each reference color is selected from the regional images obtained by shooting. It is easy to identify and extract images of scales 163C1 to 163C7 and 163G by image processing.

図27は、図26に示された画像補正スケールの一例における各基準色スケールが表示されたパネルが満たす寸法条件の一例を示す。 FIG. 27 shows an example of the dimensional conditions satisfied by the panel on which each reference color scale in the example of the image correction scale shown in FIG. 26 is displayed.

図27に示すように、画像補正スケール161内の各基準色スケール167は前述したように真円形である。各基準色スケール167はユニットパネル165の表面上に表示されており、ユニットパネル1は例えば正方形である。ユニットパネル165の表面上の基準色スケール167の外側の背景領域(これは、基準色とは異なる所定の色をもつ)に、基準色スケール167の基準色の識別符号169が表示される。それぞれ異なる色の基準色スケール167が描かれた所定枚数のユニットパネル165の統合により、図26に示したような平板状の画像補正スケール161が構成される。 As shown in FIG. 27, each reference color scale 167 in the image correction scale 161 is a perfect circle as described above. Each reference color scale 167 is displayed on the surface of the unit panel 165, and the unit panel 1 is, for example, a square. The reference color identification code 169 of the reference color scale 167 is displayed in the background region (which has a predetermined color different from the reference color) outside the reference color scale 167 on the surface of the unit panel 165. By integrating a predetermined number of unit panels 165 on which reference color scales 167 of different colors are drawn, a flat plate-shaped image correction scale 161 as shown in FIG. 26 is configured.

ユニットパネル165のサイズは、基準色スケール167の外接正方形(一点鎖線の補助線で図示する)を内包する(つまり、その外接正方形がユニットパネル165の外へはみ出ない)ように選ばれる。また、ユニットパネル165上での識別符号169の表示位置は、破線の補助線で図示するように、上記外接正方形がどの方向を向いても、その外接正方形の外側に存在する(つまり、外接正方形内に入らない)ように選ばれている。 The size of the unit panel 165 is chosen to include the circumscribed square of the reference color scale 167 (shown by the alternate long and short dash line) (ie, the circumscribed square does not extend outside the unit panel 165). Further, the display position of the identification code 169 on the unit panel 165 exists outside the circumscribed square regardless of the direction of the circumscribed square, as shown by the auxiliary line of the broken line (that is, the circumscribed square). It is chosen not to go inside).

それにより、ドローンが撮影した画像の中から基準色スケール167を識別する画像処理において、画像内でユニットパネル165がどの方向を向いていても、上記外接正方形内には上記背景色と基準色の2色の領域しか存在しないので、的確に基準色スケール167を識別し抽出することが容易である。 As a result, in the image processing for identifying the reference color scale 167 from the images taken by the drone, the background color and the reference color are within the circumscribed square regardless of which direction the unit panel 165 is facing in the image. Since there are only two color regions, it is easy to accurately identify and extract the reference color scale 167.

図28は、図26に示した画像補正スケール161の画像を利用して地域画像を補正するための補正システムの構成例を示す。 FIG. 28 shows a configuration example of a correction system for correcting a regional image using the image of the image correction scale 161 shown in FIG. 26.

図28に示すように、補正システム171は、画像入力部173、カラースケール探索部177、カラースケール画素値保存部179、グレースケール探索部181、グレースケール画素値保存部183、基準画素値保存部185、地域ポリゴンデータ保存部187、画像分離部189、第1カラートーン調整部191、第2カラートーン調整部193、画像合成部195、およびカラー分析部197を有する。 As shown in FIG. 28, the correction system 171 includes an image input unit 173, a color scale search unit 177, a color scale pixel value storage unit 179, a grayscale search unit 181 and a grayscale pixel value storage unit 183, and a reference pixel value storage unit. It has a regional polygon data storage unit 187, an image separation unit 189, a first color tone adjustment unit 191 and a second color tone adjustment unit 193, an image composition unit 195, and a color analysis unit 197.

画像入力部173は、写真撮影で得られた対象地域の地域画像を入力する。なお、対象地域の地域画像は、上述した二つ実施形態にかかる作業支援システム1、100では(図1、図17参照)、地域画像データベース61から入力し得る。 The image input unit 173 inputs a regional image of the target area obtained by taking a photograph. The regional image of the target area can be input from the regional image database 61 in the work support systems 1 and 100 according to the above two embodiments (see FIGS. 1 and 17).

カラースケール探索部177は、入力された地域画像の中から、画像処理によって、カラースケール163Cの各基準色スケール163C1〜163C7の画像を識別して、その識別された基準色スケール画像内の全画素の値セット(例えば、RGB値のセット)を抽出する。カラースケール画素値保存部179は、抽出された基準色スケール画像内の全画素値セットを保存する。 The color scale search unit 177 identifies the images of the reference color scales 163C1 to 163C7 of the color scale 163C from the input area image by image processing, and all the pixels in the identified reference color scale image. Extract a set of values for (eg, a set of RGB values). The color scale pixel value storage unit 179 stores all pixel value sets in the extracted reference color scale image.

グレースケール探索部181は、入力された地域画像の中から、画像処理によって、グレースケール163Gの画像を識別して、その識別されたグレースケール画像内の全画素の値セット(例えば、RGB値のセット)を抽出する。グレースケール画素値保存部183は、抽出されたグレースケール画像の全画素値セットを保存する。 The grayscale search unit 181 identifies an image of grayscale 163G from the input area image by image processing, and sets the values of all pixels in the identified grayscale image (for example, RGB values). Set) is extracted. The grayscale pixel value storage unit 183 stores the entire pixel value set of the extracted grayscale image.

基準画素値保存部185は、画像補正スケール161のすべての基準色スケール163C1〜163C7、163Gの予め定められた画素値セット(例えば、RGB値のセット)(以下、基準画素値セットという)を保存する。 The reference pixel value storage unit 185 stores a predetermined pixel value set (for example, a set of RGB values) (hereinafter, referred to as a reference pixel value set) of all the reference color scales 163C1 to 163C7, 163G of the image correction scale 161. To do.

地域ポリゴンデータ保存部187は、対象地域の形状と位置(例えば、対象地域の輪郭の地理的座標値)を示すデータ(以下、地域ポリゴンデータという)を保存する。対象地域の地域ポリゴンデータは、上述した二つ実施形態にかかる作業支援システム1、100では(図1、図17参照)、地域位置データベース51に存在する。 The regional polygon data storage unit 187 stores data (hereinafter, referred to as regional polygon data) indicating the shape and position of the target area (for example, the geographical coordinate value of the outline of the target area). The regional polygon data of the target area exists in the regional location database 51 in the work support systems 1 and 100 (see FIGS. 1 and 17) according to the above two embodiments.

画像分離部189は、画像入力部173から入力された地域画像(例えば圃場を写真撮影した得た画像)を、地域ポリゴンデータ187を使って、対象地域の部分(例えば、その圃場の画像)と、対象地域以外の部分(例えば、その圃場と一緒に撮影されたその圃場の近傍周辺領域の画像)とに分離する。 The image separation unit 189 uses the area polygon data 187 to combine the area image (for example, an image obtained by taking a photograph of the field) input from the image input unit 173 with the part of the target area (for example, the image of the field). , Separate into parts other than the target area (for example, an image of the peripheral area in the vicinity of the field taken together with the field).

第1カラートーン調整部191は、画像分離部189からの対象地域部分の画像に対して、その色を補正する処理を行う。この補正処理では、カラースケール画素保存部179からのカラースケール163Cの各基準色スケール163C1〜163C7の画素値セットと、基準画素値保存部185からのカラースケール163Cの各基準色スケール163C1〜163C7の基準画素値セットとが用いられる。 The first color tone adjusting unit 191 performs a process of correcting the color of the image of the target area portion from the image separating unit 189. In this correction process, the pixel value sets of the reference color scales 163C1 to 163C7 of the color scales 163C from the color scale pixel storage unit 179 and the reference color scales 163C1 to 163C7 of the color scales 163C from the reference pixel value storage unit 185. A reference pixel value set is used.

第2カラートーン調整部193は、画像分離部189からの地域以外部分の画像に対して、その色を補正する処理を行う。この補正処理では、グレースケール画素保存部183からのグレースケール163Gの画素値セットと、基準画素値保存部185からのグレースケール163Gの基準画素値セットとが用いられる。 The second color tone adjustment unit 193 performs a process of correcting the color of the image of the portion other than the area from the image separation unit 189. In this correction process, a grayscale 163G pixel value set from the grayscale pixel storage unit 183 and a grayscale 163G reference pixel value set from the reference pixel value storage unit 185 are used.

画像合成部195は、補正された対象地域部分の画像と、補正された対象地域以外の部分の画像とを結合して、補正された地域画像を合成する。 The image synthesizing unit 195 combines the corrected image of the target area portion and the image of the portion other than the corrected target area to synthesize the corrected regional image.

カラー分析部197は、補正された地域画像の各部の画素値を分析して、後の作業のための用途、例えば特異領域の検出、のための情報を生成する。例えば、地域画像の中のとくに対象地域部分の画像を細かい小区画に分割し、それぞれの小区画内の全画素の画素値セットの平均値や標準偏差などの統計値を算出する。それらの統計値は、例えば圃場内の農作物の病害や生理障害などが起きている特異領域を見つけ出すために役立つので、例えば、上述した第2の実施形態にかかる作業支援システム100(図17参照)の解析部107または特異個所検出部113などで利用され得る。 The color analysis unit 197 analyzes the pixel values of each part of the corrected area image to generate information for later work, such as detection of a singular region. For example, the image of the target area portion in the regional image is divided into small subdivisions, and statistical values such as the average value and standard deviation of the pixel value set of all the pixels in each subdivision are calculated. Since these statistical values are useful for finding, for example, a peculiar region where a disease or a physiological disorder of agricultural products in the field is occurring, for example, the work support system 100 according to the second embodiment described above (see FIG. 17). It can be used in the analysis unit 107 of the above, the singular place detection unit 113, or the like.

図29は、図28に示された補正システム171が行う制御の一例の流れを示す。 FIG. 29 shows an example flow of control performed by the correction system 171 shown in FIG. 28.

図29に示されるように、写真撮影で得られた地域画像が入力されて、その入力地域画像から、カラースケール163Cの画像(つまり、基準色スケール163C1〜163C7の画像)が探索され(ステップS101)、見つかったカラースケール163Cの画像の画素値(つまり、基準色スケール163C1〜163C7の画像の全画素の画素値セット)が抽出されて保存される(ステップS102)。そして、保存されたカラースケール163Cの画素値と、予め定められた対応する基準画素値(つまり、基準画素値保存部185からの基準色スケール163C1〜163C7の基準画素値セット)とに基づいて、前者の色調を後者の色調に合わせるように補正するための第1の補正関数が計算される(ステップS103)。 As shown in FIG. 29, the area image obtained by photography is input, and the image of the color scale 163C (that is, the image of the reference color scales 163C1 to 163C7) is searched from the input area image (step S101). ), The pixel value of the image of the found color scale 163C (that is, the pixel value set of all the pixels of the image of the reference color scales 163C1 to 163C7) is extracted and saved (step S102). Then, based on the stored pixel value of the color scale 163C and the corresponding reference pixel value determined in advance (that is, the reference pixel value set of the reference color scales 163C1 to 163C7 from the reference pixel value storage unit 185). The first correction function for correcting the former color tone to match the latter color tone is calculated (step S103).

また、上記入力地域画像から、グレースケール163Gの画像が探索され(ステップS104)、見つかったグレースケール163Gの画素値(つまり、グレースケール163Gの画像の全画素の画素値セット)が保存される(ステップS105)。そして、保存されたグレースケール163Gの画素値と、予め定められたグレースケール163Gの基準画素値(つまり、基準画素値保存部185からのグレースケール163Gの基準画素値セット)とに基づいて、前者の色調を後者の色調に合わせるように補正するための第2の補正関数が計算される(ステップS106)。 Further, the grayscale 163G image is searched from the input area image (step S104), and the found pixel value of the grayscale 163G (that is, the pixel value set of all the pixels of the grayscale 163G image) is saved (that is, the pixel value set of all the pixels of the grayscale 163G image). Step S105). Then, based on the saved pixel value of the gray scale 163G and the predetermined reference pixel value of the gray scale 163G (that is, the reference pixel value set of the gray scale 163G from the reference pixel value storage unit 185), the former A second correction function is calculated to correct the color tone of the above to match the latter color tone (step S106).

そして、入力された地域画像から、対象地域部分の画像が分離され、その画像の色調が、上記第1の補正関数を用いて補正される(ステップS107)。また、入力された地域画像から、対象地域以外の部分の画像が分離され、その画像の色調が、上記第2の補正関数を用いて補正される(ステップS108)。これにより、写真撮影で得られた地域画像の色調が実際の地域画像からずれていても、地域部分の画像(例えば、稲の圃場の画像)は、地域の実際の状態をカラースケール163Cの基準画像に基づいてより適正に評価できるように補正され、また、対象地域以外の部分の画像はより自然に見える色調になるように補正される。 Then, the image of the target area portion is separated from the input area image, and the color tone of the image is corrected by using the first correction function (step S107). Further, the image of the portion other than the target area is separated from the input area image, and the color tone of the image is corrected by using the second correction function (step S108). As a result, even if the color tone of the regional image obtained by photography deviates from the actual regional image, the image of the regional portion (for example, the image of the rice field) uses the actual state of the region as a reference of the color scale 163C. It is corrected so that it can be evaluated more appropriately based on the image, and the image of the part other than the target area is corrected so that the color tone looks more natural.

そして、補正された地域部分とそれ以外の部分の画像とが結合されて、補正後の地域画像が合成される(ステップS109)。 Then, the corrected regional portion and the image of the other portion are combined, and the corrected regional image is combined (step S109).

そして、補正後の地域画像が分析されて、所定の統計値(例えば、地域画像が細分された多数の小区域の平均画素値セットやその標準偏差など)が計算される(ステップS110)。計算された統計値は、後の作業のための用途、例えば、対象地域の特異領域を見つけ出すため、に利用され得る。 Then, the corrected regional image is analyzed, and a predetermined statistical value (for example, an average pixel value set of a large number of subdivisions of the regional image and its standard deviation) is calculated (step S110). The calculated statistics can be used for later work, eg, to find singular areas of interest.

以上、本発明の幾つかの実施形態を説明したが、それらの実施形態は、は、説明のための単なる例示であり、本発明の範囲をそれらの実施の形態のみに限定する趣旨ではない。本発明は、上記の実施の形態とは違うさまざまな形態で、実施することができる。 Although some embodiments of the present invention have been described above, those embodiments are merely examples for explanation, and the scope of the present invention is not limited to those embodiments. The present invention can be implemented in various forms different from the above-described embodiment.

例えば、本発明は、圃場の農薬散布に限らず、他のさまざまな用途の作業支援システムにも適用できる。例えば、資材置き場でのドローンを用いた物体の移送、送電線や鉄塔のドローンによる監視やメンテナンス、あるいは、ユーザ所望の地区や場所の写真や動画の撮影など、広い用途に本発明が適用できる。 For example, the present invention is not limited to spraying pesticides in the field, but can also be applied to work support systems for various other uses. For example, the present invention can be applied to a wide range of applications such as transfer of an object using a drone in a material storage area, monitoring and maintenance by a drone of a power transmission line or a steel tower, or taking a photograph or a moving image of a district or place desired by a user.

用途によっては、上記実施形態のような、調査飛行と実作業飛行という二段階の飛行を含むプロセスでなく、実作業飛行だけを含むプロセスを行うこともできる。例えば、ある場所の動画撮影を行いたい場合、ユーザが操作端末でその場所を指定し、サーバがその場所の撮影のための飛行計画を作り、ユーザがその飛行計画をダウンロードしてドローンにインストールし、そして、ドローンの撮影飛行を行うというような、より単純なプロセスを行うことができる。 Depending on the application, a process including only the actual work flight can be performed instead of the process including the two-stage flight of the survey flight and the actual work flight as in the above embodiment. For example, if you want to shoot a video of a certain location, the user specifies the location on the operating terminal, the server creates a flight plan for shooting the location, and the user downloads the flight plan and installs it on the drone. , And you can do a simpler process, such as taking a drone shoot flight.

また、用途によっては、より多段階の飛行を含むプロセスを行うこともできる。例えば、圃場の農薬散布の場合、農薬散布を行った日からある期間が経過した後、農薬の効果を調べるために、再び調査飛行(この場合、地域全体の調査飛行を行ってもよいし、作業個所に的を絞った調査飛行を行ってもよい)を行ったり、定期的に調査飛行と農薬散布を繰り返したり、あるいは、種まきや施肥のための飛行を行うなど、より複雑なプロセスを、本発明を適用して行うことができる。 Also, depending on the application, a process involving more multi-step flight can be performed. For example, in the case of pesticide spraying in a field, after a certain period of time has passed from the day when the pesticide was sprayed, a survey flight may be conducted again (in this case, a survey flight for the entire area may be conducted) in order to investigate the effect of the pesticide. More complex processes, such as conducting survey flights that focus on the work area), repeating survey flights and pesticide spraying on a regular basis, or flying for sowing and fertilization. This can be done by applying the present invention.

また、上述したデータサーバの一部または全部が、ユーザの使用する操作端末内に実装されていてもよい。例えば、飛行計画を作成するためのソフトウェアツールが、操作端末7にインストールされていて、ユーザがそのツールを用いて自分で飛行計画を作成できる、または、そのツールが自動的に飛行計画を作成するようになっていてよい。
また、作業対象の種類または状況に応じて、ドローンとして、飛行以外の移動方法、例えば、地上走行、水上航行、水中潜航などが行えるものを使用する場合にも、本発明を適用してよい。
Further, a part or all of the above-mentioned data server may be implemented in the operation terminal used by the user. For example, a software tool for creating a flight plan is installed on the operating terminal 7, and the user can create a flight plan by himself using the tool, or the tool automatically creates a flight plan. It may be like this.
The present invention may also be applied when a drone capable of moving methods other than flight, such as ground traveling, water navigation, and underwater diving, is used depending on the type or situation of the work object.

1 作業支援システム
3 調査ドローン
5 実作業ドローン
7 データサーバ
9 操作端末
17、27 制御器
19、29 無線操縦器
31 地域登録部
33 飛行計画入力部
35 飛行計画出力部
37 撮影画像入力部
39 撮影画像出力部
41 撮影位置入力部
43 撮影位置出力部
45 画像表示部
47 作業個所登録部
48 作業結果入力部
49 作業結果出力部
51 地域位置データベース
53 三次元地図データベース
55 飛行計画データベース
57 撮影画像データベース
59 撮影位置データベース
61 地域画像データベース
63 作業個所データベース
65 作業結果データベース
71 飛行計画作成部
73 撮影画像入力部
75 撮影位置入力部
77 撮影画像結合部
79 分析部
100 作業支援システム
101 データサーバ
111 操作端末
103 作業計画データベース
105 作業計画提案データベース
107 解析部
108 症状解析部
109 作業解析部
113 特異個所検出部
115 作業計画入力部
117 提案提示部
119 作業選択部
121 症状学習ディープニューラルネットワーク
123 症状推論ディープニューラルネットワーク
131 作業学習ディープニューラルネットワーク
133 作業推論ディープニューラルネットワーク
141、151 作業計画学習ディープニューラルネットワーク
143、153 作業計画推論ディープニューラルネットワーク
161 画像補正スケール
163C カラースケール
163G グレースケール
165 ユニットパネル
167 基準色スケール
169 識別符号
171 補正システム
1 Work support system 3 Survey drone 5 Actual work drone 7 Data server 9 Operation terminals 17, 27 Controllers 19, 29 Radio controller 31 Area registration unit 33 Flight plan input unit 35 Flight plan output unit 37 Photographed image input unit 39 Photographed image Output unit 41 Shooting position input unit 43 Shooting position output unit 45 Image display unit 47 Work location registration unit 48 Work result input unit 49 Work result output unit 51 Area position database 53 Three-dimensional map database 55 Flight plan database 57 Photographed image database 59 Shooting Location database 61 Area image database 63 Work location database 65 Work result database 71 Flight plan creation unit 73 Photographed image input unit 75 Photographed position input unit 77 Photographed image combination unit 79 Analysis unit 100 Work support system 101 Data server 111 Operation terminal 103 Work plan Database 105 Work plan proposal database 107 Analysis unit 108 Symptom analysis unit 109 Work analysis unit 113 Singularity detection unit 115 Work plan input unit 117 Proposal presentation unit 119 Work selection unit 121 Symptom learning deep neural network 123 Symptom inference deep neural network 131 Work learning Deep Neural Network 133 Work Inference Deep Neural Network 141, 151 Work Plan Learning Deep Neural Network 143, 153 Work Plan Inference Deep Neural Network 161 Image Correction Scale 163C Color Scale 163G Gray Scale 165 Unit Panel 167 Reference Color Scale 169 Identification Code 171 Correction System

Claims (7)

1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたドローン作業支援システムにおいて、
第一の対象に対して行われた第一の作業の結果を受けて記憶する第一の作業結果記憶手段と、
記憶された前記第一の作業の結果を表す作業報告を作成する作業報告作成手段と、
作成された前記作業報告を前記ユーザの少なくとも一人に提供する作業報告提供手段と、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供する第二の対象特定ツール提供手段と、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶する第二の対象記憶手段と、
記憶された前記第二の対象の位置に応じて前記第二の対象に関する第二の作業に関する情報処理を行ない、前記情報処理の結果を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供する第二対象情報処理手段と
を備えたドローン作業支援システム。
In a drone work support system configured to be able to communicate with one or more drones, or to communicate with one or more users using the one or more drones.
The first work result storage means for receiving and storing the result of the first work performed on the first object,
A work report creation means for creating a work report representing the stored result of the first work, and
A work report providing means for providing the created work report to at least one of the users, and
A second targeting tool configured to allow at least one of the users to identify a second target according to the result of the first work displayed in the work report is provided at least by the user. A second means of providing targeting tools to one person,
A second object storage means that receives the identification of the second object from at least one of the users and stores the position of the second object, and
Information processing related to the second work related to the second object is performed according to the stored position of the second object, and the result of the information processing is provided to at least one of the users or at least one of the drones. A drone work support system equipped with a second target information processing means.
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて前記第二の対象の症状を特定することができるように構成された症状特定ツールを、前記ユーザの少なくとも一人に提供する症状特定ツール提供手段と、
前記ユーザの少なくとも一人から前記症状の特定を受け、前記症状を記憶する症状記憶手段と、
を更に備えた請求項1記載のドローン作業支援システム。
A symptom identification tool configured to allow at least one of the users to identify the symptom of the second target according to the result of the first work displayed in the work report is provided by at least one of the users. Means for providing symptom identification tools to one person,
A symptom memory means for receiving the identification of the symptom from at least one of the users and memorizing the symptom,
The drone work support system according to claim 1, further comprising.
前記第一の作業の結果を受けて、前記第一の対象の中から特異部分を自動的に検出し、検出された前記特異部分を、前記第二の対象の提案として前記ユーザの少なくとも一人に提供する第二の対象提案手段
をさらに備えた請求項1乃至2のいずれか一項記載のドローン作業支援システム。
In response to the result of the first operation, a singular part is automatically detected from the first target, and the detected singular part is sent to at least one of the users as a proposal of the second target. The drone work support system according to any one of claims 1 to 2, further comprising a second target proposal means to be provided.
前記第一の作業の結果を受けて、前記第二の作業の作業内容の提案を自動的に生成し、前記作業内容の提案を前記ユーザの少なくとも一人に提供する作業内容提案手段
をさらに備える請求項1乃至3のいずれか一項記載のドローン作業支援システム。
A claim further comprising a work content proposing means that automatically generates a work content proposal for the second work in response to the result of the first work and provides the work content proposal to at least one of the users. The drone work support system according to any one of items 1 to 3.
前記第一の作業の結果を受けて、前記第二の対象の症状の提案を自動的に生成し、前記症状の提案を前記ユーザの少なくとも一人に提供する症状提案手段
をさらに備えた請求項1乃至4のいずれか一項記載のドローン作業支援システム。
Claim 1 further comprising a symptom suggestion means that automatically generates a symptom suggestion for the second target in response to the result of the first work and provides the symptom suggestion to at least one of the users. The drone work support system according to any one of 4 to 4.
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムにより行われるドローン作業支援方法において、
第一の対象に対して行われた第一の作業の結果を受けて記憶するステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、及び、
記憶された前記第二の対象の位置に応じて前記第二の対象における第二の作業に関する情報処理を行い、前記情報処理の結果を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ
を有するドローン作業支援方法。
In a drone work support method performed by a computer system configured to be able to communicate with one or more drones or to be able to communicate with one or more users using the one or more drones.
A step to receive and memorize the results of the first work performed on the first object,
Steps to create a work report representing the results of the first work stored,
A step of providing the created work report to at least one of the users,
A second targeting tool configured to allow at least one of the users to identify a second target according to the result of the first work displayed in the work report is provided at least by the user. Steps to offer to one person,
A step of receiving the identification of the second target from at least one of the users and storing the position of the second target, and
Information processing related to the second work in the second object is performed according to the stored position of the second object, and the result of the information processing is provided to at least one of the users or at least one of the drones. Drone work support method with steps.
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムに、ドローン作業支援方法を実行させるための機械読み取り可能なコンピュータプログラムにおいて、前記ドローン作業支援方法が、
第一の対象に対して行われた第一の作業の結果を受けて記憶するステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、及び、
記憶された前記第二の対象の位置に応じて前記第二の対象における第二の作業に関する情報処理を行ない、前記情報処理の結果を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ
を有するコンピュータプログラム。
In a machine-readable computer program for causing a computer system configured to communicate with one or more drones, or with one or more users using the one or more drones, to execute a drone work support method. The drone work support method
A step to receive and memorize the results of the first work performed on the first object,
Steps to create a work report representing the results of the first work stored,
A step of providing the created work report to at least one of the users,
A second targeting tool configured to allow at least one of the users to identify a second target according to the result of the first work displayed in the work report is provided at least by the user. Steps to offer to one person,
A step of receiving the identification of the second target from at least one of the users and storing the position of the second target, and
Information processing related to the second work in the second object is performed according to the stored position of the second object, and the result of the information processing is provided to at least one of the users or at least one of the drones. A computer program with steps.
JP2020203163A 2017-03-30 2020-12-08 Systems and methods for assisting work with drones Active JP7129069B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017066872 2017-03-30
JP2017066872 2017-03-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017196710A Division JP6811483B2 (en) 2017-03-30 2017-10-10 Systems and methods to support work with drones

Publications (2)

Publication Number Publication Date
JP2021051767A true JP2021051767A (en) 2021-04-01
JP7129069B2 JP7129069B2 (en) 2022-09-01

Family

ID=64018834

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017196710A Active JP6811483B2 (en) 2017-03-30 2017-10-10 Systems and methods to support work with drones
JP2020203163A Active JP7129069B2 (en) 2017-03-30 2020-12-08 Systems and methods for assisting work with drones

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017196710A Active JP6811483B2 (en) 2017-03-30 2017-10-10 Systems and methods to support work with drones

Country Status (1)

Country Link
JP (2) JP6811483B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6741052B2 (en) 2017-09-29 2020-08-19 株式会社デンソー Fuel injection valve
JP6914874B2 (en) * 2018-03-14 2021-08-04 株式会社ゼンリンデータコム Flight route generator and flight route generation method
JP6777923B2 (en) * 2018-06-28 2020-10-28 株式会社ナイルワークス Drone system, drone system control method, and drone system control program
JP2022087355A (en) * 2019-02-08 2022-06-10 株式会社ナイルワークス Drone system
JP2022107078A (en) * 2019-02-08 2022-07-21 株式会社ナイルワークス Drone system
JP7242077B2 (en) * 2019-02-08 2023-03-20 株式会社ナイルワークス Drone system, drone system control method, drone system control program, and control device
CN113412053B (en) * 2019-02-12 2023-04-04 株式会社尼罗沃克 Unmanned aerial vehicle system, control method of unmanned aerial vehicle system, and computer-readable recording medium
JP7260631B2 (en) * 2019-03-18 2023-04-18 株式会社Nttドコモ Information processing equipment
KR102316838B1 (en) * 2019-08-14 2021-10-25 경북대학교 산학협력단 Personalized wireless controller for drone and Personalized control method
WO2021029065A1 (en) * 2019-08-15 2021-02-18 株式会社センシンロボティクス Management server and management system for flying object
JP7274978B2 (en) * 2019-08-20 2023-05-17 株式会社クボタ air vehicle support system
JP7428461B2 (en) 2020-01-21 2024-02-06 アルパイン株式会社 Unmanned aircraft system and flight control method
JP6934964B2 (en) * 2020-02-05 2021-09-15 ソフトバンク株式会社 Routing device, program, routing method, and system
JP7289802B2 (en) * 2020-02-17 2023-06-12 株式会社日立製作所 reservoir calculator
JP6876354B1 (en) * 2020-03-04 2021-05-26 株式会社センシンロボティクス Aircraft management server and management system
JP6777962B1 (en) * 2020-03-04 2020-10-28 株式会社センシンロボティクス Aircraft management server and management system
JP7347651B2 (en) * 2020-03-11 2023-09-20 日本電気株式会社 Aircraft control device, aircraft control method, and program
JP6771253B1 (en) * 2020-07-02 2020-10-21 株式会社センシンロボティクス Aircraft management server and management system
JP6786138B1 (en) * 2020-07-02 2020-11-18 株式会社センシンロボティクス Aircraft management server and management system
JP7165703B2 (en) * 2020-09-24 2022-11-04 楽天グループ株式会社 Flight system, flight path determination method, and flight path determination device
JP7004863B1 (en) 2020-12-24 2022-02-14 Kddi株式会社 Flight management system and flight management method
JP7108063B1 (en) 2021-01-26 2022-07-27 Kddi株式会社 Route generation device, route generation method and program
WO2023153014A1 (en) * 2022-02-14 2023-08-17 出光興産株式会社 Flight route determining system, and server
WO2023181253A1 (en) * 2022-03-24 2023-09-28 日本電気株式会社 Flight management system, flight management method, and recording medium
JP7132680B1 (en) * 2022-03-31 2022-09-07 株式会社オプティム program, method, information processing device, system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program

Also Published As

Publication number Publication date
JP2018169995A (en) 2018-11-01
JP7129069B2 (en) 2022-09-01
JP6811483B2 (en) 2021-01-13

Similar Documents

Publication Publication Date Title
JP6811483B2 (en) Systems and methods to support work with drones
JP2018169995A5 (en)
JP7087130B2 (en) Inspection system, information processing device, inspection control program
CN106774431B (en) Method and device for planning air route of surveying and mapping unmanned aerial vehicle
WO2019073704A1 (en) Deterioration diagnosis system using aircraft
US11907341B2 (en) Diagnostic assistance system and method therefor
EP3885871B1 (en) Surveying and mapping system, surveying and mapping method and apparatus, device and medium
CN107077152A (en) Control method, equipment, system, unmanned plane and moveable platform
KR102096262B1 (en) Device for flight simulating of unmanned aerial vehicle, and system for flight simulating of unmanned aerial vehicle using thereof
JP6914874B2 (en) Flight route generator and flight route generation method
CN110254722A (en) A kind of aerocraft system and its method, the product with computer program
CN110832494A (en) Semantic generation method, equipment, aircraft and storage medium
WO2020103109A1 (en) Map generation method and device, drone and storage medium
JP6973375B2 (en) Control device, control method, and control program
JP7182710B2 (en) Surveying methods, equipment and devices
CN105526916A (en) System and method for dynamic image masking
JP2024061767A (en) Drone operation support system and drone operation support method
JP2018156491A (en) Facility inspection system
CN112462756B (en) Agriculture and forestry operation task generation method and device, computer equipment and storage medium
JPWO2019082519A1 (en) Information processing equipment, information processing methods, programs, information processing systems
KR102262382B1 (en) large area space information system for image acquistion base Unmanned Aerial Vehicle
Raptis et al. End-to-end precision agriculture UAV-based functionalities tailored to field characteristics
JP7039766B2 (en) On-site work support system
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
RU2716477C1 (en) System for monitoring forest use and forest pathological changes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220812

R150 Certificate of patent or registration of utility model

Ref document number: 7129069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150