JP2018169995A5 - - Google Patents

Download PDF

Info

Publication number
JP2018169995A5
JP2018169995A5 JP2017196710A JP2017196710A JP2018169995A5 JP 2018169995 A5 JP2018169995 A5 JP 2018169995A5 JP 2017196710 A JP2017196710 A JP 2017196710A JP 2017196710 A JP2017196710 A JP 2017196710A JP 2018169995 A5 JP2018169995 A5 JP 2018169995A5
Authority
JP
Japan
Prior art keywords
work
users
drones
target
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017196710A
Other languages
Japanese (ja)
Other versions
JP2018169995A (en
JP6811483B2 (en
Filing date
Publication date
Application filed filed Critical
Publication of JP2018169995A publication Critical patent/JP2018169995A/en
Publication of JP2018169995A5 publication Critical patent/JP2018169995A5/ja
Application granted granted Critical
Publication of JP6811483B2 publication Critical patent/JP6811483B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

ドローンを用いた作業を支援するシステムおよび方法System and method for supporting work using a drone

本発明は、施設、建造物、土地、圃場、森林などの人工物または自然物に対する調査、点検、保守、加工、破壊または建造などの作業を支援するためのシステム及び方法に関し、特に、ドローンを用いた作業の支援に好適なシステムおよび方法に関する。本明細書では、「ドローン」という用語を、搭乗員なしに操縦し得る移動体(例えば、遠隔から無線で操縦し得るか、または自律的に操縦し得る航空機、走行機、水上船、潜水機など)を指す意味で用いる。   The present invention relates to a system and a method for supporting works such as research, inspection, maintenance, processing, destruction, or construction of artificial or natural objects such as facilities, buildings, land, fields, forests, etc. The present invention relates to a system and a method that are suitable for supporting the work performed. As used herein, the term "drone" refers to a mobile object that can be steered without a crew (e.g., an aircraft, traveling vehicle, surface craft, submersible that can be steered wirelessly remotely or autonomously steered). Etc.).

ドローンを様々な用途に利用するための技術が知られている。例えば特許文献1に開示された管理システムは、無人飛行体を利用して、建物内に存在する対象物(例えば、屋内駐車場内の駐車車両)の位置の特定および特徴情報の取得を行なう。   Techniques for using drones for various purposes are known. For example, the management system disclosed in Patent Literature 1 uses an unmanned aerial vehicle to specify the position of an object (for example, a parked vehicle in an indoor parking lot) existing in a building and acquire characteristic information.

この管理システムによれば、建物内の地図に基づいて、建物内における車両の位置を特定するための飛行経路が計算される。そして、その飛行経路に沿って、無人飛行体が飛行する。その飛行中、無人飛行体に搭載された位置関連情報取得部が、車両の位置に関連する情報を取得する。そして、取得された情報に基づいて、建屋内における車両の位置が特定され、その位置特定の結果に基づいて、それぞれの車両の特徴を特定するための飛行経路が算出される。その後、後者の飛行経路に沿って無人飛行体が飛行する。その飛行中、無人飛行体に搭載された特徴情報取得部が、個々の車両の特徴情報を取得する。そして、取得された特徴情報を、特定された車両の位置と関連付けることにより、個々の車両の特徴情報が特定される。   According to this management system, a flight path for specifying the position of the vehicle in the building is calculated based on the map in the building. Then, the unmanned aerial vehicle flies along the flight path. During the flight, a position-related information acquisition unit mounted on the unmanned aerial vehicle acquires information related to the position of the vehicle. Then, the position of the vehicle in the building is specified based on the acquired information, and the flight path for specifying the characteristics of each vehicle is calculated based on the result of the position specification. Thereafter, an unmanned aerial vehicle flies along the latter flight path. During the flight, a characteristic information acquisition unit mounted on the unmanned aerial vehicle acquires characteristic information of each vehicle. Then, the characteristic information of each vehicle is specified by associating the acquired characteristic information with the position of the specified vehicle.

特許文献2には、無人飛行体を利用した送電線点検システムが開示されている。このシステムによると、無人飛行体が送電線の点検個所(鉄塔、送電線真下の敷地、送電線に近接した樹木など)を撮影し、その撮影画像から点検個所の三次元画像が生成される。その三次元画像に基づいて点検個所の異常が見つけだされる。例えば、鉄塔の色や輝度や彩度などから、メッキの腐食度合いが判定されたり、あるいは、過去の三次元画像との比較により新しい変化が把握されたりする。   Patent Document 2 discloses a transmission line inspection system using an unmanned aerial vehicle. According to this system, an unmanned aerial vehicle takes an image of an inspection point of a transmission line (a steel tower, a site immediately below the transmission line, a tree close to the transmission line, etc.), and generates a three-dimensional image of the inspection point from the captured image. Based on the three-dimensional image, an abnormality at the inspection location is found. For example, the degree of corrosion of the plating is determined from the color, luminance, saturation, and the like of the tower, or a new change is grasped by comparison with a past three-dimensional image.

特許文献3には、無人飛行体により水田を撮影することで得られた画像から、水田の水位を把握して、水門の開閉指示を送信する水位管理システムが開示されている。   Patent Literature 3 discloses a water level management system that grasps the water level of a paddy field from an image obtained by photographing the paddy field using an unmanned aerial vehicle, and transmits an instruction to open and close the floodgate.

特許文献4には、建物や橋梁などの構造物の劣化を推定し、点検計画を作成し、そして、補修要否を判断する点検システムが記載されている。点検システムは、構造物の設計データおよび状況データ(使用履歴や最近の点検結果や補修結果など)に基づいて、構造物の劣化を自動的に推定し、その推定結果に基づいて、無人飛行体による写真撮影などを用いた簡易点検を実施するための第1点検計画を自動作成する。そして、点検システムは、実施された簡易点検の結果に基づいて、人による詳細点検を実施するための第2点検計画を自動作成し、そして、実施された詳細点検の結果に基づいて、構造物の補修の要否を自動判断する。   Patent Document 4 describes an inspection system that estimates deterioration of a structure such as a building or a bridge, creates an inspection plan, and determines whether repair is necessary. The inspection system automatically estimates the deterioration of the structure based on the design data and the situation data of the structure (use history, recent inspection results, repair results, etc.), and based on the estimation results, the unmanned aerial vehicle Automatically creates a first inspection plan for performing a simple inspection using photographing or the like. Then, the inspection system automatically creates a second inspection plan for performing a detailed inspection by a person based on the result of the performed simple inspection, and then, based on the result of the performed detailed inspection, Automatically determine if repair is required.

特開2015−131713号公報JP-A-2013-131713 特開2005−265699号公報JP 2005-265699 A 特開2016−220681号公報JP 2016-220681 A 特開2017−071972号公報JP-A-2017-071972

ある作業にドローンを利用するためには、その作業に適した移動計画(例えば飛行ドローン用の飛行計画)を用意する、あるいは、その作業が適切に行われるようにドローンを手動で操縦する必要がある。しかし、これは多くの作業者にとりそう容易ではない。例えば、農薬散布などの農作業にドローンが利用できれば農業の生産性が改善されるであろうが、一般的な農家にとり、それを実行することは容易でない。   In order to use a drone for a task, it is necessary to prepare a suitable travel plan for the task (for example, a flight plan for a flying drone) or manually pilot the drone to perform the task properly. is there. However, this is not so easy for many workers. For example, the availability of drones for agricultural work such as pesticide spraying will improve agricultural productivity, but it is not easy for ordinary farmers to do so.

作業は、期待される効果が得られるように、適切に計画され実施されることが望まれる。しかし、現実のさまざまな状況においてどのような作業が適切であるかを判断することは、個々の作業者にとっても、作業を支援するシステムの設計者にとっても、容易ではない。さらには、例えば圃場への農薬散布の場合、同じ農作物の同じ病害に対して、同じ農薬が常に期待の効果をもたらすわけではない。同じ病害に同じ農薬を繰り返し使い続けると、効果が落ちてくるため、農薬を変更した方がよい場合がある。このような事情が、期待された作業効果を得るための作業計画の設計をいっそう難しくする。   It is desirable that work be properly planned and implemented so that expected effects can be obtained. However, it is not easy for an individual worker or a designer of a system that supports the work to determine what kind of work is appropriate in various actual situations. Furthermore, for example, in the case of spraying a pesticide on a field, the same pesticide does not always have the expected effect on the same disease of the same crop. Repeated use of the same pesticide for the same disease will reduce its effectiveness, so it may be better to change the pesticide. Such circumstances make it more difficult to design a work plan to obtain the expected work effect.

本発明の目的の一つは、ドローンなどの移動体を用いた作業を支援するシステムにおいて、ユーザによる移動体の所望作業への利用をいっそう容易化することにある。   An object of the present invention is to make it easier for a user to use a mobile unit for a desired operation in a system that supports work using a mobile unit such as a drone.

本発明の別の目的は、期待された作業効果を得るための作業計画の設計を支援することにある。   It is another object of the present invention to assist in designing a work plan to achieve expected work effects.

本発明の一実施形態に従う、1以上のドローンを用いて1以上の作業を行うためのドローン作業支援システムは、データサーバを備え、そのデータサーバは、ユーザにより使用される1以上の操作端末と通信可能であるか、または、その少なくとも一部が前記操作端末の一つに実装される。ユーザの使用する操作端末はドローンとデータの受け渡しが可能である。   According to one embodiment of the present invention, a drone operation support system for performing one or more operations using one or more drones includes a data server, the data server including one or more operation terminals used by a user. It is communicable or at least part of it is mounted on one of the operating terminals. The operation terminal used by the user can exchange data with the drone.

そして、データサーバが、1以上の操作端末の一つから、ユーザによる地理的領域の指定を受け、その地理的領域の位置を記憶する地理的領域記憶手段と、その地理的領域の位置に基づいて、その地理的領域に対して移動しつつその地理的領域に所定の作業を施すように1以上のドローンの一つを制御するための移動計画を作成する移動計画作成手段と、その移動計画を記憶する移動計画記憶手段と、その移動計画を操作端末の一つを通じてドローンの一つに供給できるように、その移動計画を操作端末の一つに提供する移動計画提供手段とを備える。   Then, the data server receives a designation of a geographical region by the user from one of the one or more operation terminals, and stores the geographical region position based on the geographical region position based on the geographical region position. Moving plan creation means for creating a movement plan for controlling one of the one or more drones so as to perform a predetermined operation on the geographical area while moving with respect to the geographical area; And a movement plan providing means for providing the movement plan to one of the operation terminals so that the movement plan can be supplied to one of the drones through one of the operation terminals.

このドローン作業支援システムによれば、ユーザは、自分の操作端末からデータサーバに対して、所望の地理的領域を指定することにより、その地理的領域においてドローンに作業を実行させるための移動計画をデータサーバから操作端末に入手することができる。そして、その移動計画を操作端末からドローンに供給することで、ドローンはその地理的領域でその作業を実行できる状態に設定できる。   According to this drone work support system, a user designates a desired geographical area from his / her operation terminal to a data server, and thereby creates a movement plan for causing the drone to execute work in the geographical area. It can be obtained from the data server to the operation terminal. Then, by supplying the movement plan to the drone from the operation terminal, the drone can be set in a state where the drone can execute the work in the geographical area.

このドローン作業支援システムによれば、ユーザは自分の操作端末を主に操作するだけで容易に、ドローンを自分の所望の地理的領域で作業させ得るように設定できる。   According to this drone work support system, a user can easily set the drone to work in his / her desired geographical area simply by operating his / her own operation terminal.

上記移動計画は、上記地理的領域に対し作業を施すために移動すべき経路を定義した移動経路と、その移動経路上で作業を実行すべき位置を定義した作業位置とを含むことができる。   The movement plan may include a movement path defining a path to be moved to perform the work on the geographical area, and a work position defining a position on the movement path at which the work is to be performed.

このように移動経路と作業位置を含む移動計画を用いることで、ドローンの移動と移動中に行われる作業の双方を、より容易に制御可能である。   As described above, by using the movement plan including the movement route and the work position, both the movement of the drone and the work performed during the movement can be more easily controlled.

上記作業の一例として、地理的領域の写真撮影を挙げることができる。ドローンを用いて写真撮影を行う場合、移動計画内の移動経路には、互いに結合されることで前記地理的領域の全域をカバーするように配置された複数の区域に移動するための経路の定義を含ませることができる。また、移動計画内の作業位置には、上記複数の区域のそれぞれの写真の撮影を実行すべき位置の定義を含ませることができる。   As an example of the above work, taking a photograph of a geographical region can be mentioned. When taking a photograph using a drone, the travel route in the travel plan includes a definition of a route for traveling to a plurality of areas arranged so as to be combined with each other to cover the entire geographical area. Can be included. Further, the work position in the movement plan can include a definition of a position where the photographing of each of the plurality of areas should be performed.

このような移動計画を用いれば、ドローンを用いて地理的領域の全域をカバーする全区域の写真を撮影することが容易になる。   With such a movement plan, it is easy to take a picture of the whole area covering the whole geographical area using the drone.

この作業支援システムで使用される各ドローンは、ユーザが操作する無線操縦器から操縦指示を受ける操縦指示受信手段と、供給された移動計画に従って自律的に移動する自動操縦手段と、自動操縦手段による自律的な移動の最中に、無線操縦器から受けた操縦指示に応答して、自機の移動位置または移動速度を修正する移動修正手段とを有することができる。   Each drone used in this work support system includes a control instruction receiving unit that receives a control instruction from a radio control device operated by a user, an automatic control unit that autonomously moves according to a supplied movement plan, and an automatic control unit. It is possible to have a movement correcting means for correcting the moving position or the moving speed of the own device in response to a control instruction received from the wireless control device during the autonomous movement.

このような構成のドローンは、移動計画に従って自律的につまり自動的に移動する。そして、ユーザは、危険回避などの必要に応じて、無線操縦器からドローンに指示を送って移動位置または移動速度を修正することができる。これにより、ドローンの操縦に不慣れなユーザであっても、ドローンを正しく移動させることが容易になるとともに、不測の事態に対応しがたいという自動移動の欠点も克服できる。   A drone having such a configuration moves autonomously, that is, automatically, according to a movement plan. Then, the user can send an instruction from the wireless pilot to the drone to correct the moving position or the moving speed as necessary for danger avoidance or the like. As a result, even a user who is unfamiliar with the operation of the drone can easily move the drone correctly, and can overcome the drawback of automatic movement, which makes it difficult to respond to unexpected situations.

この作業支援システムは、汎用の情報処理端末(例えば、スマートフォン、タブレット端末、パーソナルコンピュータなど)を上記操作端末として機能させるための、情報処理端末にインストールされて実行され得る機械読み取り可能なコンピュータプログラムを有することができる。このコンピュータプログラムは、ユーザによる地理的領域の指定をデータサーバに提供する地理的領域指定手段、移動計画をデータサーバから受け取る移動計画入力手段、および受け取った移動計画をドローンの一つに供給する移動計画出力手段、として上記の汎用情報処理端末を動作させるように構成されることができる。   The work support system includes a machine-readable computer program that can be installed and executed on the information processing terminal to cause a general-purpose information processing terminal (for example, a smartphone, a tablet terminal, or a personal computer) to function as the operation terminal. Can have. The computer program includes a geographical area designating means for providing a user with a geographical area designation to a data server, a travel plan input means for receiving a travel plan from the data server, and a travel for supplying the received travel plan to one of the drones. The general-purpose information processing terminal can be configured to operate as the plan output means.

ユーザは、このようなコンピュータプログラムを、自分が使用する汎用の情報処理端末にダウンロードしてインストールすることで、その汎用の情報処理端末を、このドローン作業支援システムの操作端末として手軽に利用できる。   By downloading and installing such a computer program on a general-purpose information processing terminal used by the user, the user can easily use the general-purpose information processing terminal as an operation terminal of the drone operation support system.

このドローン作業支援システムにおいて、データサーバは、複数のユーザがそれぞれ使用する複数の操作端末と通信可能で、かつ、複数のユーザによりそれぞれ指定された複数の地理的領域に基づいてそれぞれ作成された複数の移動計画を記憶することができるように構成されてよい。   In this drone operation support system, the data server is capable of communicating with a plurality of operation terminals used by a plurality of users, respectively, and a plurality of data terminals respectively created based on a plurality of geographical areas designated by the plurality of users. May be configured to be able to store the movement plan of the vehicle.

そして、データサーバは、複数の移動計画を記憶する場合、それら複数の移動計画の各々を、それが基づいた一つの地理的領域を指定した一つのユーザに関連付けて記憶するように構成されてよい。加えて、データサーバは、記憶された複数の移動計画の中から、操作端末の一つを使用する一つのユーザに関連付けられた1以上の移動計画を選んで、それをその操作端末の一つに提供するように構成されてよい。   Then, when storing the plurality of travel plans, the data server may be configured to store each of the plurality of travel plans in association with one user who has designated one geographic region based on the plurality of travel plans. . In addition, the data server selects one or more travel plans associated with one user using one of the operation terminals from among the plurality of stored travel plans, and stores the one or more travel plans in one of the operation terminals. May be configured to provide.

このように構成されたドローン作業支援システムは、複数のユーザによって利用することができる。そして、各ユーザの操作端末には、データサーバに記憶されたいろいろな移動計画の中から、そのユーザが指定した地理的領域での作業のための移動計画が選択的に提供される。したがって、各ユーザにとり、自分の指定した地理的領域で正しくドローンを移動させ作業を行わせることが、容易である。   The drone operation support system configured as described above can be used by a plurality of users. Then, a movement plan for work in a geographical area designated by the user is selectively provided to the operation terminal of each user from various movement plans stored in the data server. Therefore, it is easy for each user to move the drone correctly in the geographical area designated by the user and perform the work.

このドローン作業支援システムでは、また、データサーバが次のように構成されてよい。   In this drone operation support system, the data server may be configured as follows.

すなわち、データサーバが、操作端末の一つから、ユーザによる第一の地理的領域の指定を受け、その第一の地理的領域の位置を記憶する第一の地理的領域記憶手段と、その第一の地理的領域の位置に基づいて、第一の地理的領域に対して移動しつつ第一の地理的領域に第一の作業を施すようにドローンの一つを制御するための第一の移動計画を作成する第一の移動計画作成手段と、その第一の移動計画を操作端末の一つを通じてドローンの一つに供給できるように、第一の移動計画を操作端末の一つに提供する第一の移動計画提供手段と、ドローンの一つにより実施された第一の作業の結果を受けて、その第一の作業の結果をユーザに知らせるための作業報告を作成する作業報告作成手段と、その作業報告を記憶する作業報告記憶手段と、ユーザが操作端末の一つを通じて第一の作業の結果を知ることができるように、作業報告を操作端末の一つに提供する作業報告提供手段と、操作端末の一つから、作業報告に応答したユーザによる第二の地理的領域の指定を受け、その第二の地理的領域の位置を記憶する第二の地理的領域記憶手段と、その第二の地理的領域に対して移動しつつ第二の地理的領域に第二の作業を施すようにドローンの一つを制御するための第二の移動計画を作成する第二の移動計画作成手段と、その第二の移動計画を操作端末の一つを通じてドローンの一つに供給できるように、第二の移動計画を操作端末の一つに提供する第二の移動計画提供手段と、を備えることができる。   That is, the data server receives designation of a first geographical area by a user from one of the operation terminals, and stores first geographical area storage means for storing the position of the first geographical area, A first for controlling one of the drones to perform a first task on the first geographic area while moving relative to the first geographic area based on a location of the one geographic area; First movement plan creation means for creating a movement plan, and providing the first movement plan to one of the operation terminals so that the first movement plan can be supplied to one of the drones through one of the operation terminals. A first movement plan providing means for performing, and a work report creation means for receiving a result of a first work performed by one of the drones and creating a work report for notifying a user of the result of the first work And work report storage means for storing the work report; A work report providing means for providing a work report to one of the operation terminals and a work report from one of the operation terminals so that the user can know the result of the first work through one of the operation terminals. A second geographical area designated by the responding user and storing the position of the second geographical area, and moving with respect to the second geographical area. A second movement plan creating means for creating a second movement plan for controlling one of the drones to perform the second work on the second geographical area, and an operation terminal for executing the second movement plan And a second movement plan providing means for providing a second movement plan to one of the operation terminals so that the drone can be supplied to one of the drones.

このような構成のデータサーバを利用すると、ユーザは、ドローンを用いて第一の地理的領域に対して第一の作業を実行し、その後、第一の作業の結果の報告を参照して、第二の作業を行うべき第二の地理的領域を指定し、その後、ドローンを用いて第二の地理的領域に対して第二の作業を実行するという、より複雑で段階的な作業プロセスを容易に実行できる。   Utilizing the data server having such a configuration, the user performs the first operation on the first geographical region using the drone, and then refers to the report of the result of the first operation, A more complex and step-by-step process of designating a second geographic area to perform the second work on, and then using a drone to perform the second work on the second geographic area Can be easily implemented.

上記の第一の地理的領域に対する第一の作業の一例として、ユーザが所望する地域の調査(例えば、ユーザが保有する圃場の写真撮影)を挙げることができる。地域調査を行う場合、上記第一の移動計画として、その地域の調査のために移動すべき経路を定義した調査移動経路と、その調査移動経路上でその地域の調査のための情報収集(例えば写真撮影)を実行すべき位置を定義した調査位置とを含んだ調査移動計画を用いることができる。   As an example of the first work on the first geographical area, a survey of a region desired by the user (for example, photographing a field held by the user) can be cited. When conducting a regional survey, as the first travel plan, a survey travel route that defines a route to be traveled for the survey of the region and information collection for the survey of the region on the survey travel route (for example, A survey movement plan that includes a survey position that defines the position where the photographing is to be performed can be used.

また、この場合、上記作業報告として、上記調査移動計画を用いて地域調査(例えば、圃場の写真撮影)を実行したドローンの一つにより収集された情報(例えば、圃場の随所で撮影された多数の写真画像)から作成された調査報告を用いることができる。   Also, in this case, as the work report, information collected by one of the drones that performed an area survey (for example, photography of a field) using the survey movement plan (for example, a large number of images taken everywhere in the field) Investigation report created from the photographic image can be used.

この場合、ユーザは、操作端末の一つを用いて、上記調査報告を参照し、そして、その調査報告に基づいて、上記地域(例えば圃場)内から、所定の実作業(例えば農薬散布)を施すべき作業個所(例えば、圃場内の病害の発生した個所)を、上記第二の地理的領域として指定することができる。   In this case, the user refers to the survey report using one of the operation terminals, and, based on the survey report, performs predetermined actual work (for example, spraying pesticides) from within the area (for example, a field). A work site to be performed (for example, a site where a disease has occurred in a field) can be designated as the second geographical area.

この場合、上記第二の移動計画として、上記作業個所(例えば、圃場内の病害の発生した個所)に前記実作業(例えば、農薬散布)を施すために移動すべき経路を定義した実作業移動経路と、その実作業移動経路上で上記実作業(例えば、農薬散布)を実行すべき位置を定義した実作業位置とを含む実作業移動計画を採用することができる。   In this case, as the second movement plan, an actual work movement that defines a route to be moved to perform the actual work (for example, pesticide spraying) on the work place (for example, a place where a disease has occurred in a field). An actual work transfer plan including a path and an actual work position that defines a position where the actual work (eg, pesticide spraying) is to be executed on the actual work movement path can be adopted.

したがって、例えば、ドローン用いて圃場の全域の写真を撮影し、その写真画像から病害発生個所を見つけ、そして、その個所にドローンで農薬を散布するというような、複雑で段階的な作業プロセスを、ユーザは容易に実行できる。   Therefore, for example, a complicated and step-by-step work process such as taking a photograph of the entire area of the field using a drone, finding a place where the disease occurs from the photograph image, and spraying pesticides with the drone at that place, The user can easily execute.

このドローン作業支援システムでは、データサーバが、次の要素をさらに備えてよい。   In this drone operation support system, the data server may further include the following elements.

操作端末の一つから、作業報告に応答したユーザによる、第二の地理的領域に対する第二の作業の指定を受け、指定された第二の作業を、第二の地理的領域に関連付けて記憶する第二作業記憶手段。作業報告記憶手段と第二の地理的領域記憶手段と第二作業記憶手段に記憶されている情報を用いて機械学習を行って、任意の作業報告に基づいて任意の第二の地理的領域に対する第二の作業を推定する推論ニューラルネットワークを生成する作業学習手段。機械学習手段により生成された推論ニューラルネットワークを用いて、ユーザ所望の作業報告に基づいてユーザ所望の第二の地理的領域に対する第二の作業の提案を生成する作業推論手段。作業推論手段により生成された第二の作業の提案をユーザに提供する提案提供手段。   From one of the operation terminals, a user who has responded to the work report receives designation of a second work for the second geographical area, and stores the designated second work in association with the second geographical area. Second working storage means to perform. Performing machine learning using the information stored in the work report storage means, the second geographical area storage means, and the second work storage means, and for any second geographical area based on any work report Task learning means for generating an inference neural network for estimating the second task. Work inference means for using the inference neural network generated by the machine learning means to generate a second work proposal for a second geographic region desired by the user based on a work report desired by the user. Proposal providing means for providing a user with a proposal for the second work generated by the work inference means.

このような構成のドローン作業支援システムによれば、第一の地理的領域の調査報告に基づいて第二の地理的領域を指定し、その第二の地理的領域に対して行うべき第二の作業を決定する、という判断をユーザが繰り返し行うことで、どのような調査報告に対して何処にどのような作業を行うべきかについてのユーザの判断結果がデータサーバに蓄積される。その蓄積されたユーザの判断結果を用いて、作業学習手段が、機械学習により推論ニューラルネットワークを作成する。その推論ニューラルネットワークを用いて、作業推論手段が、ユーザの所望の調査報告から、何処にどのような作業を行うべきかを推定し、その推定された作業を提案として出力する。この作業提案がユーザに提供される。この作業提案がユーザを助けて、期待された効果が得られる作業を特定することが、ユーザにとり容易になる。   According to the drone operation support system having such a configuration, the second geographical area is designated based on the survey report of the first geographical area, and the second geographical area to be performed on the second geographical area is specified. When the user repeatedly determines to determine the work, the result of the user's determination as to what work should be performed for what kind of investigation report is stored in the data server. Using the accumulated user judgment results, the work learning means creates an inference neural network by machine learning. Using the inference neural network, the work inference means estimates where and what work should be performed from the user's desired survey report, and outputs the estimated work as a proposal. This work proposal is provided to the user. This work proposal assists the user, and it becomes easy for the user to identify the work in which the expected effect is obtained.

このドローン作業支援システムでは、操作端末の一つが、第一の作業を行うための第一作業装置を有する第一作業ドローンと通信可能であり、また、操作端末の一つが、第二の作業を行うための第二作業装置を有する第二作業ドローンと通信可能であってよい。そして、データサーバの第一の移動計画作成手段が、上記第一作業ドローンを移動させつつその第一作業装置を駆動および制御できるように上記第一の移動計画を作成する、ように構成されてよい。また、上記第二の移動計画作成手段が、上記第二作業ドローンを移動させつつその第二作業装置を駆動および制御できるように上記第二の移動計画を作成する、ように構成されてよい。   In this drone operation support system, one of the operation terminals can communicate with the first operation drone having the first operation device for performing the first operation, and one of the operation terminals performs the second operation. It may be able to communicate with a second working drone having a second working device for performing. Then, the first movement plan creating means of the data server creates the first movement plan so as to drive and control the first work device while moving the first work drone, Good. Further, the second movement plan creating means may be configured to create the second movement plan so as to drive and control the second work device while moving the second work drone.

このような構成のドローン作業支援システムによれば、異なる複数の作業を行うときに、それぞれの作業に適した異なる構成をもつ複数のドローンを利用することが、容易になる。   According to the drone operation support system having such a configuration, when performing a plurality of different operations, it is easy to use a plurality of drones having different configurations suitable for each operation.

本発明の一つの実施形態にかかる作業支援システムは、作業対象の過去の調査結果を蓄積する第一のデータベースと、第一のデータベース内のユーザ所望の作業対象の調査結果をユーザに提供して、ユーザにその調査結果に応じた実作業を決定させる作業決定手段と、ユーザにより決定された実作業を上記調査結果に関連付けて蓄積する第二のデータベースと、第一と第二のデータベースに蓄積されたデータを用いた機械学習により、任意の調査結果からそれに応じた実作業を推定するための推論ニューラルネットワークを作成する機械学習手段と、第一のデータベース内のユーザ所望の調査結果に、機械学習手段により作成された推論ニューラルネットワークを適用して、実作業の提案を生成する推論手段と、推論手段により作成されたユーザ所望の調査結果に応じた実作業提案をユーザに提示する提案提示手段と、を備える。   A work support system according to an embodiment of the present invention provides a user with a first database that accumulates past survey results of work targets and a survey result of a work target desired by the user in the first database. A work determining means for allowing a user to determine an actual work according to the survey result, a second database for accumulating the actual work determined by the user in association with the survey result, and accumulating in the first and second databases Machine learning means for creating an inference neural network for estimating an actual work corresponding to any survey result from machine survey data, and a machine Inference means for generating an actual work proposal by applying the inference neural network created by the learning means, and a user created by the inference means. Includes a proposal presenting means for presenting the actual work proposed according to The desired survey results to the user, the.

この作業支援システムによれば、作業対象の調査と、ユーザによる調査結果に基づく実作業の決定が、多くのユーザにより、多くの作業対象について、あるいは、作業対象ごとに多くの機会にわたり繰り返されることで、第一と第二のデータベースの蓄積データが充実していき、それにともない、それらのデータを用いた機械学習が推進されて、調査結果から実作業を自動的に推定する推論ニューラルネットワークが作成され、その性能が向上していく。そして、その推論ニューラルネットワークがユーザ所望の調査結果に適用されて、その結果として推定された実作業の提案がユーザに提供される。この提案は、ユーザにとり適切な実作業を決定する上での参考となる。この支援により、ユーザが期待された効果が得られる実作業を決定することがより容易になる。   According to this work support system, the investigation of the work target and the determination of the actual work based on the investigation result by the user are repeated by many users for many work targets or over many opportunities for each work target. As the accumulated data in the first and second databases are enriched, machine learning using those data is promoted, and an inference neural network that automatically estimates actual work from the survey results is created And its performance will improve. Then, the inference neural network is applied to the survey result desired by the user, and as a result, the estimated actual work proposal is provided to the user. This suggestion will be helpful to the user in determining an appropriate actual work. With this support, it becomes easier for the user to determine the actual work that achieves the expected effect.

この作業支援システムは、調査結果を補正する補正システムをさらに備えてよい。   This work support system may further include a correction system that corrects the survey result.

本発明の一実施形態に係るドローンを用いた作業を支援するシステムの全体構成を示すブロック線図。FIG. 1 is a block diagram showing an overall configuration of a system for supporting work using a drone according to an embodiment of the present invention. 同システムの全体的な制御例の流れを示すフローチャート。4 is a flowchart showing the flow of an example of overall control of the system. 同システムにおける地域位置の登録の制御例の流れを示すフローチャート。5 is a flowchart showing a flow of a control example of registration of a local position in the system. 地域位置の指定方法例と地域位置のデータ構成例を示す説明図。FIG. 3 is an explanatory diagram showing an example of a method of specifying a local position and a data configuration example of the local position. 同システムにおける調査飛行計画の作成と設定の制御例の流れを示すフローチャート。5 is a flowchart showing a flow of a control example of creation and setting of an investigation flight plan in the system. 地域と調査飛行計画の関係例を示す説明図。Explanatory drawing which shows the example of a relationship between an area and an investigation flight plan. 調査飛行計画のデータ構成例を示す説明図。Explanatory drawing which shows the example of a data structure of an investigation flight plan. 同システムにおける調査ドローンを用いた写真撮影の制御例の流れを示すフローチャート。5 is a flowchart illustrating a flow of a control example of photographing using a research drone in the system. 同システムにおける撮影画像からの地域画像の作成と登録の制御例の流れを示すフローチャート。5 is a flowchart illustrating a flow of a control example of creation and registration of a regional image from a captured image in the system. 地域画像のデータ構成例を示す説明図。FIG. 3 is an explanatory diagram illustrating a data configuration example of a regional image. 同システムにおける作業個所と実作業飛行計画の登録の制御例の流れを示すフローチャート。4 is a flowchart showing a flow of a control example of registration of a work place and an actual work flight plan in the system. 作業個所のデータ構成例を示す説明図。Explanatory drawing which shows the example of a data structure of a work place. 作業個所と実作業飛行計画との関係例を示す説明図。Explanatory drawing which shows the example of a relationship between a work place and an actual work flight plan. 実作業飛行計画のデータ構成例を示す説明図。Explanatory drawing which shows the example of a data structure of an actual work flight plan. 同システムにおける実作業飛行計画の設定の制御例の流れを示すフローチャート。6 is a flowchart showing a flow of a control example of setting of an actual work flight plan in the same system. 同システムにおける実作業ドローンを用いた実作業の制御例の流れを示すフローチャート。5 is a flowchart showing a flow of an example of actual work control using an actual work drone in the same system. 本発明の第2の実施形態に係る作業支援システムの全体構成を示すブロック線図。FIG. 7 is a block diagram showing the overall configuration of a work support system according to a second embodiment of the present invention. 第2の実施形態にかかるシステムの全体的な制御例の流れを示すフローチャート。9 is a flowchart showing the flow of an overall control example of the system according to the second embodiment. 症状解析部の構成例を示すブロック線図。FIG. 3 is a block diagram showing a configuration example of a symptom analysis unit. 作業解析部の構成例を示すブロック線図。FIG. 2 is a block diagram illustrating a configuration example of a work analysis unit. 操作端末の表示スクリーン上で作業個所の領域を選択するときのグラフィックインタフェース例を示す図。The figure which shows the example of a graphic interface at the time of selecting the area | region of a work place on the display screen of an operation terminal. 操作端末の表示スクリーン上で作業個所の症状を特定するときのグラフィックインタフェース例を示す図。The figure which shows the example of a graphic interface when specifying the symptom of a work place on the display screen of an operation terminal. 操作端末の表示スクリーン上で作業個所に施すべき実作業を決定するときのグラフィックインタフェースを示す図。The figure which shows the graphic interface at the time of deciding the actual work which should be performed to a work place on the display screen of an operation terminal. 解析部の別の構成例を示すブロック線図。FIG. 9 is a block diagram showing another configuration example of the analysis unit. 解析部のまた別の構成例を示すブロック線図。FIG. 11 is a block diagram showing another configuration example of the analysis unit. ドローンによる写真撮影で用いることができる画像補正スケールの一例の平面デザインを示す平面図。FIG. 3 is a plan view showing a planar design of an example of an image correction scale that can be used in photography by a drone. 図26に示された画像補正スケールの一例における各基準色のパネルが満たす寸法条件の一例を示す図。FIG. 27 is a diagram showing an example of dimensional conditions satisfied by the panel of each reference color in the example of the image correction scale shown in FIG. 26. 画像補正スケールを利用して地域画像を補正するためのシステムの構成例を示すブロック線図。FIG. 2 is a block diagram showing a configuration example of a system for correcting a regional image using an image correction scale. 図28に示された補正システムが行う制御の一例を示すフローチャート。29 is a flowchart illustrating an example of control performed by the correction system illustrated in FIG. 28.

以下、本発明の一実施形態を図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

以下の説明では、圃場の点検保守(例えば、病害や生理障害が生じた個所の特定と、その箇所への農薬や肥料の散布など)に無人航空機として構成されたドローンを利用するという用途を例にとり、本発明の実施形態を説明する。しかし、この用途は説明のための例示にすぎず、他の用途に同実施形態を適用することを制限する趣旨ではない。   In the following explanation, an example of using a drone configured as an unmanned aerial vehicle for field inspection and maintenance (for example, identifying a location where a disease or physiological disorder has occurred and spraying pesticides and fertilizers on the location). First, an embodiment of the present invention will be described. However, this application is merely an example for explanation, and is not intended to limit application of the embodiment to other applications.

図1は、本発明の一実施形態に係るドローンを用いた作業を支援するシステムの全体構成を示す。   FIG. 1 shows an overall configuration of a system for supporting work using a drone according to an embodiment of the present invention.

図1に示される作業支援システム1は、典型的には、複数の異なるユーザがこれを利用することができるものである。しかし、以下では、複数のユーザの中の一人のユーザの利用シーンに的を絞って説明を進める。   The work support system 1 shown in FIG. 1 is typically one that can be used by a plurality of different users. However, in the following, the description will be focused on a use scene of one of a plurality of users.

図1に示すように、作業支援システム1を利用する際、ユーザは異なる作業に適した異なる種類のドローン、例えば二種類のドローン3、5を使用することができる。本実施形態では、その一つは調査ドローン3であり、ユーザが所望する地理的領域つまり地域(例えば、そのユーザが保有または利用する圃場)の状態を調査、つまりその地域の情報を収集する役目をもつ。本実施形態では、地域調査の方法として、その地域の写真を上空から撮影することを採用する。しかし、写真撮影は一つの例示であり、他の調査方法、例えば、電波レーダ、音波レーダ、あるいは各種のセンサを用いた情報収集法を採用してもよい。また、異なる調査方法を組み合わせてもよい。   As shown in FIG. 1, when using the work support system 1, the user can use different types of drones suitable for different works, for example, two types of drones 3 and 5. In the present embodiment, one of them is a research drone 3, which investigates the state of a geographical area desired by a user, that is, an area (for example, a field owned or used by the user), that is, a role of collecting information on the area. With. In the present embodiment, taking a picture of the area from the sky is adopted as a method of the area survey. However, photography is one example, and other investigation methods, for example, a radio wave radar, a sound wave radar, or an information collection method using various sensors may be adopted. Further, different survey methods may be combined.

本実施形態では、もう一つの種類のドローンは、実作業ドローン5であり、その地域で実施されるべきある種の作業(以下、実作業という)、例えば広大な圃場の中で病害が発生した個所へ選択的に農薬を散布する作業、を実行する役目をもつ。   In the present embodiment, another type of drone is the actual work drone 5, and a certain kind of work to be performed in the area (hereinafter, referred to as actual work), for example, a disease has occurred in a vast field. It has the role of performing the task of spraying pesticides selectively to each location.

調査ドローン3と実作業ドローン5として、同じ機体のドローンを用いてもよいが、それぞれの役目を最適に果たすためには、それぞれに別の機体のドローンを用いることが望ましい場合が多いであろう。また、一つの地域について、複数機の調査ドローン3を用いる、および/または複数機の実作業ドローン5を用いることも可能である。しかし、以下では、一人のユーザが一機の調査ドローン3と別の一機の実作業ドローン5を用いる場合を例にとり、説明を進める。   Although the same type of drone may be used as the research drone 3 and the actual work drone 5, it is often desirable to use different types of drones in order to optimally fulfill their roles. It is also possible to use a plurality of survey drones 3 and / or use a plurality of actual drones 5 for one region. However, in the following, the description will be given taking a case where one user uses one research drone 3 and another actual work drone 5 as an example.

作業支援システム1は、また、データサーバ7を有し、これはドローン3、5の利用に必要なさまざまなデータを管理および処理するためのコンピュータシステムである。   The work support system 1 also has a data server 7, which is a computer system for managing and processing various data necessary for using the drones 3,5.

さらに、作業支援システム1を利用する際、ユーザは操作端末9を使用する。操作端末9は、データサーバ7とインターネットのような通信ネットワークを通じてデータ通信を行う機能をもつ。操作端末9は、また、ドローン3、5とデータを受け渡しする機能をもつ(例えば、有線または無線の通信方法により、または、可搬式のデータストレージを介して、ドローン3、5とデータを受け渡しできる)。   Further, when using the work support system 1, the user uses the operation terminal 9. The operation terminal 9 has a function of performing data communication with the data server 7 through a communication network such as the Internet. The operation terminal 9 also has a function of transferring data to and from the drones 3 and 5 (for example, data can be transferred to and from the drones 3 and 5 by a wired or wireless communication method or via a portable data storage. ).

そのような機能をもつ汎用の携帯可能な情報処理端末(例えば、いわゆる携帯電話、スマートフォン、タブレット端末、モバイル形パーソナルコンピュータ、またはノート形パーソナルコンピュータなど)、あるいは、他の種類のコンピュータ(例えば、デスクトップ型パーソナルコンピュータ)を、操作端末9として採用することができる。その場合、この作業支援システム1を利用するためのコンピュータプログラム(例えば、本システム専用のアプリケーション、あるいは、データサーバ7の外部インタフェースであるウェブサイトにアクセス可能な汎用ウェブブラウザ、など)が、その汎用の情報処理端末にインストールされ、その端末上でそのコンピュータプログラムを実行することにより、その汎用端末が、この作業支援システム1用の操作端末9として機能することになる。あるいは、操作端末9として、この作業支援システム1に専用のハードウェアが用意されてもよい。   A general-purpose portable information processing terminal having such a function (for example, a so-called mobile phone, smartphone, tablet terminal, mobile personal computer, or notebook personal computer, or the like) or another type of computer (for example, desktop Personal computer) can be employed as the operation terminal 9. In this case, a computer program for using the work support system 1 (for example, an application dedicated to the system, or a general-purpose web browser that can access a website that is an external interface of the data server 7) is used. The general-purpose terminal functions as the operation terminal 9 for the work support system 1 by being installed in the information processing terminal and executing the computer program on the terminal. Alternatively, hardware dedicated to the work support system 1 may be prepared as the operation terminal 9.

各ユーザは、作業支援システム1を利用する際、常に同じ一台の操作端末9のみを使用してもよいし、時と場合に応じて複数の操作端末9の中の一つを適宜に選択して使用してもいい。また、複数の異なるユーザが、それぞれの操作端末9を使って、同じ地域(例えば、同じ圃場)に関する情報を参照して、所望の情報を入力することもできる。以下では、一人のユーザが一台の操作端末9を使用する場合を例にとり、説明を進める。   Each user may always use only the same one operation terminal 9 when using the work support system 1, or may appropriately select one of the plurality of operation terminals 9 according to time and case. You can use it. Further, a plurality of different users can input desired information with reference to information regarding the same area (for example, the same field) using the respective operation terminals 9. In the following, description will be given taking a case where one user uses one operation terminal 9 as an example.

調査ドローン3は、それを飛行させるための飛行機構11、その三次元位置(緯度、経度、高度)を計測するためのGPSレシーバ13、写真を撮影するためのカメラ15、それらの装置11、13、15を制御するための制御器17を有する。また、調査ドローン3には、それをユーザが遠隔から無線で操縦するための無線操縦器19(いわゆるプロポ)が付属する。無線操縦器19は、制御器17と無線で通信可能であり、無線操縦器19に対するユーザの各種操作に応答して、各種の操縦指令を制御器17に送信する。   The research drone 3 has a flight mechanism 11 for flying it, a GPS receiver 13 for measuring its three-dimensional position (latitude, longitude, altitude), a camera 15 for taking pictures, and their devices 11, 13 , 15 are controlled. In addition, the research drone 3 is provided with a radio controller 19 (a so-called propo) for a user to remotely control it by radio. The radio controller 19 can communicate with the controller 17 wirelessly, and transmits various control commands to the controller 17 in response to various user operations on the radio controller 19.

実作業ドローン5は、それを飛行させるための飛行機構21、その三次元位置(緯度、経度、高度)を計測するためのGPSレシーバ23、実作業を行うための実作業装置25、それらの装置21、23、25を制御するための制御器27を有する。実作業が圃場での農薬散布である場合、実作業機械25は当然に農薬散布装置であるが、これに、補助的な装置、例えば、実作業の状況を撮影するカメラなどが追加装備されてもよい。また、実作業ドローン5には、それをユーザが遠隔から無線で操縦するための無線操縦器29(いわゆるプロポ)が付属する。無線操縦器29は、制御器27と無線で通信可能であり、無線操縦器29に対するユーザの各種操作に応答して、各種の操縦指令を制御器27に送信する。   The actual work drone 5 has a flight mechanism 21 for flying it, a GPS receiver 23 for measuring its three-dimensional position (latitude, longitude, altitude), a real work device 25 for performing actual work, and those devices. It has a controller 27 for controlling 21, 23, 25. When the actual work is pesticide spraying in a field, the actual work machine 25 is naturally a pesticide spraying device, but an auxiliary device such as a camera for photographing the situation of the actual work is additionally provided. Is also good. Further, the actual operation drone 5 is provided with a radio controller 29 (so-called propo) for a user to remotely control the drone 5 by radio. The wireless pilot 29 can communicate with the controller 27 wirelessly, and transmits various steering commands to the controller 27 in response to various user operations on the wireless pilot 29.

操作端末9は、それをユーザが使用する通常のステップの順序に沿って、地域登録部31、飛行計画入力部33、飛行計画出力部35、撮影画像入力部37、撮影画像出力部39、撮影位置入力部41、撮影位置出力部43、画像表示部45、作業個所登録部47、作業結果入力部48、および作業結果出力部49などの情報処理機能要素を有する。   The operation terminal 9 is arranged in the order of a normal step in which the user uses the area registration unit 31, the flight plan input unit 33, the flight plan output unit 35, the photographed image input unit 37, the photographed image output unit 39, and the photographing unit. It has information processing functional elements such as a position input unit 41, a photographing position output unit 43, an image display unit 45, a work place registration unit 47, a work result input unit 48, and a work result output unit 49.

地域登録部31は、ユーザ入力に応答して、ユーザの所望する地理的領域つまり地域(例えばそのユーザが保有する圃場)の位置(例えば、その地域の輪郭の頂点の緯度と経度)(以下、地域位置という)をデータサーバ7に登録する。   In response to the user input, the region registration unit 31 responds to the user's input by inputting the location of the geographic region desired by the user, that is, the position of the region (for example, the field held by the user) (for example, the latitude and longitude of the vertex of the contour of the region) (Referred to as an area location) in the data server 7.

飛行計画入力部33は、ユーザ入力に応答して、データサーバ7から、ユーザの所望する飛行計画をダウンロードする。飛行計画出力部35は、ユーザ入力に応答して、ダウンロードされた飛行計画を、ユーザの所望するドローン3または5に送信して、そのドローン3または5の制御器17または27にその飛行計画をインストールさせる。ここで、飛行計画とは、ドローンが飛行する予定の地理的経路を定義した一種の移動計画である。   The flight plan input unit 33 downloads a flight plan desired by the user from the data server 7 in response to the user input. The flight plan output unit 35 transmits the downloaded flight plan to the drone 3 or 5 desired by the user in response to the user input, and sends the flight plan to the controller 17 or 27 of the drone 3 or 5. Let it be installed. Here, the flight plan is a kind of travel plan that defines a geographical route on which the drone is to fly.

撮影画像入力部37は、ユーザ入力に応答して、調査ドローン3で撮影された画像(一つの地域で多数の画像が撮影される)(以下、撮影画像という)を受け取る。撮影画像出力部39は、ユーザ入力に応答して、受け取った多数の撮影画像をデータサーバ7へ送信する。   The captured image input unit 37 receives an image captured by the survey drone 3 (a large number of images are captured in one area) (hereinafter, referred to as a captured image) in response to a user input. The captured image output unit 39 transmits the received multiple captured images to the data server 7 in response to a user input.

撮影位置入力部41は、ユーザ入力に応答して、調査ドローン3で計測された各撮影画像の撮影時の調査ドローン3(またはカメラ15)の位置および角度(以下、撮影の位置と角度を総称して撮影位置という)を受け取る。撮影位置出力部43は、ユーザ入力に応答して、受け取った撮影位置をデータサーバ7へ送信する。   The photographing position input unit 41 responds to a user input, and collects the position and angle of the research drone 3 (or the camera 15) at the time of photographing each photographed image measured by the research drone 3 (hereinafter, the photographing position and angle are generically referred to). And called the shooting position). The photographing position output unit 43 transmits the received photographing position to the data server 7 in response to a user input.

画像表示部45は、ユーザ入力に応答して、データサーバ7から、そのユーザがすでに登録した地域の全体の画像(以下、地域画像という)をダウンロードして、操作端末9の表示スクリーン(図示省略)に表示する。ここで、各地域画像は、データサーバ7によって、その地域の多数の撮影画像を結合することが作成される。   In response to the user input, the image display unit 45 downloads, from the data server 7, an image of the entire area (hereinafter, referred to as an area image) of the area registered by the user, and displays the image on the display screen of the operation terminal 9 (not shown). ). Here, each regional image is created by the data server 7 by combining a large number of captured images of the region.

作業個所登録部47は、ユーザ入力に応答して、表示された地域画像上で、その地域内の実作業を施したい1以上の地理的小領域つまり個所(以下、作業個所という)を特定して、その作業個所をデータサーバ7に登録する。例えば、実作業が圃場の農薬散布である場合、ある圃場の地域画像の中から、ユーザが作物や葉などの色や形を観察して病害が発生していると認めた個所を、作業個所とすることができる。この作業個所の登録の際、ユーザは、その作業個所に対して実施したい作業の内容(例えば、農薬Aと農薬Bを散布する)も併せて指定して、作業個所に関連付けてデータサーバ7に登録する。   In response to the user's input, the work location registering unit 47 specifies one or more geographical small areas or locations (hereinafter referred to as “work locations”) on the displayed regional image where the actual work is to be performed in the region. Then, the work location is registered in the data server 7. For example, when the actual work is the spraying of pesticides on a field, from the regional image of a certain field, the user observes the color and shape of crops and leaves, and finds the location where the disease is found to be causing the disease, at the work location. It can be. When registering this work place, the user also specifies the contents of the work to be performed on the work place (for example, spraying the pesticide A and the pesticide B) and associates the work place with the work place to the data server 7. register.

作業結果入力部48は、ユーザ入力に応答して、実作業ドローン5が実施した実作業の結果(例えば、農薬の散布位置と散布量など)を受け取る。作業結果出力部49は、ユーザ入力に応答して、受け取った作業結果をデータサーバ7へ送信する。   The work result input unit 48 receives a result of the actual work performed by the real work drone 5 (for example, a spray position and a spray amount of the pesticide) in response to the user input. The work result output unit 49 transmits the received work result to the data server 7 in response to the user input.

データサーバ7は、地域位置データベース51、三次元地図データベース53、飛行計画データベース55、撮影画像データベース57、撮影位置データベース59、地域画像データベース61、作業個所データベース63、および作業結果データベース65などのデータベースを有する。また、データサーバ7は、飛行計画作成部71、撮影画像入力部73、撮影位置入力部75、撮影画像結合部77、および分析部79などの情報処機能理要素を有する。   The data server 7 stores databases such as a regional position database 51, a three-dimensional map database 53, a flight plan database 55, a photographed image database 57, a photographed position database 59, a regional image database 61, a work place database 63, and a work result database 65. Have. Further, the data server 7 has information processing functional elements such as a flight plan creating unit 71, a photographed image input unit 73, a photographed position input unit 75, a photographed image combining unit 77, and an analyzing unit 79.

地域位置データベース51は、操作端末9の地域登録部31に応答して、ユーザが指定した地域(例えば、そのユーザの圃場)の地域位置を登録し管理する。   The local position database 51 responds to the local registration unit 31 of the operation terminal 9 to register and manage the local position of the region specified by the user (for example, the user's field).

三次元地図データベース53は、各位置の緯度と経度と高度を定義した三次元地図を保存し管理する。三次元地図データベース53は、ドローン3、5のための飛行計画を作成するために、飛行計画作成部71によって利用される。なお、データサーバ7は、三次元地図データベース53をサーバ7内にもたずに、インターネット上などにある外部の三次元地図を利用してもよい。   The three-dimensional map database 53 stores and manages a three-dimensional map defining the latitude, longitude, and altitude of each position. The three-dimensional map database 53 is used by the flight plan creating unit 71 to create a flight plan for the drones 3,5. Note that the data server 7 may use an external three-dimensional map on the Internet or the like without having the three-dimensional map database 53 in the server 7.

飛行計画データベース55は、ドローン3、5のための飛行計画を保存し管理する。飛行計画データベース55は、操作端末9の飛行計画入力部33から要求を受けて、要求された飛行計画を飛行計画入力部33へ送る。飛行計画データベース55で管理される飛行計画は、例えば調査飛行計画と実作業飛行計画の二種類に大別される。調査飛行計画は、登録された各地域を調査用ドローン3で調査する(例えば写真を撮影する)ための飛行計画である。実作業飛行計画は、登録された各地域内の1以上の作業個所に実作業ドローン5で実作業(例えば農薬散布)を施すための飛行計画である。   Flight plan database 55 stores and manages flight plans for drones 3,5. The flight plan database 55 receives a request from the flight plan input unit 33 of the operation terminal 9 and sends the requested flight plan to the flight plan input unit 33. The flight plans managed by the flight plan database 55 are roughly classified into two types, for example, an investigation flight plan and an actual work flight plan. The investigation flight plan is a flight plan for investigating (for example, photographing) each registered area with the investigation drone 3. The actual work flight plan is a flight plan for performing actual work (for example, pesticide spraying) by the real work drone 5 at one or more work locations in each registered area.

撮影画像データベース57は、操作端末9の撮影画像出力部39から受け取った撮影画像を保存し管理する。撮影位置データベース59は、操作端末9の撮影位置出力部43から受け取った撮影位置を保存し管理する。   The captured image database 57 stores and manages captured images received from the captured image output unit 39 of the operation terminal 9. The photographing position database 59 stores and manages the photographing positions received from the photographing position output unit 43 of the operation terminal 9.

地域画像データベース61は、各地域の撮影画像を結合することで作成された各地域の全貌を示す地域画像を保存し管理する。地域画像データベース61は、操作端末9の画像表示部45からの要求を受けて、要求された地域画像を画像表示部45へ送る。   The regional image database 61 stores and manages regional images that are created by combining captured images of the respective regions and that show the entire picture of each region. The area image database 61 receives the request from the image display unit 45 of the operation terminal 9 and sends the requested area image to the image display unit 45.

作業個所データベースは、操作端末9の作業個所登録部47に応答して、ユーザにより指定された作業個所を登録し管理する。   The work location database registers and manages the work location specified by the user in response to the work location registration unit 47 of the operation terminal 9.

作業結果データベース65は、操作端末9の作業結果出力部49から受け取った作業結果を保存し管理する。   The work result database 65 stores and manages the work results received from the work result output unit 49 of the operation terminal 9.

撮影画像入力部73と撮影位置入力部75は、それぞれ、調査ドローン3から操作端末9に渡された撮影画像と撮影位置を、操作端末9から受け取り撮影画像データベース57と撮影位置データベース59に登録する。   The photographed image input unit 73 and the photographed position input unit 75 receive the photographed image and the photographed position passed from the survey drone 3 to the operation terminal 9 from the operation terminal 9 and register them in the photographed image database 57 and the photographed position database 59, respectively. .

飛行計画作成部71は、各地域の調査飛行計画、および、各地域内の1以上の作業個所の実作業飛行計画を作成し、作成した飛行計画を飛行計画データベース55に登録する。飛行計画作成部71は、全自動で飛行計画を作成できる全自動ツールであってもよいし、あるいは、人がそれを操作して飛行計画を作成できるようになった半自動ツールであってもよい。   The flight plan creation unit 71 creates a survey flight plan for each region and an actual work flight plan for one or more work locations in each region, and registers the created flight plan in the flight plan database 55. The flight plan creation unit 71 may be a fully automatic tool that can create a flight plan in a fully automatic manner, or may be a semi-automatic tool that enables a person to operate the flight plan to create a flight plan. .

各地域の調査飛行計画は、地域位置データベース51内の各地域の地域位置(例えばその地域の輪郭の頂点の緯度と経度)と、三次元地図データベース53内の各地域内の諸地点の三次元位置(例えば緯度と経度と高度)を用いて作成される。各地域内の1以上の作業個所の実作業飛行計画は、作業個所データベース63内の該当の作業個所の位置(例えば、作業個所の輪郭の頂点の緯度と経度)と、三次元地図データベース53内の各作業個所内の諸地点の三次元位置(例えば緯度と経度と高度)を用いて作成される。   The survey flight plan for each region is obtained by calculating the local position of each region in the local position database 51 (for example, the latitude and longitude of the vertex of the contour of the region) and the three-dimensional positions of various points in each region in the three-dimensional map database 53. (For example, latitude, longitude, and altitude). The actual work flight plan of one or more work places in each area is obtained by calculating the position of the work place in the work place database 63 (for example, the latitude and longitude of the vertex of the contour of the work place) and the three-dimensional map database 53. It is created using three-dimensional positions (for example, latitude, longitude, and altitude) of various points in each work place.

撮影画像入力部73は、操作端末9の撮影画像出力部39から各地域の撮影画像を受け取り、受け取った撮影画像を撮影画像データベース57に登録する。撮影位置入力部75は、操作端末9の撮影位置出力部43から各地域の撮影位置を受け取り、受け取った撮影位置を撮影位置データベース59に登録する。   The captured image input unit 73 receives the captured image of each area from the captured image output unit 39 of the operation terminal 9 and registers the received captured image in the captured image database 57. The shooting position input unit 75 receives the shooting position of each area from the shooting position output unit 43 of the operation terminal 9 and registers the received shooting position in the shooting position database 59.

撮影画像結合部77は、撮影画像データベース57内の各地域の撮影画像を、撮影位置データベース59内の各地域撮影位置に基づいて結合し、各地域の全体を表した地域画像を作成し、その地位画像を地域画像データベース61に登録する。各地域の地域画像は、その地域の調査(例えば写真撮影)の結果をユーザに知らせるための調査報告としての役割を果たす。各地域の地域画像を参照することで、ユーザは、その地域内のどの個所に実作業(例えば農薬散布)を施すべきかを判断し、その個所を指定することができる。   The photographed image combining unit 77 combines the photographed images of the respective regions in the photographed image database 57 based on the photographing positions of the respective regions in the photographing position database 59 to create a regional image representing the entire region. The status image is registered in the area image database 61. The regional image of each region serves as a survey report for notifying the user of the result of the survey (for example, photographing) of the region. By referring to the area image of each area, the user can determine which part in the area should be subjected to the actual work (for example, spraying the pesticide), and can specify that part.

分析部79は、作業結果データベース65に保管されている作業結果を分析する。作業結果の分析結果は、後の作業方法の改善やその他の用途に活用することができる。   The analysis unit 79 analyzes the work result stored in the work result database 65. The analysis result of the work result can be used for improving the work method later or for other uses.

図2は、この作業支援システム1の全体的な制御例の流れを示す。   FIG. 2 shows a flow of an overall control example of the work support system 1.

図2に示すように、操作端末9では、ユーザによって、所望の地域(例えばそのユーザの保有する圃場)の登録のための操作が行われる(ステップS1)。登録操作は、例えば、インターネットで提供されているような地図を操作端末9のスクリーンに表示して、その地図上で地域の地域位置を指定するというような操作である。この登録操作に応答して、データサーバ7が、その地域の地域位置を記録することで、その地域を登録する(ステップS2)。その後、データサーバ7は、その地域位置に基づいて、その地域の調査飛行計画を作成する(ステップS3)。   As shown in FIG. 2, in the operation terminal 9, the user performs an operation for registering a desired area (for example, a field owned by the user) (step S1). The registration operation is, for example, an operation of displaying a map provided on the Internet on the screen of the operation terminal 9 and specifying a local location on the map. In response to the registration operation, the data server 7 registers the area by recording the area position of the area (step S2). After that, the data server 7 creates a survey flight plan for the area based on the area position (step S3).

その後、ユーザが操作端末9を操作して、データサーバ7から操作端末9に、その地域の調査飛行計画をダウンロードし、その調査飛行計画を、操作端末9から調査ドローン3に送る(ステップS4)。すると、その調査ドローン3にその調査飛行計画がインストールされる(ステップS5)。   Thereafter, the user operates the operation terminal 9 to download the investigation flight plan of the area from the data server 7 to the operation terminal 9 and sends the investigation flight plan from the operation terminal 9 to the investigation drone 3 (step S4). . Then, the research flight plan is installed in the research drone 3 (step S5).

ユーザが、調査ドローン3をその地域(例えば、ユーザの保有する圃場)へもっていき、そして、無線操縦器19を操作して、調査ドローン3に、離陸およびその他の補助的な操縦指示を送る(ステップS6)。調査ドローン3は、調査飛行計画に基本的に従って、自動的かつ自律的に、その地域の上空を飛行しつつ、飛行経路上の諸位置で地表領域の写真撮影を繰り返して、多くの撮影画像と撮影位置を記録する(ステップS7)。この飛行の制御は、基本的には調査飛行計画に従って自動的かつ自律的に行われ、無線操縦器19からの操縦指示は、離陸の開始や、飛行位置または速度の若干の修正など、補助的に使用される。   The user takes the survey drone 3 to the area (for example, a field owned by the user), and operates the radio controller 19 to send takeoff and other auxiliary steering instructions to the survey drone 3 ( Step S6). The research drone 3 automatically and autonomously flies over the area in accordance with the research flight plan, repeatedly taking photographs of the surface area at various positions on the flight path, and obtains many captured images and The shooting position is recorded (step S7). The control of this flight is basically performed automatically and autonomously in accordance with the survey flight plan, and the maneuvering instruction from the wireless pilot 19 is used for auxiliary operations such as the start of takeoff and slight correction of the flight position or speed. Used for

その地域の多数の撮影画像と撮影位置は、調査ドローン3から操作端末9に渡され、そして、操作端末9からデータサーバ7に送られる(ステップS8)。データサーバ7が、それらの撮影画像をそれぞれの撮影位置に応じて結合して、その地域全体の地域画像を作成する(ステップS9)。   Many photographed images and photographing positions in the area are passed from the research drone 3 to the operation terminal 9 and sent from the operation terminal 9 to the data server 7 (step S8). The data server 7 combines the photographed images according to the respective photographing positions to create a regional image of the entire region (step S9).

その後、ユーザが操作端末9を操作して、データサーバ7からその地域の地域画像を受け取ってスクリーンに表示し、そして、その表示された地域画像上で作業個所(例えば、その圃場の中の病害が発生していると視認される個所)を特定し、その作業個所の登録をサーバ7に要求する(ステップS10)。データサーバ7は、その作業個所を登録し、そして、その作業個所の実作業飛行計画(例えば、その個所に農薬を散布するための飛行計画)を作成する(ステップS11)。   Thereafter, the user operates the operation terminal 9 to receive the regional image of the region from the data server 7 and display the image on the screen. Then, on the displayed regional image, a work location (for example, a disease in the field) is displayed. Is identified, and the server 7 requests the server 7 to register the work location (step S10). The data server 7 registers the work place, and creates an actual work flight plan (for example, a flight plan for spraying pesticides at the work place) at the work place (step S11).

その後、ユーザが操作端末9を操作して、データサーバ7から操作端末9に、その実作業飛行計画をダウンロードし、その実作業飛行計画を、操作端末9から実作業ドローン5に送る(ステップS12)。すると、その実作業ドローン5にその実作業飛行計画がインストールされる(ステップS13)。   Thereafter, the user operates the operation terminal 9 to download the actual work flight plan from the data server 7 to the operation terminal 9, and sends the actual work flight plan to the actual work drone 5 from the operation terminal 9 (step S12). Then, the actual work flight plan is installed in the actual work drone 5 (step S13).

ユーザが、実作業ドローン5をその地域(例えば、ユーザの保有する圃場)へもっていき、そして、無線操縦器29を操作して、実作業ドローンに、離陸およびその他の補助的な操縦指示を送る(ステップS14)。実作業ドローン5は、基本的に実作業飛行計画に従って、作業個所の上空を飛行しつつ作業個所に実作業(例えば、圃場の病害個所へに農薬散布)を実施し、その作業結果を記録する(ステップS15)。この飛行の制御は、基本的には実作業飛行計画に従って自動的かつ自律的に行われ、無線操縦器19からの操縦指示は、離陸の開始や、飛行位置または速度の若干の修正など、補助的に使用される。   The user takes the actual work drone 5 to the area (for example, a field owned by the user), and operates the wireless pilot 29 to send takeoff and other auxiliary operation instructions to the actual work drone. (Step S14). The actual work drone 5 basically performs an actual work (for example, sprays pesticides to a diseased part in a field) at a work place while flying over the work place according to an actual work flight plan, and records the work result. (Step S15). The control of this flight is basically performed automatically and autonomously in accordance with the actual flight plan, and the maneuvering instruction from the wireless pilot 19 is used for assisting such as starting takeoff and slightly modifying the flight position or speed. Is used regularly.

その作業結果は、実作業ドローン5から操作端末9に渡され、そして、操作端末9からデータサーバ7に送られる(ステップS16)。データサーバ7が、その作業結果を保存し、そして分析する(ステップS17)。   The work result is passed from the actual work drone 5 to the operation terminal 9 and sent from the operation terminal 9 to the data server 7 (step S16). The data server 7 saves and analyzes the work result (step S17).

以上の制御流れから分かるように、ユーザは操作端末9を使って比較的に容易に、ドローン3、5を利用して、所望の地域における所望の作業を実施することができる。   As can be seen from the above control flow, the user can relatively easily use the drones 3 and 5 using the operation terminal 9 to perform a desired operation in a desired area.

以下では、上述の制御流れを複数部分に分け、各部分をより詳細に説明する。   Hereinafter, the above control flow is divided into a plurality of parts, and each part will be described in more detail.

図3は、この作業支援システム1における地域位置の登録の制御例の流れを示す。   FIG. 3 shows a flow of a control example of registration of an area position in the work support system 1.

図3に示すように、操作端末9において、ユーザが自分のユーザ認証情報を入力してデータサーバ7へのログインを要求する(ステップS21)。データサーバ7は、そのユーザを認証してユーザのログインを許可する(ステップS22)。   As shown in FIG. 3, at the operation terminal 9, a user inputs his / her user authentication information and requests a login to the data server 7 (step S21). The data server 7 authenticates the user and permits the user to log in (step S22).

そして、操作端末9で、ユーザが地図を表示し(ステップS23)、その地図上で所望の地域(例えば、自分の圃場)を指定する(ステップS24)。また、ユーザは操作端末9上で、その地域の名前を入力する(ステップS25)。   Then, the user displays a map on the operation terminal 9 (step S23), and specifies a desired area (for example, his own field) on the map (step S24). Further, the user inputs the name of the area on the operation terminal 9 (step S25).

ここで使用される地図は、例えばインターネットから提供される地図でも、あるいは、データサーバ7から提供される地図でもよい。地域の指定方法としては、例えば地図上でユーザが所望地域の輪郭の頂点を指定する方法が採用できる。あるいは、その輪郭が定義済みの地域名(例えば、地名や地番)を入力する方法も採用できる。地域の頂点が指定されると、それらの頂点の位置(例えば緯度と経度)が操作端末9により特定される。   The map used here may be, for example, a map provided from the Internet or a map provided from the data server 7. As a method of designating a region, for example, a method in which a user designates a vertex of a contour of a desired region on a map can be adopted. Alternatively, a method of inputting a region name (for example, a place name or a place number) whose contour is defined can be adopted. When the vertices of the area are designated, the positions (for example, latitude and longitude) of those vertices are specified by the operation terminal 9.

そして、操作端末9が、指定された地域名と地域位置をデータサーバ7へ送る(ステップS26)。データサーバ7は、その地域名と地域位置とその地域のID(識別名)とを、そのユーザのID(識別名)に関連づけて、地域位置データベース51に登録する(ステップS27)。   Then, the operation terminal 9 sends the designated area name and area location to the data server 7 (step S26). The data server 7 registers the area name, the area location, and the ID (identification name) of the area in the area location database 51 in association with the ID (identification name) of the user (step S27).

図4は、上述した地域位置の指定方法例と登録される地域位置のデータ構成例を示す。   FIG. 4 shows an example of the above-described method of specifying a local position and a data configuration example of the registered local position.

図4の左側部分に示すように、ある地域81を指定する方法として、ユーザは、地図上でその地域81の輪郭83の頂点A1〜A5を指定することができる。これに加えて、ユーザは、ドローンを発着させることができる発着点P1の位置も、その地域81内またはその地域81の周辺近傍に指定してよい。これらの点が地図上で指定されると、その地図がもつ位置座標系(例えば緯度と経度の座標系)に基づいて、それらの指定点A1〜A5、P1の位置(例えば緯度と経度(Xa1, Ya1)〜(Xa5, Ya5)、(Xp1, Yp1))が操作端末9により自動的に特定される。   As shown in the left part of FIG. 4, as a method of designating a certain area 81, the user can designate vertices A1 to A5 of a contour 83 of the area 81 on a map. In addition, the user may also specify the position of the departure / arrival point P1 at which the drone can be departed / arrived, within the area 81 or in the vicinity of the area 81. When these points are specified on the map, the positions of the specified points A1 to A5 and P1 (for example, the latitude and longitude (Xa1)) are determined based on the position coordinate system (for example, the coordinate system of latitude and longitude) of the map. , Ya1) to (Xa5, Ya5), (Xp1, Yp1)) are automatically specified by the operation terminal 9.

そして、データサーバ7では、図4の右側部分に示すように、地域ID87と地域名88と地域位置(例えば、すべての頂点の緯度と経度のセット)89と発着点位置(例えば発着点の緯度と経度)91が、地域データ93として、それらを指定したユーザのユーザID85に関連づけられて、地域位置データベース51に保存される。   Then, in the data server 7, as shown on the right side of FIG. 4, a region ID 87, a region name 88, a region position (for example, a set of the latitude and longitude of all vertices) 89, and a departure point position (for example, a departure point latitude) And longitude) 91 are stored in the local location database 51 as local data 93 in association with the user ID 85 of the user who specified them.

図5は、調査飛行計画の作成と設定の制御例の流れを示す。   FIG. 5 shows a flow of a control example of creation and setting of an investigation flight plan.

図5に示すように、データサーバ7が、地域位置データベース51内のあるユーザが登録した地域の地域位置と発着点位置に基づいて調査飛行計画を作成する(ステップS31)。調査飛行計画は、調査ドローン3を発着点から離陸させて、その地域の上空を飛行しつつその地域のすべての領域の写真を撮影し、そして、発着点に着陸させるための、撮影ドローン3に対する動作制御指示である。この調査飛行計画を作成する際、データサーバ7は、三次元地図データベース53から提供されるその地域の諸地点の三次元位置(例えば、緯度と経度と高度)を計算に入れて、飛行経路を決定する。   As shown in FIG. 5, the data server 7 creates an investigation flight plan based on the local position and the departure / end point position of the region registered by a certain user in the local position database 51 (step S31). The research flight plan is to take the research drone 3 off the landing point, take a picture of all areas of the area while flying over the area, and take a picture of the drone 3 to land on the landing point. This is an operation control instruction. When preparing the survey flight plan, the data server 7 calculates the three-dimensional positions (eg, latitude, longitude, and altitude) of various points in the area provided from the three-dimensional map database 53 and calculates the flight route. decide.

データサーバ7は、その調査飛行計画を、そのユーザのユーザIDとその地域の地域名とに関連づけて、飛行計画データベース55に登録する(ステップS32)。   The data server 7 registers the survey flight plan in the flight plan database 55 in association with the user ID of the user and the area name of the area (step S32).

その後、そのユーザが、操作端末9からデータサーバ7にログインする(ステップS33〜S34)。データサーバ7が、ユーザ要求に応答して、飛行計画データベース55内から、そのユーザのユーザIDに関連づけられた調査飛行計画を選択し、選択された調査飛行計画のリストを操作端末に送る(ステップS35)。操作端末9は、そのリストを表示する(ステップS36)。   Thereafter, the user logs in to the data server 7 from the operation terminal 9 (Steps S33 to S34). The data server 7 selects a survey flight plan associated with the user ID of the user from the flight plan database 55 in response to the user request, and sends a list of the selected survey flight plans to the operation terminal (step S1). S35). The operation terminal 9 displays the list (step S36).

ユーザは、表示されたリスト中から所望の調査飛行計画を選んでデータサーバ7に要求し、データサーバ7はその調査飛行計画を操作端末に送り、それにより、操作端末9にその調査飛行計画がダウンロードされる(ステップS37〜S38)。   The user selects a desired survey flight plan from the displayed list and requests the data server 7, and the data server 7 sends the survey flight plan to the operation terminal, whereby the survey flight plan is stored in the operation terminal 9. It is downloaded (steps S37 to S38).

その後、ユーザは、その調査飛行計画を操作端末9から調査ドローン3に供給する(ステップS39)。調査ドローン3は、受け取った調査飛行計画を自機の制御器17にインストールする(S40)。   Thereafter, the user supplies the research flight plan to the research drone 3 from the operation terminal 9 (step S39). The research drone 3 installs the received research flight plan in its own controller 17 (S40).

図6は、登録された地域と調査飛行計画の関係例を示す。   FIG. 6 shows an example of a relationship between a registered area and an investigation flight plan.

調査飛行計画には、飛行経路と飛行速度と撮影位置が含まれる。図6の左側部分に示すように、飛行経路113は、発着点P1から離陸し、地域81の全域をカバーする複数の区域のすべての写真が撮影できるよう地域81の上空を飛行し、そして、発着点P1に着陸するまでの調査ドローン3の三次元の経路を、例えばその経路上の飛行方向または速度の変更点の3次元位置(例えば、緯度と経度と高度)を用いて、定義する。   The research flight plan includes the flight path, flight speed, and shooting position. As shown in the left part of FIG. 6, the flight path 113 takes off from the departure point P1, flies over the area 81 so that all pictures of a plurality of areas covering the entire area 81 can be taken, and A three-dimensional route of the research drone 3 until landing at the departure / arrival point P1 is defined using, for example, a three-dimensional position (for example, latitude, longitude, and altitude) of a change point of the flight direction or the speed on the route.

飛行速度は、その飛行経路101上の諸区間における飛行速度の制御目標値を定義する。   The flight speed defines a control target value of the flight speed in various sections on the flight path 101.

撮影位置は、図6の右側部分(左側部分の一点鎖線で囲んだ部分の拡大図)に示すように、飛行経路101上の写真撮影を行うべきすべての位置(ドットで図示する)を定義する。   As shown in the right part of FIG. 6 (enlarged view of the part surrounded by the dashed line in the left part), the photographing position defines all positions (illustrated by dots) on the flight path 101 where a photograph should be taken. .

撮影位置の各々は、そこで撮影した写真画像(図6中、実線または破線の長方形で示される)と、その隣の撮影位置で撮影した写真画像とが、それぞれの辺縁部分で重なり合うように、配置される。例えば、図6中、ある撮影位置103で撮影した写真画像103Aは、その上隣の撮影位置105で撮影した写真画像105Aと、それぞれの上辺縁部分と下辺縁部分で重なり合い、また、その左隣の撮影位置107で撮影した写真画像107Aと、それぞれの左辺縁部分と右辺縁で重なり合う。その結果、すべての撮影位置で撮影した写真画像を、相互の重なり合う部分で重ね合わせて、結合することにより、地域81の全域の写真画像(つまり、地域81の地位画像)を合成することができる。   Each of the photographing positions is set such that the photographed image photographed there (indicated by a solid-line or broken-line rectangle in FIG. 6) and the photographed image photographed at the next photographing position are overlapped at their respective margins. Be placed. For example, in FIG. 6, a photograph image 103A photographed at a certain photographing position 103 overlaps with a photograph image 105A photographed at a photographing position 105 adjacent thereto at the upper edge portion and the lower edge portion thereof, and at the left side thereof. The photograph image 107A photographed at the photographing position 107 is overlapped at the left edge portion and the right edge portion. As a result, the photographic images photographed at all photographing positions are overlapped with each other at the overlapping portions and combined, so that a photographic image of the entire area 81 (that is, the position image of the area 81) can be synthesized. .

図7は、調査飛行計画のデータ構成例を示す。   FIG. 7 shows a data configuration example of the investigation flight plan.

図7に示すように、調査飛行計画109には、その飛行計画のID(識別名)111と、飛行経路(例えば、その経路上のすべての変更点の各々の緯度Xrと経度Yrと高度Zr)と飛行速度(各変更点から次の変更点までの目標速度V)のセット113と、撮影位置(例えば、すべての撮影位置の各々の緯度Xsと経度Ysと高度Zsと撮影角度As)115が含まれる。この調査飛行計画109が、該当のユーザID85と地域ID87に関連づけられて、飛行計画データベース55で管理される。   As shown in FIG. 7, the survey flight plan 109 includes an ID (identification name) 111 of the flight plan, a flight route (for example, the latitude Xr, longitude Yr, and altitude Zr of each change point on the route). ) And flight speed (target speed V from each change point to the next change point) 113, and shooting positions (for example, the latitude Xs, longitude Ys, altitude Zs, and shooting angle As of all shooting positions) 115 Is included. The survey flight plan 109 is managed in the flight plan database 55 in association with the user ID 85 and the area ID 87.

図8は、調査ドローン3を用いた写真撮影の制御例の流れを示す。   FIG. 8 shows a flow of a control example of photographing using the investigation drone 3.

ユーザは、調査ドローン3を対象の地域の発着点に置いた後、その調査ドローン3用の無線操縦器19を操作して、まず作業開始を調査ドローン3に指示する(ステップS41)。その指示に応答して、調査ドローン3は離陸し(ステップS42)、そして、制御器17による調査飛行計画に従った自動操縦制御により、その飛行計画の飛行経路に沿って飛行しつつ各撮影位置で写真撮影を実行する(ステップS43)。そして、調査ドローン3は、撮影された写真画像と撮影時の撮影位置(例えば、緯度と経度と高度)を記録する(ステップS44)。   After placing the survey drone 3 at the departure point in the target area, the user operates the radio controller 19 for the survey drone 3 to first instruct the survey drone 3 to start work (step S41). In response to the instruction, the research drone 3 takes off (step S42), and by the autopilot control by the controller 17 according to the research flight plan, while flying along the flight path of the flight plan, each photographing position. To execute photography (step S43). Then, the research drone 3 records the photographed image and the photographing position (for example, latitude, longitude, and altitude) at the time of photographing (step S44).

ユーザは、調査ドローン3の飛行を観察しつつ、その飛行状態(例えば、飛行位置と飛行速度)を修正すべき事情が起きた(例えば、風の影響などで調査ドローン3の飛行状態が飛行計画から外れた、他物体との衝突や危険を避けるために飛行状態を変える必が生じた、など)とき、無線操縦器19を操作して、必要な修正を行うための補助的な操縦指示を調査ドローン3に送る(ステップS45)。調査ドローン3は、その補助的な指示を、例えば自動操縦制御に対する割り込みとして処理することで、その修正指示に従った飛行状態(位置または速度など)の修正を行う(ステップS46)。   While observing the flight of the research drone 3, the user needs to correct the flight state (for example, the flight position and the flight speed) (for example, the flight state of the research drone 3 is changed due to the influence of wind, etc.). Departure from the aircraft, or need to change the flight conditions to avoid collision or danger with other objects, etc.), operate the wireless pilot 19 to give an auxiliary steering instruction for making necessary corrections. Send to Survey Drone 3 (Step S45). The investigation drone 3 corrects the flight state (position or speed, etc.) in accordance with the correction instruction by processing the auxiliary instruction as, for example, an interrupt to the autopilot control (step S46).

上記の修正の処理が終わると、調査ドローン3は、自動操縦制御に戻って(ステップS47)、調査飛行計画に従った飛行と写真撮影を継続する(S43)。その後、全経路を飛行してすべての撮影位置で写真撮影を行った後、調査ドローン3は、飛行計画で定められた着陸点に着陸する(ステップS48)。   When the above-mentioned correction processing is completed, the investigation drone 3 returns to the automatic pilot control (step S47), and continues flying and photographing according to the investigation flight plan (S43). Then, after flying the entire route and photographing at all photographing positions, the research drone 3 lands at the landing point determined by the flight plan (step S48).

調査ドローン3に記録された撮影画像117と撮影位置119は、操作端末7に送られて、操作端末7内に記録される(ステップS49〜S50)。このデータ移送は、飛行中に無線通信で行われてもいいし、着陸後に無線通信か有線通信により、または、撮影画像117と撮影位置119を記録したデータストレージを調査ドローン3から取り出して操作端末7に装着することにより、行われてもよい。   The photographed image 117 and the photographing position 119 recorded on the investigation drone 3 are sent to the operation terminal 7 and recorded in the operation terminal 7 (steps S49 to S50). This data transfer may be performed by wireless communication during the flight, by wireless communication or wired communication after landing, or by taking out the data storage recording the photographed image 117 and the photographing position 119 from the investigation drone 3 and operating the operation terminal. 7 may be carried out.

図9は、撮影画像からの地域画像の作成と登録の制御例の流れを示す。   FIG. 9 shows a flow of a control example of creation and registration of a regional image from a captured image.

ユーザが、操作端末9を操作してデータサーバ7にログインする(ステップS51〜S52)。その後、データサーバ7が、ユーザ要求に応答して、地域位置データベース51から、そのユーザIDに関連づけられた地域名を選び、その地域名のリストを操作端末9に送る(ステップS53)。操作端末9では、その地域名リストが表示され、ユーザがそのリスト中から所望の地域名を選び(ステップS54)、そして、調査ドローン3から取得した撮影画像121と撮影位置123を、その地域の地域IDに関連づけて、データサーバ7に送る(ステップS55)。   The user operates the operation terminal 9 to log in to the data server 7 (steps S51 to S52). Thereafter, in response to the user request, the data server 7 selects an area name associated with the user ID from the area location database 51, and sends a list of the area names to the operation terminal 9 (step S53). On the operation terminal 9, the area name list is displayed, the user selects a desired area name from the list (step S54), and the photographed image 121 and the photographing position 123 acquired from the survey drone 3 are displayed in the area. The data is sent to the data server 7 in association with the area ID (step S55).

データサーバ7は、受け取った撮影画像と撮影位置を、該当のユーザIDと地域IDに関連づけて、撮影画像データベース57と撮影位置データベース59に登録する(ステップS56)。その後、データサーバ7は、撮影画像データベース57と撮影位置データベース59から、その地域の撮影画像と撮影位置を読み出し、撮影画像を撮影位置に応じて結合することで、その地域の全域をカバーする地域画像を合成する(ステップS57)。その地域画像は、該当のユーザIDと地域IDに関連づけられて、地域画像データベース61に登録される(ステップS58)。   The data server 7 registers the received photographed image and photographed position in the photographed image database 57 and the photographed position database 59 in association with the corresponding user ID and region ID (step S56). After that, the data server 7 reads out the photographed image and the photographing position of the region from the photographed image database 57 and the photographing position database 59, and combines the photographed images according to the photographing position, thereby forming a region covering the entire region of the region. The images are combined (step S57). The local image is registered in the local image database 61 in association with the user ID and the local ID (step S58).

図10は、地域画像のデータ構成例を示す。   FIG. 10 shows a data configuration example of a regional image.

図10に示すように、地域画像125には、例えば、地域画像のID(識別名)127と、撮影日時129と、その地域全域をカバーする画像データ131が含まれる。この地域画像125が、該当のユーザID85と地域ID87に関連づけられて、地域画像データベース61で管理される。   As shown in FIG. 10, the area image 125 includes, for example, an ID (identification name) 127 of the area image, a shooting date and time 129, and image data 131 covering the entire area. The area image 125 is managed in the area image database 61 in association with the corresponding user ID 85 and area ID 87.

図11は、作業個所と実作業飛行計画の登録の制御例の流れを示す。   FIG. 11 shows a flow of a control example of registration of a work place and an actual work flight plan.

図11に示すように、ユーザが操作端末9からデータサーバ7にログインする(ステップS61〜S62)。その後、データサーバ7が、ユーザ要求に応答して、地域画像データベース61から、そのユーザIDに関連づけられた地域画像を選び、その地位画像のリストを操作端末9に送る(ステップS63)。   As shown in FIG. 11, the user logs in to the data server 7 from the operation terminal 9 (steps S61 to S62). Thereafter, in response to the user request, the data server 7 selects a local image associated with the user ID from the local image database 61, and sends a list of the local images to the operation terminal 9 (step S63).

操作端末9では、その地域画像のリストが表示され、ユーザがそのリスト中から所望の地位画像を選ぶ(ステップS64)。その選択を受けて、データサーバ7が、地域画像データベース61から選ばれた地域画像を読み出して、それを操作端末9に送る(ステップS65)。操作端末は、その地域画像を表示する(ステップS66)。   The operation terminal 9 displays a list of the local images, and the user selects a desired position image from the list (step S64). In response to the selection, the data server 7 reads the selected local image from the local image database 61 and sends it to the operation terminal 9 (step S65). The operation terminal displays the area image (step S66).

ユーザは、操作端末9に表示された地域画像(例えば、圃場の画像)を見て、作業を施したい個所(例えば、圃場の中の農薬散布をしたい個所つまり小領域)を見つけ、その個所を作業個所として地域画像上で指定する(ステップS67)。作業個所の指定は、例えば作業個所の輪郭の頂点を指定するという方法で行うことができる。このステップS67では、また、ユーザは、その作業個所に対して行いたい作業の内容(例えば、「作業種別は農薬散布、使用農薬は農薬Aと農薬B」というように)を指定する。   The user looks at the area image (for example, an image of the field) displayed on the operation terminal 9, finds a place where the operation is to be performed (for example, a place where the pesticide is to be sprayed in the field, that is, a small area), and finds the place. The work location is designated on the area image (step S67). The designation of the work location can be performed, for example, by a method of designating the vertices of the outline of the work location. In this step S67, the user also specifies the contents of the work to be performed on the work place (for example, "work type is pesticide spraying, pesticides used are pesticide A and pesticide B").

この指定を受けて、データサーバ7が、地域画像上での作業個所の位置と、地域位置データベース51記録されているその地域の位置とに基づいて、作業個所の位置(例えば、作業個所の輪郭の頂点の緯度と経度)を特定し、その作業個所を作業個所データベース63に登録する(ステップS68)。このステップS68では、また、データベースサーバ7は、ユーザに指定された作業内容を、その作業個所に関連づけて、作業個所データベース63に登録する。   In response to the designation, the data server 7 determines the position of the work location (for example, the outline of the work location) based on the location of the work location on the regional image and the location of the region recorded in the regional location database 51. (The latitude and the longitude of the vertex) are specified, and the work place is registered in the work place database 63 (step S68). In this step S68, the database server 7 registers the work content specified by the user in the work place database 63 in association with the work place.

その後、データサーバ7は、登録された作業個所の位置と、三次元地図データベース53に記録されているその地域とその作業個所の諸地点の三次元位置に基づいて、実作業飛行計画を作成する(ステップS69)。実作業飛行計画は、実作業ドローンを、その地域の発着点から離陸させ、その地域内の1以上の作業個所の上空を飛行させて、それぞれの作業個所に実作業(例えば、農薬の散布)を施し、そして、発着点に戻って着陸させるための、実作業ドローン5に対する動作制御指示である。   After that, the data server 7 creates an actual work flight plan based on the registered positions of the work places, and the three-dimensional positions of the area and various points of the work places recorded in the three-dimensional map database 53. (Step S69). A real-world flight plan involves taking a real-world drone off from a departure point in the area, flying over one or more work points in the area, and performing actual work at each work point (eg, spraying pesticides). And an operation control instruction to the actual work drone 5 for returning to the departure point and landing.

データサーバ7は、その実作業飛行計画を、該当のユーザIDと地域IDと作業個所IDに関連づけて、飛行計画データベース55に登録する(ステップS70)。   The data server 7 registers the actual work flight plan in the flight plan database 55 in association with the corresponding user ID, area ID, and work place ID (step S70).

図12は、作業個所のデータ構成例を示す。   FIG. 12 shows an example of the data structure of a work location.

図12に示すように、作業個所133には、そのID(識別名)、それがユーザに指定された日時、およびその領域の輪郭の頂点の位置(例えば、各頂点の緯度Xaおよび経度Ya)139などを含む。この作業個所133が、該当のユーザID85、地域ID87および地域画像ID127と関連づけられて、作業個所データベース63で管理される。また、作業内容140が、その作業個所133に関連付けられて、作業個所データベース63で管理される。作業内容63を管理することで、その作業内容を後に評価するのに役立つ(例えば、実作業を実施した後に、ドローンで調査飛行を行って、作業個所の状態を調べ、その調査結果と作業内容とを分析することで、評価ができる)。   As shown in FIG. 12, the work place 133 has its ID (identification name), the date and time when it is designated by the user, and the position of the vertex of the contour of the area (for example, the latitude Xa and the longitude Ya of each vertex). 139 and the like. The work place 133 is managed in the work place database 63 in association with the corresponding user ID 85, area ID 87, and area image ID 127. The work content 140 is managed in the work location database 63 in association with the work location 133. By managing the work contents 63, it is useful to evaluate the work contents later (for example, after carrying out actual work, conduct a survey flight with a drone to check the condition of the work place, and check the survey results and work contents Can be evaluated by analyzing).

図13は、作業個所と実作業飛行計画との関係例を示す。   FIG. 13 shows an example of the relationship between a work location and an actual work flight plan.

図13に示された例では、地域81内に3つの作業個所141、145、147が指定されており、そのうちの一つの作業個所141に対して一つの実作業飛行計画143が用意されており、二つの作業個所145、147に対して別の一つの実作業飛行計画149が用意されている。作業個所が複数ある場合、それらの作業個所のすべてをカバーする一つの実作業飛行計画を作成するか、図示の例のように異なる作業個所を分担する二以上の実作業飛行計画を作成するかを、ユーザの要求に応じて、あるいは飛行時間の都合などに応じて、適宜に選択できるようになっていてよい。   In the example illustrated in FIG. 13, three work points 141, 145, and 147 are designated in the area 81, and one actual work flight plan 143 is prepared for one of the work points 141. Another actual work flight plan 149 is prepared for the two work places 145 and 147. If there are multiple work sites, whether to create one actual work flight plan that covers all of those work sites, or create two or more actual work flight plans that share different work sites as shown in the example shown May be appropriately selected according to a user's request or a flight time.

一つの地域81に対して、複数の実作業飛行計画を用意した場合、それぞれの飛行計画に基づいて複数機の実作業ドローン5で作業を実施したり、あるいは、異なる日時に異なる飛行計画に従った作業を実施したりすることができる。   When a plurality of actual work flight plans are prepared for one area 81, work is performed by a plurality of actual work drones 5 based on the respective flight plans, or a different flight plan is used at a different date and time. Work can be performed.

各実作業飛行計画には、実作業ドローン5の飛行経路と飛行速度が含まれる。例えば、図示の実作業飛行計149には、発着点P1から離陸して、最初の作業個所145へ行き、その全域に実作業(例えば、農薬散布)を施せるよう作業個所145を巡り、そして、次の作業個所147へ行ってそこを同様に巡り、そして、発着点P1に戻り着陸する、というような飛行経路が含まれる。   Each actual work flight plan includes a flight path and a flight speed of the actual work drone 5. For example, the illustrated actual work aeronometer 149 takes off from the departure point P1, goes to the first work place 145, goes around the work place 145 to perform the actual work (eg, pesticide spraying) over the entire area, and A flight path, such as going to the next work point 147, going around there, and returning to the departure point P1 to land is included.

各実作業飛行計画には、さらに、実作業ドローン5の飛行中に、その実作業装置25を駆動し制御するための制御指示が含まれる。その制御指示には、例えば、実作業(例えば、農薬散布)を実行すべき位置(例えば、作業開始位置と終了位置)や、その他の制御値(例えば。単位時間当たり農薬散布量など)などが含まれ得る。   Each actual work flight plan further includes control instructions for driving and controlling the actual work device 25 while the actual work drone 5 is in flight. The control instruction includes, for example, a position (for example, a work start position and an end position) at which an actual operation (for example, pesticide spraying) is to be executed, and other control values (for example, a pesticide spray amount per unit time). May be included.

図14は、実作業飛行計画のデータ構成例を示す。   FIG. 14 shows an example of the data configuration of the actual work flight plan.

図14に示すように、実作業飛行計画151には、例えば、そのID(識別名)153、飛行経路(例えば、その経路上で飛行方向または速度を変えるべき変更点の緯度Xrと経度Yrと高度Zr)と飛行速度(例えば、各変更点から次の変更点までの速度Vr)155、および、作業位置(例えば、作業の開始位置の緯度Xsと経度Ysと高度Zs、ならびに作業の終了位置の緯度Xeと経度Yeと高度Ze)と制御値(例えば、各開始位置から終了位置までの第一制御量の目標値C1、第二制御量の目標値C2、第三制御量の目標値C3、など)157が含まれる。   As shown in FIG. 14, the actual work flight plan 151 includes, for example, its ID (identification name) 153, flight path (for example, latitude Xr and longitude Yr of a change point at which the flight direction or speed is to be changed on the path). Altitude Zr), flight speed (for example, speed Vr from each change point to the next change point) 155, and work position (for example, latitude Xs and longitude Ys of work start position, altitude Zs, and work end position) Latitude Xe, longitude Ye and altitude Ze) and control values (for example, the target value C1 of the first control amount, the target value C2 of the second control amount, the target value C3 of the third control amount from each start position to the end position) , Etc.) 157 are included.

また、作業状況を映すカメラが実作業ドローン5に搭載されている場合、そのカメラで写真を撮影するべき位置159(例えば、撮影位置の緯度Xs、経度Ys、高度Zs、および撮影角度As)も、実作業飛行計画151に含まれてよい。   Further, when a camera showing the work situation is mounted on the actual work drone 5, the position 159 (for example, the latitude Xs, the longitude Ys, the altitude Zs, and the shooting angle As of the shooting position) at which the camera should take a photo is also determined. , May be included in the actual work flight plan 151.

このような構成の実作業事項計画151が、該当のユーザID85、地域ID87および作業個所ID135に関連づけられて、飛行計画データベース55で管理される。   The actual work item plan 151 having such a configuration is managed in the flight plan database 55 in association with the corresponding user ID 85, area ID 87, and work place ID 135.

図15は、実作業飛行計画の設定の制御例の流れを示す。   FIG. 15 shows a flow of a control example of setting of the actual work flight plan.

図15に示すように、ユーザが、操作端末9からデータサーバ7にログインする(ステップS71〜S72)。データサーバ7が、ユーザ要求に応答して、飛行計画データベース55内から、そのユーザIDに関連づけられた実作業飛行計画を選び、選ばれた実作業飛行計画のリストを操作端末に送る(ステップS72)。操作端末9は、そのリストを表示する(ステップS73)。   As shown in FIG. 15, the user logs in to the data server 7 from the operation terminal 9 (steps S71 to S72). In response to the user request, the data server 7 selects an actual work flight plan associated with the user ID from the flight plan database 55, and sends a list of the selected actual work flight plans to the operation terminal (step S72). ). The operation terminal 9 displays the list (step S73).

ユーザは、表示されたリスト中から所望の実作業飛行計画を選んでデータサーバ7に要求し、データサーバ7はその実作業飛行計画を操作端末に送り、それにより、操作端末9にその実作業飛行計画がダウンロードされる(ステップS74〜S75)。   The user selects a desired actual work flight plan from the displayed list and requests the data server 7, and the data server 7 sends the actual work flight plan to the operation terminal, so that the actual work flight plan is transmitted to the operation terminal 9. Is downloaded (steps S74 to S75).

その後、ユーザは、その実作業飛行計画を操作端末9から実作業ドローン5に送る(ステップS76)。実作業ドローン5は、受信した実作業飛行計画を自機の制御器27にインストールする(S77)。   Thereafter, the user sends the actual work flight plan from the operation terminal 9 to the actual work drone 5 (step S76). The actual work drone 5 installs the received actual work flight plan in its own controller 27 (S77).

図16は、実作業ドローンを用いた実作業の制御例の流れを示す。   FIG. 16 shows a flow of a control example of actual work using an actual work drone.

ユーザは、実作業ドローン5を対象の地域の発着点に置いた後、その実作業ドローン5用の無線操縦器29を操作して、まず作業開始を実作業ドローン5に指示する(ステップS81)。その指示に応答して、実作業ドローン5は離陸し(ステップS82)、そして、制御器27による実作業飛行計画に従った自動操縦制御により、その飛行計画の飛行経路に沿って飛行しつつ各作業位置(例えば、各作業開始位置から終了位置までの区間)で実作業(例えば、農薬散布)を実行する(ステップS83)。そして、実作業ドローン5は、実施した作業の結果(例えば、農薬散布の開始位置と終了位置と時間と散布量など)を記録する(ステップS84)。   After placing the actual work drone 5 at the departure point in the target area, the user operates the radio control 29 for the actual work drone 5 to first instruct the real work drone 5 to start work (step S81). In response to the instruction, the actual work drone 5 takes off (step S82), and performs automatic flight control according to the actual work flight plan by the controller 27 while flying along the flight path of the flight plan. At the work position (for example, a section from each work start position to the end position), an actual work (for example, pesticide spraying) is executed (step S83). Then, the actual work drone 5 records the result of the performed work (for example, the start position and the end position of the pesticide application, the time, the application amount, and the like) (step S84).

ユーザは、実作業ドローン5の飛行を観察しつつ、その飛行状態(例えば、飛行位置と飛行速度)を修正すべき事情が起きた(例えば、風の影響などで実作業ドローン5の飛行位置または速度が飛行計画から外れた、他物体との衝突や危険を避けるために飛行状態を変える必が生じた、など)とき、無線操縦器29を操作して、必要な修正を行うための補助的な操縦指示を実作業ドローン3に送る(ステップS85)。実作業ドローン5は、その補助的な指示を、例えば自動操縦制御に対する割り込みとして処理することで、その修正指示に従った飛行状態(位置または速度など)の修正を行う(ステップS86)。   While observing the flight of the actual work drone 5, the user needs to correct the flight condition (for example, the flight position and the flight speed) (for example, the flight position of the actual work drone 5 or the flight position due to the influence of wind, etc.). When the speed deviates from the flight plan, the flight condition needs to be changed to avoid collision with other objects or danger, etc.), the radio control 29 is operated to assist in making necessary corrections. The actual operation instruction is sent to the actual work drone 3 (step S85). The actual work drone 5 corrects the flight state (position or speed, etc.) according to the correction instruction by processing the auxiliary instruction as, for example, an interrupt to the autopilot control (step S86).

上記の修正の処理が終わると、実作業ドローン5は、自動操縦制御に戻り(ステップS87)、実作業飛行計画に従った飛行と実作業を継続する(S83)。その後、全経路を飛行してすべての作業位置で実作業を行った後、実作業ドローン5は、飛行計画で定められた着陸点に着陸する(ステップS88)。   When the above-mentioned correction processing is completed, the actual work drone 5 returns to the automatic pilot control (step S87), and continues the flight and the actual work according to the actual work flight plan (S83). After that, the actual work drone 5 lands on the landing point determined by the flight plan after performing the actual work at all the work positions by flying the entire route (step S88).

実作業ドローン5に記録された作業結果161は、操作端末7に送られて、操作端末7内に記録される(ステップS89〜S90)。このデータ移送は、飛行中に無線通信で行われてもいいし、着陸後に無線通信か有線通信により、または、作業結果161を記録したデータストレージを実作業ドローン3から外して操作端末7に装着することにより、行われてよい。   The work result 161 recorded in the actual work drone 5 is sent to the operation terminal 7 and recorded in the operation terminal 7 (steps S89 to S90). This data transfer may be performed by wireless communication during the flight, by wireless communication or wired communication after landing, or by detaching the data storage recording the work result 161 from the actual work drone 3 and attaching it to the operation terminal 7. This may be done by doing so.

その後、図2を参照してすでに説明したように、操作端末7に記録された作業結果163はデータサーバ7へ送られ(ステップS16)、そして、データサーバ7は、その作業結果を、後の有効利用のために分析する(ステップS17)。   Thereafter, as already described with reference to FIG. 2, the work result 163 recorded in the operation terminal 7 is sent to the data server 7 (step S16), and the data server 7 sends the work result to the later Analysis is performed for effective use (step S17).

図17は、本発明の第2の実施形態に係る作業支援システムの全体構成を示す。   FIG. 17 shows the overall configuration of a work support system according to the second embodiment of the present invention.

この実施形態にかかる作業支援システム100は、図1に示された第一の実施形態にかかる作業支援システム1の構成要素に加えて、期待された作業効果を得るための作業計画の設定を容易化するための幾つかの追加の構成要素を備える。以下の作業支援システム100の説明と参照図面では、最初の実施形態のシステム1と共通する要素には同じ参照番号を付して、冗長な説明を省略する。   The work support system 100 according to this embodiment facilitates setting of a work plan for obtaining an expected work effect in addition to the components of the work support system 1 according to the first embodiment shown in FIG. With some additional components for In the following description of the work support system 100 and reference drawings, elements common to the system 1 of the first embodiment are denoted by the same reference numerals, and redundant description is omitted.

図17に示すように、第2実施形態にかかる作業支援システム100において、データサーバ101および操作端末111は、それぞれ、最初の実施形態にかかる作業支援システム1のデータサーバ7および操作端末9のもつ構成要素のほかに、追加の幾つかの構成要素を有する。   As shown in FIG. 17, in the work support system 100 according to the second embodiment, the data server 101 and the operation terminal 111 have the data server 7 and the operation terminal 9 of the work support system 1 according to the first embodiment, respectively. In addition to the components, it has some additional components.

すなわち、データサーバ101は、追加の構成要素として、作業計画データベース103、作業計画提案データベース105、および解析部107を有する。操作端末111は、追加の構成要素として、特異個所検出部113、作業計画入力部115、提案提示部117、および作業選択部119を有する。   That is, the data server 101 includes the work plan database 103, the work plan proposal database 105, and the analysis unit 107 as additional components. The operation terminal 111 has, as additional components, a unique part detection unit 113, a work plan input unit 115, a proposal presentation unit 117, and a work selection unit 119.

操作端末111の特異個所検出部113は、操作端末111の表示スクリーン上に画像表示部45により表示された地域の調査結果つまり地域画像(例えば、登録された特定の圃場の画像)を、自動的に解析して、その地域画像中から、特異個所(例えば、圃場中の病害などが起きていると推測される領域)を検出する。特異個所検出部113は、検出された特異個所の領域(例えば、その領域の輪郭を示す枠線)を、表示スクリーン上の地域画像内に表示する。   The singular part detection unit 113 of the operation terminal 111 automatically outputs the area survey result, that is, the area image (for example, an image of a registered specific field) displayed on the display screen of the operation terminal 111 by the image display unit 45. Then, a unique part (for example, an area in a field where a disease or the like is presumed to have a disease) is detected from the regional image. The unique part detection unit 113 displays the detected area of the unique part (for example, a frame line indicating the outline of the area) in the area image on the display screen.

なお、特異個所検出部113は、操作端末111に設けられる代わりに、データサーバ101に設けられてもよい。例えば、データサーバ101の解析部107が、特異個所検出部113を有してもよい。特異個所検出部113は、後述する解析部107内の症状解析部108または作業解析部109のように、ディープニューラルネットワークを用いて構成されて、ディープラーニングにより地域画像から特異個所を検出する推論方法を機械学習するようになっていてもよい。   Note that the unique part detection unit 113 may be provided in the data server 101 instead of being provided in the operation terminal 111. For example, the analysis unit 107 of the data server 101 may include the unique part detection unit 113. The unique portion detection unit 113 is configured using a deep neural network like the symptom analysis unit 108 or the work analysis unit 109 in the analysis unit 107 to be described later, and an inference method of detecting a unique portion from a regional image by deep learning. May be machine-learned.

操作端末111の作業計画入力部115は、操作端末111の表示スクリーン上に画像表示部45が地域画像(例えば、登録された特定の圃場の画像)を表示し、かつ、ユーザが作業個所登録部47を用いてその地域画像の中で作業個所を特定したときに、その特定された作業個所に対する作業計画をユーザが入力することを可能にする。すなわち、作業計画入力部115は、表示スクリーン上で各作業個所に対してユーザが任意の作業計画を入力するための作業計画入力ツールを、表示スクリーン上に表示する。ユーザは、その作業計画入力ツールを操作することで、各作業個所に対して任意の作業計画をシステム100に入力するができる。作業計画の入力が終わると(例えば、ユーザが作業計画の登録を表示スクリーン上で要求すると)、作業計画入力部115は、入力された作業計画をデータサーバ101に送り、その作業計画は、対応する作業個所と関連付けられて、データサーバ101の作業計画データベース103に登録される。   The work plan input unit 115 of the operation terminal 111 is configured such that the image display unit 45 displays a regional image (for example, an image of a registered specific field) on a display screen of the operation terminal 111, and the user inputs a work place registration unit When a work location is specified in the local image using the 47, the user can input a work plan for the specified work location. That is, the work plan input unit 115 displays, on the display screen, a work plan input tool for the user to input an arbitrary work plan for each work location on the display screen. By operating the work plan input tool, the user can input an arbitrary work plan to the system 100 for each work place. When the input of the work plan is completed (for example, when the user requests the registration of the work plan on the display screen), the work plan input unit 115 sends the input work plan to the data server 101, and the work plan It is registered in the work plan database 103 of the data server 101 in association with the work place to be performed.

ここで、作業計画とは、各作業個所に対して行う予定の実作業を定義したデータである。この実施形態では、各作業個所に対する作業計画は、一例として、その作業個所の症状名(例えば、病害や生理障害の名称)と、その症状に応じて実行されるべき実作業の名称(例えば、その作業個所に施されるべき農薬や肥料やその他の保守作業の名称)を含む。あるいは、作業計画は、症状名を含まず、作業名だけであってもよいし、あるいは、症状名と作業名の他に、追加の情報(例えば、作業個所を特定する情報や画像、あるいは、農薬や肥料の散布量など)が含まれてもよい。   Here, the work plan is data defining actual work to be performed at each work location. In this embodiment, as an example, the work plan for each work place includes a symptom name of the work place (for example, a name of a disease or a physiological disorder) and a name of an actual work to be executed in accordance with the symptom (for example, Agrochemicals, fertilizers, and other maintenance work to be performed at the work site). Alternatively, the work plan may include only the work name without the symptom name, or may include, in addition to the symptom name and the work name, additional information (for example, information or an image identifying a work place, or Pesticides and fertilizers).

作業計画データベース103に登録された各地域内の各作業個所の作業計画(例えば、各圃場内の各特異個所に対する症状名と実作業名)は、データサーバ101の飛行計画作成部71が各地域の飛行計画を作成する際に、次のように利用され得る。すなわち、飛行計画作成部71は、例えば、同じ地域内の異なる作業個所に対して異なる作業計画が登録されている場合、同じ作業計画(同じ作業名)が与えられた作業個所を同じグループに分類し、各グループに一つの飛行計画、つまり、異なるグループに異なる飛行計画を作成する。例えば、一つの圃場内で、作業個所AとBには農薬Cを施す作業計画が登録され、別の作業個所DとEには別の農薬Fを施す作業計画が登録された場合、飛行計画作成部71は、作業個所AとBのグループには農薬Cを施すための飛行計画を作成し、別の作業個所DとEのグループには別の農薬Fを散布するための飛行計画を作成する。   The work plan of each work place in each region registered in the work plan database 103 (for example, the symptom name and the actual work name for each unique place in each field) is obtained by the flight plan creation unit 71 of the data server 101 for each region. When creating a flight plan, it can be used as follows. That is, for example, when different work plans are registered for different work places in the same area, the flight plan creation unit 71 classifies work places given the same work plan (same work name) into the same group. Then, create one flight plan for each group, that is, different flight plans for different groups. For example, in one field, a work plan for applying pesticide C is registered at work points A and B, and a work plan for applying another pesticide F is registered at another work places D and E. The creating unit 71 creates a flight plan for applying the pesticide C to the group of the work places A and B, and creates a flight plan for spraying another pesticide F to the group of the other work places D and E. I do.

操作端末111の提案提示部117は、ユーザが作業計画入力部115を用いて各作業個所に対する作業計画を入力するときに、データサーバ101の作業計画提案データベース105から、各作業個所に対する作業計画提案を読み込んで、各作業計画提案を、操作端末111の表示スクリーン上に、各作業個所に関連付けて表示する。   When the user inputs a work plan for each work place using the work plan input unit 115, the proposal presenting unit 117 of the operation terminal 111 proposes a work plan for each work place from the work plan proposal database 105 of the data server 101. Is read, and each work plan proposal is displayed on the display screen of the operation terminal 111 in association with each work place.

ここで、作業計画提案とは、データサーバ101の解析部107が推論により生成した、各作業個所に対して推奨される作業計画の提案である。解析部107により生成された各作業個所の作業計画提案は、各作業個所に関連付けられて作業計画提案データベース105に記憶される。解析部107のより具体的な構成と機能については、後に説明する。   Here, the work plan proposal is a proposal of a work plan recommended for each work location, generated by the analysis unit 107 of the data server 101 by inference. The work plan proposal for each work place generated by the analysis unit 107 is stored in the work plan proposal database 105 in association with each work place. A more specific configuration and function of the analysis unit 107 will be described later.

操作端末111の表示スクリーン上に表示される作業計画提案は、ユーザが作業計画入力部115を用いて作業計画を入力する際、ユーザの参考になる。とくに作業計画を決めるための知識や経験の浅いユーザにとり、より適切な作業計画を決定するために、作業計画提案は助けになる。解析部107の推論能力が高いほど、作業計画提案がユーザを助ける性能が高くなる。解析部107の推論能力を高めるために、解析部107は後述する構成を有する。   The work plan proposal displayed on the display screen of the operation terminal 111 serves as a user's reference when the user uses the work plan input unit 115 to input a work plan. A work plan proposal can help to determine a more appropriate work plan, especially for users with little knowledge or experience in determining a work plan. The higher the inference ability of the analysis unit 107, the higher the performance of the work plan proposal to assist the user. In order to enhance the inference ability of the analyzing unit 107, the analyzing unit 107 has a configuration described later.

操作端末111の作業選択部119は、飛行計画入力部33が飛行計画データベース55から読み込んだ特定の地域(例えば、特定の圃場)に対する飛行計画の中から、実作業ドローン5に今回実行させたい特定の作業に関する飛行計画を、ユーザに選択させる。例えば、その特定の圃場に対して、農薬Cを散布する飛行計画と、別の農薬Fを散布する飛行計画とが飛行計画入力部33により読み込まれた場合、作業選択部119は、それらの飛行計画を表示スクリーン上に表示して、その中から所望の飛行計画をユーザに選択させる。作業選択部119は、選択された飛行計画を飛行計画出力部35に提供する。その選択された飛行計画は、飛行計画出力部35から実作業ドローン5の制御器27に供給される。   The work selection unit 119 of the operation terminal 111 selects a flight plan for a specific area (for example, a specific field) read by the flight plan input unit 33 from the flight plan database 55, which is to be executed by the actual work drone 5 this time. Let the user select a flight plan for his work. For example, when the flight plan for spraying pesticide C and the flight plan for spraying another pesticide F are read by the flight plan input unit 33 for the specific field, the work selection unit 119 The plan is displayed on a display screen, and the user is allowed to select a desired flight plan. The work selection unit 119 provides the selected flight plan to the flight plan output unit 35. The selected flight plan is supplied from the flight plan output unit 35 to the controller 27 of the actual work drone 5.

データサーバ101の解析部107は、地域画像データベース61、作業個所データベース63、地域位置データベース51、作業計画データベース103、および作業結果データベース65から、登録された各地域(例えば、各圃場)の画像、各地域内の各作業個所の位置、各作業個所に対する作業計画(例えば症状名と実作業名)、各作業計画に基づく実作業の実施後の各地域(各作業個所)の画像、作業実施後の画像に基づいてユーザが再び入力した作業計画(とくに症状名)などのデータを読み込む。解析部107は、それらの読み込まれたデータを利用して機械学習を行うことで、各作業個所に対する作業計画の提案を自動的に生成するための推論方法を作成(つまり学習)する(いったん作成つまり学習された推論方法を改良することも含む)。また、解析部107は、その機械学習によって作成された推論方法を用いて、各作業個所の画像から、その画像に応じた作業計画提案を作成する。作成された各作業個所の作業計画提案は、各作業個所に関連付けられて、作業計画提案データベース105に格納される。   The analysis unit 107 of the data server 101 obtains an image of each registered region (for example, each field) from the regional image database 61, the work place database 63, the regional position database 51, the work plan database 103, and the work result database 65, Location of each work place in each area, work plan (for example, symptom name and actual work name) for each work place, image of each area (each work place) after implementation of actual work based on each work plan, Data such as a work plan (especially symptom name) input by the user based on the image is read. The analysis unit 107 creates (that is, learns) an inference method for automatically generating a work plan proposal for each work location by performing machine learning using the read data. In other words, it includes improving the learned inference method). In addition, the analysis unit 107 uses the inference method created by the machine learning to create a work plan proposal according to the image from each work location, based on the image. The created work plan proposal for each work place is stored in the work plan proposal database 105 in association with each work place.

ここで、各作業個所に対する作業計画の提案とは、例えば、その作業個所について推定される症状(例えば、病害名など)の提案と、その症状に応じてその作業個所に推奨される実作業(例えば、農薬名や肥料名など)の提案とを含む。   Here, the proposal of the work plan for each work place includes, for example, a proposal of a symptom (for example, a disease name) estimated for the work place and an actual work recommended for the work place according to the symptom ( (E.g., names of pesticides and fertilizers).

図18は、この作業支援システム100の全体的な制御例の流れを示す。   FIG. 18 shows a flow of an overall control example of the work support system 100.

ユーザの所望する地域の地域画像がデータサーバ101に登録された(ステップS9)後、ユーザは操作端末111の表示スクリーンにその地域画像を表示させることができる(ステップS20)。このステップS20において、操作端末111は、その地域画像を自動的に解析して特異個所を自動検出し、その検出された特異個所がどこであるかを表示スクリーン上の地域画像内に表示する。そして、ユーザは、その表示された特異個所を参考にして、自分の目視で作業個所を特定し、その特定された作業個所の登録を操作端末111に要求する。すると、その作業個所が操作端末111からデータサーバ101に通知されて、データサーバ101に登録され(ステップS21)。   After the area image of the area desired by the user is registered in the data server 101 (step S9), the user can display the area image on the display screen of the operation terminal 111 (step S20). In this step S20, the operation terminal 111 automatically analyzes the area image to automatically detect the unique point, and displays the detected unique point in the area image on the display screen. Then, the user specifies the work place by his / her own eyes with reference to the displayed unique place, and requests the operation terminal 111 to register the specified work place. Then, the work location is notified from the operation terminal 111 to the data server 101 and registered in the data server 101 (step S21).

ステップS21で作業個所がデータサーバ101に登録されると、データサーバ101の解析部107が、その登録された作業個所の画像に対して推論を実行して、その作業個所に対する作業計画提案を自動的に生成する(ステップS22)。操作端末111は、その作業計画提案をデータサーバ111から受けて、その作業計画提案を、表示スクリーン上に表示された作業個所に関連させて、表示スクリーン上に表示する(ステップS23)。   When the work place is registered in the data server 101 in step S21, the analysis unit 107 of the data server 101 executes inference on the image of the registered work place, and automatically proposes a work plan for the work place. (Step S22). The operation terminal 111 receives the work plan proposal from the data server 111, and displays the work plan proposal on the display screen in association with the work location displayed on the display screen (step S23).

ユーザは、操作端末111に表示されたその作業個所に対する作業計画提案を参考にして、その作業個所に対する作業計画(例えば、症状名と実作業名)を決定して操作端末111に入力し、その登録を操作端末111に要求する(ステップS23)。すると、その入力された作業計画は、その作業個所に関連付けられて、データサーバ101に通知されそこに登録される(ステップS25)。   The user determines a work plan (for example, a symptom name and an actual work name) for the work place with reference to the work plan proposal for the work place displayed on the operation terminal 111 and inputs the work plan to the operation terminal 111. The registration is requested to the operation terminal 111 (step S23). Then, the input work plan is notified to the data server 101 in association with the work place and registered there (step S25).

ある地域に対する実作業が実施さた後、その地域の写真画像(そこには、その実作業の効果が現れている)が改めて撮影されてその地域画像が得られ、さらに、その地域画像に基づいてユーザが改めて特定した作業個所(以前の作業個所と同じ個所、あいは、以前とは異なる個所が含まれている場合、あるいは、作業個所が無い場合があり得る)と、各作業個所についてユーザが改めて判断した症状名(以前と同じ症状、あるいは、以前とは異なる症状が含まれ得る)が入力され登録されると、データサーバ101の推論部107が、その実施された実作業の作業計画と、その作業の効果が現れた画像と、その画像に基づき改めて特定された作業個所と症状名を、教師データとして受けて、機械学習を行い、作業計画の推論方法を自動的に作成つまり学習する(ステップS26)。解析部107は、学習された推論方法を、後に実行されるステップS22での推論に適用することができる。 After actual work for a region is performed, (the there, the effect of the actual work has appeared) the area of the photographic image that region image is obtained is again captured, further based on the local image The work location newly identified by the user (the same location as the previous work location, or a location different from the previous location may be included, or there may be no work location) and the user for each work location Is input and registered, the inference unit 107 of the data server 101 executes the work plan of the actual work performed. And the image where the effect of the work appeared, the work location and the symptom name newly identified based on the image are received as teacher data, machine learning is performed, and the work plan inference method is automatically determined. Formed, that is to learn (step S26). The analysis unit 107 can apply the learned inference method to the inference in Step S22 to be executed later.

以上の制御により、データサーバ101がもつ作業計画提案を生成するための推論方法は、多くの地域の写真撮影や実作業が繰り返されていくのにつれて、より性能の高いものへと改善されていき、より適切な作業計画提案をユーザに提供することができるようになる。それにより、期待された作用効果を得るための作業計画の設計が、ユーザにとりより容易になる。   With the above control, the inference method for generating the work plan proposal held by the data server 101 is improved to higher performance as photography and actual work in many areas are repeated. Thus, a more appropriate work plan proposal can be provided to the user. This makes it easier for the user to design a work plan to obtain the expected effects.

再び図17を参照する。データサーバ101の解析部107は、症状解析部108と作業解析部109を有する。症状解析部108は、各作業個所の画像(地域画像の中の、各作業個所に該当する部分)を解析して、その作業個所の症状を推定し、推定された症状(例えば病害名や生理障害名など)を症状提案として、その作業個所に関連づけて作業計画提案データベース105に格納する。作業解析部109は、各作業個所の症状から、その作業個所に適用することが推奨される実作業(例えば、農薬名や肥料名など)を推定し、その推定された実作業を作業提案として、その作業個所に関連づけて作業計画提案データベース105に格納する。各作業個所に対する症状提案と作業提案が、その作業個所に対する作業計画提案を構成する。   FIG. 17 is referred to again. The analysis unit 107 of the data server 101 has a symptom analysis unit 108 and a work analysis unit 109. The symptom analysis unit 108 analyzes an image of each work place (a part corresponding to each work place in the regional image), estimates a symptom of the work place, and estimates the estimated symptom (for example, disease name or physiological condition). The failure plan is stored in the work plan proposal database 105 in association with the work location. The work analysis unit 109 estimates an actual work (for example, a pesticide name or a fertilizer name) that is recommended to be applied to the work place from the symptoms of each work place, and uses the estimated actual work as a work proposal. Is stored in the work plan proposal database 105 in association with the work place. The symptom proposal and the work proposal for each work location constitute a work plan proposal for that work location.

症状解析部108と作業解析部109は、それぞれ、例えばニューラルネットワークを用いて、それぞれの目的に適した機械学習と推論を行えるように構成することができる。   Each of the symptom analysis unit 108 and the work analysis unit 109 can be configured to perform machine learning and inference suitable for each purpose using, for example, a neural network.

図19と図20は、症状解析部108と作業解析部109の構成例をそれぞれ示す。   19 and 20 show configuration examples of the symptom analysis unit 108 and the work analysis unit 109, respectively.

図19に示すように、症状解析部108は、次の2種類のディープニューラルネットワーク(以下、DNNと略称する)を有する。一つは、症状学習DNN121であり、もう一つは症状推論DNN123である。   As shown in FIG. 19, the symptom analysis unit 108 has the following two types of deep neural networks (hereinafter, abbreviated as DNNs). One is a symptom learning DNN 121, and the other is a symptom inference DNN 123.

症状学習DNN121は、多数の作業個所の画像と症状、および、過去から現在までの画像と症状と実作業の履歴(変遷経緯)を、教師データ125として大量に入力して、機械学習、例えばディープラーニング、を実行し、それにより、画像から症状を推論するための推論方法を学習する(つまり、推論ニューラルネットワークを作り上げる)。   The symptom learning DNN 121 inputs a large number of images and symptoms of a large number of work locations, images and symptoms from the past to the present, and histories of actual work (change history) as teacher data 125, and performs machine learning such as deep learning. Perform learning, thereby learning inference methods to infer symptoms from images (ie, create an inference neural network).

症状推論DNN123は、症状学習DNN121による機械学習で過去の或る時点で作成された推論方法(つまり、推論ニューラルネットワーク)を有し、各作業個所の画像と履歴のデータをその推論方法(推論ニューラルネットワーク)に入力して推論を行って、その作業個所に対する症状提案データ129を出力する。   The symptom inference DNN 123 has an inference method (that is, an inference neural network) created at a certain point in the past by machine learning by the symptom learning DNN 121, and converts the image and history data of each work location into the inference method (inference neural network). Network) to perform inference, and output symptom suggestion data 129 for the work location.

症状学習DNN121と症状推論DNN123は、異なるハードウェアまたは異なるコンピュータソフトウェアとして構成されてよい。その場合、症状学習DNN121がある期間にある量の学習を行って作成した推論方法を症状推論DNN123に複製することで、以後、症状推論DNN123がその推論方法を実行できる。このような複製を適当な期間をおいて繰り返すことで、時間経過に伴って症状推論DNN123の推論性能が向上していく。   The symptom learning DNN 121 and the symptom inference DNN 123 may be configured as different hardware or different computer software. In this case, the inference method created by performing a certain amount of learning during a certain period of time in the symptom learning DNN 121 is copied to the symptom inference DNN 123, and thereafter, the symptom inference DNN 123 can execute the inference method. By repeating such duplication after an appropriate period, the inference performance of the symptom inference DNN 123 improves over time.

あるいは、症状学習DNN121と症状推論DNN123は、同じハードウェアまたは同じコンピュータソフトウェアとして構成されてもよい。その場合、その同じハードウェアまたはコンピュータソフトウェアが、ある時間帯に症状学習DNN121として動作し、別の時間帯に症状推論DNN123として動作することができる。このように学習と推論を異なる時間帯で交互に繰り返すことにより、前の時間帯の学習結果が次の時間帯での推論に使用されることが繰り返されるので、時間経過に伴って症状推論DNN123の推論性能が向上していく。あるいは、その同じハードウェアまたはコンピュータソフトウェアが、同時並行的に学習と推論を実行する(つまり、同時並行的に症状学習DNN121と症状推論DNN123として動作する)ように構成されてもよい。   Alternatively, the symptom learning DNN 121 and the symptom inference DNN 123 may be configured as the same hardware or the same computer software. In that case, the same hardware or computer software can operate as the symptom learning DNN 121 at one time and operate as the symptom inference DNN 123 at another time. By alternately repeating the learning and the inference in different time zones in this way, the learning result of the previous time zone is repeatedly used for the inference in the next time zone. Therefore, the symptom inference DNN123 is performed with time. Inference performance is improved. Alternatively, the same hardware or computer software may be configured to perform learning and inference concurrently (ie, operate as symptom learning DNN 121 and symptom inference DNN 123 concurrently).

図20に示すように、作業解析部109も、上述の症状解析部108と同様、2種類のDNNを有する。それらは作業学習DNN131と作業推論DNN133である。   As shown in FIG. 20, the work analysis unit 109 also has two types of DNNs, similarly to the above-mentioned symptom analysis unit 108. These are a work learning DNN 131 and a work inference DNN 133.

作業学習DNN131は、多数の作業個所の症状と、そこに適用された実作業と、その実作業を実施した後に改めて撮影された作業個所の画像と、その画像に基づいて改めて判断された症状を、教師データ135として大量に入力して、機械学習、例えばディープラーニング、を実行し、それにより、症状からそこに適用すべきを実作業を推論するための推論方法を学習する(つまり、推論ニューラルネットワークを作り上げる)。   The work learning DNN 131 detects the symptoms of a large number of work places, the actual work applied thereto, the image of the work place newly photographed after performing the actual work, and the symptom newly determined based on the image, Inputting a large amount as the teacher data 135 and performing machine learning, for example, deep learning, thereby learning an inference method for inferring the actual work to be applied thereto from the symptoms (that is, an inference neural network). Make up).

作業推論DNN133は、作業学習DNN131による機械学習で過去の或る時点で作成された推論方法(つまり、推論ニューラルネットワーク)を有し、各作業個所の症状をその推論方法(推論ニューラルネットワーク)に入力して推論を行って、その作業個所に対する作業提案データ139を出力する。   The work inference DNN 133 has an inference method (that is, an inference neural network) created at a certain point in the past by machine learning by the work learning DNN 131, and inputs the symptoms of each work location to the inference method (inference neural network). Then, inference is performed, and work proposal data 139 for the work location is output.

作業学習DNN131と作業推論DNN133は、前述の症状学習DNN121と症状推論DNN123と同様に、異なるハードウェアまたは異なるコンピュータソフトウェアとして構成されてよい。その場合、作業状学習DNN131がある期間にある量の学習を行って作成した推論方法を作業推論DNN13に複製することで、以後、作業推論DNN133がその推論方法を実行できる。このような複製を適当な期間をおいて繰り返すことで、時間経過に伴って作業推論DNN133の推論性能が向上していく。   The work learning DNN 131 and the work inference DNN 133 may be configured as different hardware or different computer software, like the above-described symptom learning DNN 121 and symptom inference DNN 123. In this case, the work state learning DNN 131 copies the inference method created by performing a certain amount of learning in a certain period to the work inference DNN 13, and thereafter, the work inference DNN 133 can execute the inference method. By repeating such duplication after an appropriate period, the inference performance of the work inference DNN 133 improves over time.

あるいは、作業学習DNN131と作業推論DNN133は、同じハードウェアまたは同じコンピュータソフトウェアとして構成されてもよい。その場合、その同じハードウェアまたはコンピュータソフトウェアが、ある時間帯に作業学習DNN131として動作し、別の時間帯に作業推論DNN133として動作することができる。このように学習と推論を異なる時間帯で交互に繰り返すことにより、前の時間帯の学習結果が次の時間帯での推論に使用されることが繰り返されるので、時間経過に伴って作業推論DNN133の推論性能が向上していく。あるいは、その同じハードウェアまたはコンピュータソフトウェアが、同時並行的に学習と推論を実行する(つまり、同時並行的に作業学習DNN131と作業推論DNN133として動作する)ように構成されてもよい。   Alternatively, the work learning DNN 131 and the work inference DNN 133 may be configured as the same hardware or the same computer software. In that case, the same hardware or computer software can operate as the work learning DNN 131 in a certain time zone and operate as the work inference DNN 133 in another time zone. By alternately repeating the learning and the inference in different time zones in this way, the learning result of the previous time zone is repeatedly used for the inference in the next time zone. Therefore, the work inference DNN 133 with time elapses. Inference performance is improved. Alternatively, the same hardware or computer software may be configured to execute learning and inference concurrently (that is, operate as the work learning DNN 131 and the work inference DNN 133 concurrently).

図21から図23は、操作端末111の表示スクリーン上でユーザが作業個所と作業計画を特定するためのグラフィックインタフェースの例を示す。   FIGS. 21 to 23 show examples of a graphic interface for the user to specify a work place and a work plan on the display screen of the operation terminal 111. FIG.

図21は、作業個所を特定する時のインタフェース200の画像例を示す。地域画像ウィンドウ201に、ユーザ所望の地域(例えば圃場)の画像が表示されている(この例では、個々の農作物の状態がわかるように圃場の一部が拡大表示されている)。ユーザが領域選択ボタン203を操作すると、特異個所検出部113により地域画像の解析が実施されて、その地域内の特異個所が自動的に検出され、そして、その検出された特異個所が領域選択ツール213によって提案される。ユーザは、目視で作業個所を見つけるとき、この提案を参考にすることができる。ユーザは、領域選択ツール213を必要に応じて操作して、作業個所を特定することができる。ユーザは、作業個所名入力ツール205を使用して、作業個所の名称を入力できる。ユーザは、登録ボタン211を操作することで、作業個所(領域選択ツール211によって特定された領域の位置)とその名前をデータサーバ101に登録できる。   FIG. 21 shows an example of an image of the interface 200 when a work location is specified. An image of a region desired by the user (for example, a field) is displayed in the region image window 201 (in this example, a part of the field is enlarged and displayed so that the state of each crop can be understood). When the user operates the region selection button 203, the region image analysis is performed by the unique portion detection unit 113, the unique portion in the region is automatically detected, and the detected unique portion is determined by the region selection tool. 213. The user can refer to this suggestion when visually finding a work place. The user can operate the area selection tool 213 as necessary to specify a work location. The user can input the name of the work place using the work place name input tool 205. By operating the registration button 211, the user can register the work location (the position of the area specified by the area selection tool 211) and its name in the data server 101.

図22は、作業個所の症状を特定するときのグラフィックインタフェースの画像例を示す。作業個所221、223がいったん登録されると、データサーバ101が各作業個所221,223の画像からその症状を推定して症状提案を生成する。その症状提案225、227が地域画像ウィンドウ201上に、各作業個所221、223に関連付けられて表示される。ユーザは、各作業個所221、223の症状を特定するとき、その症状提案を参考にできる。ユーザは、症状入力ツール207を操作して、各作業個所221、223の症状名を特定することができる。ユーザは、登録ボタン211を操作することで、各作業個所221、223の症状名をデータサーバ101に登録できる。   FIG. 22 shows an example of an image of a graphic interface used when specifying a symptom of a work place. Once the work sites 221 and 223 are registered, the data server 101 estimates the symptoms from the images of the work sites 221, 223 and generates a symptom proposal. The symptom suggestions 225 and 227 are displayed on the regional image window 201 in association with the respective work locations 221 and 223. The user can refer to the symptom suggestion when specifying the symptom of each work place 221 and 223. The user can operate the symptom input tool 207 to specify the symptom name of each work place 221 or 223. By operating the registration button 211, the user can register the symptom names of the respective work locations 221 and 223 in the data server 101.

図23は、各作業個所に対する実作業を決定するときのグラフィックインタフェースの画像例を示す。作業個所221、223の症状がいったん登録されると、データサーバ101が各作業個所221、223の症状から、推奨される実作業を推定して作業提案を生成する。その作業提案235、237が地域画像ウィンドウ上の各作業個所221、223に関連けられて表示される。ユーザは、各作業個所221、223の実作業を特定するとき、その作業提案を参考にできる。ユーザは、実作業入力ツール209を操作して、各作業個所221、223に対する実作業名を決定することができる。ユーザは、登録ボタン211を操作することで、各作業個所221、223に対する実作業名をデータサーバ101に登録できる。 FIG. 23 shows an example of an image of the graphic interface when an actual work for each work location is determined. Once the symptoms of the work places 221 and 223 are registered, the data server 101 estimates a recommended actual work from the symptoms of each work place 221 and 223 to generate a work proposal. The work proposed 235 and 237 is displayed is associated with in each work place 221 and 223 on the regional image window. The user can refer to the work proposal when specifying the actual work at each work place 221, 223. The user can operate the actual work input tool 209 to determine the actual work name for each work place 221, 223. By operating the registration button 211, the user can register the actual work name for each work place 221 and 223 in the data server 101.

図24は、データサーバ101の解析部107の別の構成例を示す。   FIG. 24 shows another configuration example of the analysis unit 107 of the data server 101.

図24の構成例では、解析部107は、各作業個所の作業計画提案、つまり、症状提案と実作業提案を、分離せずに一緒に出力することができる。すなわち、解析部107は、作業計画学習DNN141と作業計画推論DNN143を有する。   In the configuration example of FIG. 24, the analysis unit 107 can output the work plan proposal of each work place, that is, the symptom proposal and the actual work proposal together without being separated. That is, the analysis unit 107 includes the work plan learning DNN 141 and the work plan inference DNN 143.

作業計画学習DNN141は、多数の作業個所の画像と作業計画(症状名と実作業名)、および、その作業計画に基づく実作業実施後の同作業個所の画像と症状、ならびに、過去から現在までのその作業個所の画像と症状と実作業の履歴(変遷経緯)を、教師データ145として大量に入力して、機械学習、例えばディープラーニング、を実行し、それにより、画像から作業計画を推論するための推論方法を学習する(つまり、推論ニューラルネットワークを作り上げる)。   The work plan learning DNN 141 includes images and work plans (many symptoms and actual work names) of a large number of work places, images and symptoms of the work places after actual work is performed based on the work plans, and past to present. A large amount of images, symptoms, and actual work histories (change history) of the work place are input as teacher data 145, and machine learning, for example, deep learning is performed, thereby inferring a work plan from the images. Learn inference methods for creating (in other words, creating an inference neural network).

作業計画推論DNN143は、作業計画症状学習DNN141による機械学習で過去の或る時点で作成された推論方法(つまり、推論ニューラルネットワーク)を有し、各作業個所の画像と上記履歴のデータをその推論方法(推論ニューラルネットワーク)に入力して推論を行って、その作業個所に対する作業計画提案149を出力する。
作業計画学習DNN141と作業計画推論DNN143は、異なるハードウェアまたは異なるコンピュータソフトウェアとして構成されてよいし、あるいは、同じハードウェアまたは同じコンピュータソフトウェアとして構成されてもよい。
The work plan inference DNN 143 has an inference method (that is, an inference neural network) created at a certain point in the past by machine learning by the work plan symptom learning DNN 141, and infers an image of each work place and the data of the history described above. A method (inference neural network) is input to perform inference, and a work plan proposal 149 for the work location is output.
The work plan learning DNN 141 and the work plan inference DNN 143 may be configured as different hardware or different computer software, or may be configured as the same hardware or the same computer software.

図25は、解析部107のまた別の構成例を示す。   FIG. 25 shows another configuration example of the analysis unit 107.

図25の構成例では、解析部107は、地域内の作業個所ごとではなく、地域ごとに、作業計画提案(そこには、地域内の1以上の作業個所の位置と、各作業個所の症状名と実作業名が含まれる)を作成して出力することができる。すなわち、解析部107は、作業計画学習DNN151と作業計画推論DNN153を有する。   In the configuration example of FIG. 25, the analysis unit 107 proposes a work plan for each region, not for each work site in the region (including the position of one or more work sites in the region and the symptom of each work site). Name and actual work name). That is, the analysis unit 107 includes the work plan learning DNN 151 and the work plan inference DNN 153.

作業計画学習DNN151は、多数の地域の全体画像とその中の各作業個所の位置とその症状名と実作業名、および、それらの地域の実作業実施後の全体画像と作業個所と症状、ならびに、過去から現在までのそれら地域の全体画像と作業個所と症状と実作業の履歴(変遷経緯)を、教師データ155として大量に入力して、機械学習、例えばディープラーニング、を実行し、それにより、地域の全体画像から作業計画(地域中の作業個所の位置と、各作業個所の症状名と実作業名)を推論するための推論方法を学習する(つまり、推論ニューラルネットワークを作り上げる)。   The work plan learning DNN 151 includes a whole image of a large number of areas, positions of each work place therein, their symptom names and actual work names, and an overall image, work places and symptoms after the actual work in those areas, and And inputting a large amount of the entire image, work location, symptom, and actual work history (change history) of the area from the past to the present as the teacher data 155, and executing machine learning, for example, deep learning. Then, learn an inference method for inferring a work plan (locations of work points in the area, symptom names and actual work names of each work place) from the entire image of the area (that is, create an inference neural network).

作業計画推論DNN153は、作業計画症状学習DNN151による機械学習で過去の或る時点で作成された推論方法(つまり、推論ニューラルネットワーク)を有し、各地域の作業個所の画像と上記履歴のデータをその推論方法(推論ニューラルネットワーク)に入力して推論を行って、その地域に対する作業計画提案159を出力する。   The work plan inference DNN 153 has an inference method (that is, an inference neural network) created at a certain point in the past by machine learning using the work plan symptom learning DNN 151, and stores an image of a work place in each region and the data of the history. An input is made to the inference method (inference neural network) to perform inference, and a work plan proposal 159 for the area is output.

作業計画学習DNN151と作業計画推論DNN153は、異なるハードウェアまたは異なるコンピュータソフトウェアとして構成されてよいし、あるいは、同じハードウェアまたは同じコンピュータソフトウェアとして構成されてもよい。   The work plan learning DNN 151 and the work plan inference DNN 153 may be configured as different hardware or different computer software, or may be configured as the same hardware or the same computer software.

再び図17を参照する。データサーバ101の地域画像データベース61、作業個所データベース63、地域位置データベース51、飛行計画データベース55、作業計画データベース、作業結果データベース、作業計画提案データベース105に蓄積されたデータ、ならびに、解析部107が機械学習によって作成した推論方法つまり推論ニューラルネットワークは、操作端末111に表示してユーザを助ける用途以外に、さまざまな有益な用途に利用可能である。それゆえ、それらデータベースに蓄積されたデータや、推論ニューラルネットワークの全部または任意の部分は、データサーバ101から外部へ出力することができる。   FIG. 17 is referred to again. The regional image database 61, the work location database 63, the regional position database 51, the flight plan database 55, the work plan database, the work result database, the data stored in the work plan proposal database 105 of the data server 101, and the analysis unit 107 The inference method created by learning, that is, the inference neural network, can be used for various useful uses other than the use displayed on the operation terminal 111 to assist the user. Therefore, the data stored in these databases and all or any part of the inference neural network can be output from the data server 101 to the outside.

以上、本発明の二つの実施形態に従う作業支援システムを説明したが、それらの作業支援システムは、ドローンによる調査で収集されたデータ(例えば、写真撮影で得られた圃場などの地域の画像)に含まれるノイズ(例えば、撮影時の天候や時間帯などの環境状態によって生じる写真画像の色調や明るさなどの実際からの誤差)を除去するデータ補正を行うための補正システムを備えてもよい。例えば、上述した二つの実施形態にかかる作業支援システム1、100は、それぞれ、そのような補正システムを、例えばデータサーバ7、101または例えば操作端末9、111内に備えてよい。   As described above, the work support systems according to the two embodiments of the present invention have been described. However, these work support systems apply data collected by drone surveys (for example, images of a field such as a field obtained by photographing). A correction system for performing data correction for removing included noise (for example, an actual error such as a color tone or brightness of a photographic image caused by environmental conditions such as weather or time zone at the time of shooting) may be provided. For example, the work support systems 1 and 100 according to the two embodiments described above may include such a correction system in, for example, the data server 7 or 101 or the operation terminal 9 or 111, for example.

以下、そのような補正システムの一例について説明する。以下に例示する補正システムは、ドローンによる写真撮影で得られた地域画像を補正するためのものであり、上述した二つの実施形態にかかる作業支援システム1、100に設けることができる。   Hereinafter, an example of such a correction system will be described. The correction system exemplified below is for correcting a regional image obtained by photographing with a drone, and can be provided in the work support systems 1 and 100 according to the above-described two embodiments.

図26は、その補正システムを利用するために使用される画像補正スケールの一例の平面デザインを示す。   FIG. 26 shows a planar design of an example of an image correction scale used to utilize the correction system.

図26に示された画像補正スケール161は、例えば長方形の平板であり、ドローンによる写真撮影時に撮影対象の地域内または地域近傍周辺の地表上に、図26に示された表面を上に向けて置かれる。   The image correction scale 161 shown in FIG. 26 is, for example, a rectangular flat plate, and has a surface shown in FIG. Is placed.

画像補正スケール161は、複数(この例では8つであるが、それ以外の数でもよい)の基準色スケール163C1〜163C7、163Gを有する。そのうち、一部の基準色スケール163C1〜163C7(この例では7つであるが、それ以外の数でもよい)は、それぞれ、異なる所定の有彩色に着色されており、これらを纏めて以下「カラースケール」163Cという。また、残りの基準色スケール163G(この例では1つであるが、それ以外の数でもよい)は、所定の無彩色(例えば、純白色、あるいは、所定のグレー色)に着色されており、これを以下「グレースケール」という。   The image correction scale 161 has a plurality of (eight in this example, but other numbers) reference color scales 163C1 to 163C7, 163G. Among them, some of the reference color scales 163C1 to 163C7 (seven in this example, but other numbers may be used) are colored with different predetermined chromatic colors, respectively. The scale is called 163C. The remaining reference color scale 163G (one in this example, but any other number) may be colored in a predetermined achromatic color (for example, pure white or a predetermined gray color). This is hereinafter referred to as “gray scale”.

カラースケール163Cの複数の基準色スケール163C1〜163C7にそれぞれ塗られた異なる有彩色は、対象地域の状態を判断するために予め定められた(つまり、RGBなどの要素色のトーン値が予め決められた)異なる基準色である。例えば、画像補正スケール161の適用地域が稲の圃場である場合、それらの基準色は、稲の状態を稲の葉色から判断するために予め定められた緑色系の異なる色である。それぞれの基準色には、予め識別符号が定義されており、各基準色スケール163C1〜163C7にはその識別符号の表示も付随する。グレースケール163Cの基準色も、予め決められた要素色のトーン値をもつ無彩色であり、そして、予め定められたその識別符号の表示がグレースケール163Cに付随する。   The different chromatic colors applied to the plurality of reference color scales 163C1 to 163C7 of the color scale 163C are predetermined in order to determine the state of the target area (that is, the tone values of element colors such as RGB are predetermined). T) different reference colors. For example, when the application area of the image correction scale 161 is a rice field, the reference colors are different colors of a predetermined greenish color to determine the state of the rice from the leaf color of the rice. An identification code is defined in advance for each reference color, and each of the reference color scales 163C1 to 163C7 is accompanied by a display of the identification code. The reference color of the gray scale 163C is also an achromatic color having a predetermined element color tone value, and the display of the predetermined identification code is attached to the gray scale 163C.

すべての基準色スケール163C1〜163C7、163Gは例えば真円形である。ドローンは、地域の写真を撮影するときに、その地域だけでなくその地域の近傍の周辺も撮影し、したがって、画像補正スケール161も撮影する。その写真撮影により得られた地域画像には、その地域だけでなく、その地域の近傍周辺の画像も含まれ、画像補正スケール161の画像も含まれる。その地域画像内で、画像補正スケール161の画像がどの方向を向いていても、各基準色スケール163C1〜163C7、163Gが真円形であると、撮影で得られた地域画像の中から各基準色スケール163C1〜163C7、163Gの画像を画像処理により識別し抽出することが容易である。   All the reference color scales 163C1 to 163C7, 163G are, for example, perfectly circular. When taking a picture of an area, the drone takes an image of not only the area but also the vicinity of the area, and therefore also takes an image correction scale 161. The regional image obtained by the photographing includes not only the region but also an image around the region and an image of the image correction scale 161. Regardless of the direction of the image of the image correction scale 161 in the local image, if each of the reference color scales 163C1 to 163C7 and 163G is a perfect circle, each of the reference colors is selected from the local image obtained by shooting. It is easy to identify and extract the images of the scales 163C1 to 163C7 and 163G by image processing.

図27は、図26に示された画像補正スケールの一例における各基準色スケールが表示されたパネルが満たす寸法条件の一例を示す。   FIG. 27 shows an example of dimensional conditions satisfied by the panel on which each reference color scale is displayed in the example of the image correction scale shown in FIG.

図27に示すように、画像補正スケール161内の各基準色スケール167は前述したように真円形である。各基準色スケール167はユニットパネル165の表面上に表示されており、ユニットパネル1は例えば正方形である。ユニットパネル165の表面上の基準色スケール167の外側の背景領域(これは、基準色とは異なる所定の色をもつ)に、基準色スケール167の基準色の識別符号169が表示される。それぞれ異なる色の基準色スケール167が描かれた所定枚数のユニットパネル165の統合により、図26に示したような平板状の画像補正スケール161が構成される。   As shown in FIG. 27, each reference color scale 167 in the image correction scale 161 is a perfect circle as described above. Each reference color scale 167 is displayed on the surface of the unit panel 165, and the unit panel 1 is, for example, a square. An identification code 169 of the reference color of the reference color scale 167 is displayed in a background area on the surface of the unit panel 165 outside the reference color scale 167 (which has a predetermined color different from the reference color). By integrating a predetermined number of unit panels 165 on which reference color scales 167 of different colors are drawn, a flat image correction scale 161 as shown in FIG. 26 is configured.

ユニットパネル165のサイズは、基準色スケール167の外接正方形(一点鎖線の補助線で図示する)を内包する(つまり、その外接正方形がユニットパネル165の外へはみ出ない)ように選ばれる。また、ユニットパネル165上での識別符号169の表示位置は、破線の補助線で図示するように、上記外接正方形がどの方向を向いても、その外接正方形の外側に存在する(つまり、外接正方形内に入らない)ように選ばれている。   The size of the unit panel 165 is selected so as to include a circumscribed square of the reference color scale 167 (illustrated by a dash-dotted auxiliary line) (that is, the circumscribed square does not protrude outside the unit panel 165). The display position of the identification code 169 on the unit panel 165 exists outside the circumscribed square regardless of the direction of the circumscribed square as shown by the dashed auxiliary line (that is, the circumscribed square). ).

それにより、ドローンが撮影した画像の中から基準色スケール167を識別する画像処理において、画像内でユニットパネル165がどの方向を向いていても、上記外接正方形内には上記背景色と基準色の2色の領域しか存在しないので、的確に基準色スケール167を識別し抽出することが容易である。   Accordingly, in the image processing for identifying the reference color scale 167 from the image captured by the drone, the circumscribed square includes the background color and the reference color in the circumscribed square regardless of the direction in which the unit panel 165 is oriented in the image. Since there are only two color regions, it is easy to accurately identify and extract the reference color scale 167.

図28は、図26に示した画像補正スケール161の画像を利用して地域画像を補正するための補正システムの構成例を示す。   FIG. 28 shows a configuration example of a correction system for correcting a local image using the image of the image correction scale 161 shown in FIG.

図28に示すように、補正システム171は、画像入力部173、カラースケール探索部177、カラースケール画素値保存部179、グレースケール探索部181、グレースケール画素値保存部183、基準画素値保存部185、地域ポリゴンデータ保存部187、画像分離部189、第1カラートーン調整部191、第2カラートーン調整部193、画像合成部195、およびカラー分析部197を有する。   As shown in FIG. 28, the correction system 171 includes an image input unit 173, a color scale search unit 177, a color scale pixel value storage unit 179, a gray scale search unit 181, a gray scale pixel value storage unit 183, and a reference pixel value storage unit. 185, a local polygon data storage unit 187, an image separation unit 189, a first color tone adjustment unit 191, a second color tone adjustment unit 193, an image synthesis unit 195, and a color analysis unit 197.

画像入力部173は、写真撮影で得られた対象地域の地域画像を入力する。なお、対象地域の地域画像は、上述した二つ実施形態にかかる作業支援システム1、100では(図1、図17参照)、地域画像データベース61から入力し得る。   The image input unit 173 inputs a regional image of the target region obtained by photographing. In the work support systems 1 and 100 according to the two embodiments described above (see FIGS. 1 and 17), the area image of the target area can be input from the area image database 61.

カラースケール探索部177は、入力された地域画像の中から、画像処理によって、カラースケール163Cの各基準色スケール163C1〜163C7の画像を識別して、その識別された基準色スケール画像内の全画素の値セット(例えば、RGB値のセット)を抽出する。カラースケール画素値保存部179は、抽出された基準色スケール画像内の全画素値セットを保存する。   The color scale search unit 177 identifies the image of each of the reference color scales 163C1 to 163C7 of the color scale 163C from the input area image by image processing, and processes all the pixels in the identified reference color scale image. (For example, a set of RGB values) is extracted. The color scale pixel value storage unit 179 stores all pixel value sets in the extracted reference color scale image.

グレースケール探索部181は、入力された地域画像の中から、画像処理によって、グレースケール163Gの画像を識別して、その識別されたグレースケール画像内の全画素の値セット(例えば、RGB値のセット)を抽出する。グレースケール画素値保存部183は、抽出されたグレースケール画像の全画素値セットを保存する。   The grayscale search unit 181 identifies an image of the grayscale 163G from the input regional image by image processing, and sets a value set of all pixels in the identified grayscale image (for example, an RGB value Set) to extract. The grayscale pixel value storage unit 183 stores all pixel value sets of the extracted grayscale image.

基準画素値保存部185は、画像補正スケール161のすべての基準色スケール163C1〜163C7、163Gの予め定められた画素値セット(例えば、RGB値のセット)(以下、基準画素値セットという)を保存する。   The reference pixel value storage unit 185 stores a predetermined pixel value set (for example, a set of RGB values) of all the reference color scales 163C1 to 163C7 and 163G of the image correction scale 161 (hereinafter, referred to as a reference pixel value set). I do.

地域ポリゴンデータ保存部187は、対象地域の形状と位置(例えば、対象地域の輪郭の地理的座標値)を示すデータ(以下、地域ポリゴンデータという)を保存する。対象地域の地域ポリゴンデータは、上述した二つ実施形態にかかる作業支援システム1、100では(図1、図17参照)、地域位置データベース51に存在する。   The area polygon data storage unit 187 stores data (hereinafter, referred to as area polygon data) indicating the shape and position of the target area (for example, the geographical coordinates of the contour of the target area). In the work support systems 1 and 100 according to the above-described two embodiments (see FIGS. 1 and 17), the area polygon data of the target area exists in the area position database 51.

画像分離部189は、画像入力部173から入力された地域画像(例えば圃場を写真撮影した得た画像)を、地域ポリゴンデータ187を使って、対象地域の部分(例えば、その圃場の画像)と、対象地域以外の部分(例えば、その圃場と一緒に撮影されたその圃場の近傍周辺領域の画像)とに分離する。   The image separating unit 189 converts the local image (for example, an image obtained by photographing a field) input from the image input unit 173 into a target area (for example, an image of the field) using the local polygon data 187. And a portion other than the target area (for example, an image of a peripheral area near the field photographed together with the field).

第1カラートーン調整部191は、画像分離部189からの対象地域部分の画像に対して、その色を補正する処理を行う。この補正処理では、カラースケール画素保存部179からのカラースケール163Cの各基準色スケール163C1〜163C7の画素値セットと、基準画素値保存部185からのカラースケール163Cの各基準色スケール163C1〜163C7の基準画素値セットとが用いられる。   The first color tone adjustment unit 191 performs a process of correcting the color of the image of the target area from the image separation unit 189. In this correction processing, the pixel value set of each of the reference color scales 163C1 to 163C7 of the color scale 163C from the color scale pixel storage unit 179 and the reference color scales 163C1 to 163C7 of the color scale 163C from the reference pixel value storage unit 185 are set. The reference pixel value set is used.

第2カラートーン調整部193は、画像分離部189からの地域以外部分の画像に対して、その色を補正する処理を行う。この補正処理では、グレースケール画素保存部183からのグレースケール163Gの画素値セットと、基準画素値保存部185からのグレースケール163Gの基準画素値セットとが用いられる。   The second color tone adjustment unit 193 performs a process of correcting the color of the image of the part other than the area from the image separation unit 189. In this correction process, a grayscale 163G pixel value set from the grayscale pixel storage unit 183 and a grayscale 163G reference pixel value set from the reference pixel value storage unit 185 are used.

画像合成部195は、補正された対象地域部分の画像と、補正された対象地域以外の部分の画像とを結合して、補正された地域画像を合成する。   The image combining unit 195 combines the corrected image of the target area and the corrected image of the part other than the target area to combine the corrected area image.

カラー分析部197は、補正された地域画像の各部の画素値を分析して、後の作業のための用途、例えば特異領域の検出、のための情報を生成する。例えば、地域画像の中のとくに対象地域部分の画像を細かい小区画に分割し、それぞれの小区画内の全画素の画素値セットの平均値や標準偏差などの統計値を算出する。それらの統計値は、例えば圃場内の農作物の病害や生理障害などが起きている特異領域を見つけ出すために役立つので、例えば、上述した第2の実施形態にかかる作業支援システム100(図17参照)の解析部107または特異個所検出部113などで利用され得る。   The color analysis unit 197 analyzes the pixel value of each part of the corrected area image, and generates information for a later use, for example, detection of a unique region. For example, an image of a target area portion in the area image is divided into small sections, and statistical values such as an average value and a standard deviation of a pixel value set of all pixels in each small section are calculated. Since these statistical values are useful for finding out, for example, a peculiar area in which a disease or a physiological disorder of a crop in a field has occurred, for example, the work support system 100 according to the above-described second embodiment (see FIG. 17) Can be used in the analysis unit 107 or the unique part detection unit 113 of FIG.

図29は、図28に示された補正システム171が行う制御の一例の流れを示す。   FIG. 29 shows a flow of an example of control performed by the correction system 171 shown in FIG.

図29に示されるように、写真撮影で得られた地域画像が入力されて、その入力地域画像から、カラースケール163Cの画像(つまり、基準色スケール163C1〜163C7の画像)が探索され(ステップS101)、見つかったカラースケール163Cの画像の画素値(つまり、基準色スケール163C1〜163C7の画像の全画素の画素値セット)が抽出されて保存される(ステップS102)。そして、保存されたカラースケール163Cの画素値と、予め定められた対応する基準画素値(つまり、基準画素値保存部185からの基準色スケール163C1〜163C7の基準画素値セット)とに基づいて、前者の色調を後者の色調に合わせるように補正するための第1の補正関数が計算される(ステップS103)。   As shown in FIG. 29, a local image obtained by photographing is input, and an image of the color scale 163C (that is, an image of the reference color scales 163C1 to 163C7) is searched from the input local image (step S101). ), The extracted pixel values of the image of the color scale 163C (that is, the pixel value sets of all the pixels of the images of the reference color scales 163C1 to 163C7) are extracted and stored (step S102). Then, based on the stored pixel value of the color scale 163C and a predetermined corresponding reference pixel value (that is, a reference pixel value set of the reference color scales 163C1 to 163C7 from the reference pixel value storage unit 185), A first correction function for correcting the former color tone to match the latter color tone is calculated (step S103).

また、上記入力地域画像から、グレースケール163Gの画像が探索され(ステップS104)、見つかったグレースケール163Gの画素値(つまり、グレースケール163Gの画像の全画素の画素値セット)が保存される(ステップS105)。そして、保存されたグレースケール163Gの画素値と、予め定められたグレースケール163Gの基準画素値(つまり、基準画素値保存部185からのグレースケール163Gの基準画素値セット)とに基づいて、前者の色調を後者の色調に合わせるように補正するための第2の補正関数が計算される(ステップS106)。   Further, a grayscale 163G image is searched from the input area image (step S104), and the found pixel values of the grayscale 163G (that is, pixel value sets of all pixels of the grayscale 163G image) are stored (step S104). Step S105). Then, based on the stored pixel value of the gray scale 163G and a predetermined reference pixel value of the gray scale 163G (that is, a reference pixel value set of the gray scale 163G from the reference pixel value storage unit 185), the former is used. A second correction function is calculated to correct the color tone of the image to match the latter color tone (step S106).

そして、入力された地域画像から、対象地域部分の画像が分離され、その画像の色調が、上記第1の補正関数を用いて補正される(ステップS107)。また、入力された地域画像から、対象地域以外の部分の画像が分離され、その画像の色調が、上記第2の補正関数を用いて補正される(ステップS108)。これにより、写真撮影で得られた地域画像の色調が実際の地域画像からずれていても、地域部分の画像(例えば、稲の圃場の画像)は、地域の実際の状態をカラースケール163Cの基準画像に基づいてより適正に評価できるように補正され、また、対象地域以外の部分の画像はより自然に見える色調になるように補正される。   Then, the image of the target area is separated from the input area image, and the color tone of the image is corrected using the first correction function (step S107). Further, an image of a portion other than the target area is separated from the input area image, and the color tone of the image is corrected using the second correction function (step S108). Accordingly, even if the color tone of the regional image obtained by photographing is shifted from the actual regional image, the image of the regional portion (for example, an image of a rice field) indicates the actual state of the region based on the color scale 163C. The correction is performed based on the image so that the evaluation can be more appropriately performed, and the image of the portion other than the target area is corrected so that the color tone looks more natural.

そして、補正された地域部分とそれ以外の部分の画像とが結合されて、補正後の地域画像が合成される(ステップS109)。   Then, the corrected area part and the image of the other part are combined, and the corrected area image is synthesized (step S109).

そして、補正後の地域画像が分析されて、所定の統計値(例えば、地域画像が細分された多数の小区域の平均画素値セットやその標準偏差など)が計算される(ステップS110)。計算された統計値は、後の作業のための用途、例えば、対象地域の特異領域を見つけ出すため、に利用され得る。   Then, the corrected area image is analyzed, and a predetermined statistical value (for example, an average pixel value set of a number of small areas into which the area image is subdivided, a standard deviation thereof, and the like) is calculated (step S110). The calculated statistics can be used for later work, for example, to find a specific area of the target area.

以上、本発明の幾つかの実施形態を説明したが、それらの実施形態は、は、説明のための単なる例示であり、本発明の範囲をそれらの実施の形態のみに限定する趣旨ではない。本発明は、上記の実施の形態とは違うさまざまな形態で、実施することができる。   Although some embodiments of the present invention have been described above, these embodiments are merely examples for explanation, and do not purport to limit the scope of the present invention to only these embodiments. The present invention can be implemented in various forms different from the above embodiment.

例えば、本発明は、圃場の農薬散布に限らず、他のさまざまな用途の作業支援システムにも適用できる。例えば、資材置き場でのドローンを用いた物体の移送、送電線や鉄塔のドローンによる監視やメンテナンス、あるいは、ユーザ所望の地区や場所の写真や動画の撮影など、広い用途に本発明が適用できる。   For example, the present invention is not limited to the application of agricultural chemicals in a field, but can also be applied to work support systems for various other uses. For example, the present invention can be applied to a wide range of applications, such as transferring objects using a drone in a material storage area, monitoring and maintaining transmission lines and towers with a drone, or photographing a photograph or a moving image of a district or place desired by a user.

用途によっては、上記実施形態のような、調査飛行と実作業飛行という二段階の飛行を含むプロセスでなく、実作業飛行だけを含むプロセスを行うこともできる。例えば、ある場所の動画撮影を行いたい場合、ユーザが操作端末でその場所を指定し、サーバがその場所の撮影のための飛行計画を作り、ユーザがその飛行計画をダウンロードしてドローンにインストールし、そして、ドローンの撮影飛行を行うというような、より単純なプロセスを行うことができる。   Depending on the application, a process including only the actual flight may be performed instead of a process including the two-stage flight of the survey flight and the actual flight as in the above-described embodiment. For example, if you want to shoot a video of a certain place, the user specifies the place on the operation terminal, the server makes a flight plan for shooting the place, and the user downloads the flight plan and installs it on the drone. And a simpler process, such as performing a drone shooting flight.

また、用途によっては、より多段階の飛行を含むプロセスを行うこともできる。例えば、圃場の農薬散布の場合、農薬散布を行った日からある期間が経過した後、農薬の効果を調べるために、再び調査飛行(この場合、地域全体の調査飛行を行ってもよいし、作業個所に的を絞った調査飛行を行ってもよい)を行ったり、定期的に調査飛行と農薬散布を繰り返したり、あるいは、種まきや施肥のための飛行を行うなど、より複雑なプロセスを、本発明を適用して行うことができる。   In some applications, processes involving more stages of flight may be performed. For example, in the case of pesticide spraying in a field, after a certain period has elapsed from the day on which the pesticide was sprayed, to investigate the effect of the pesticide, a survey flight (in this case, a survey flight of the entire area may be performed, A more complex process, such as conducting a survey flight that focuses on the work location), repeating survey flights and pesticide spraying regularly, or performing a sowing or fertilizing flight. It can be performed by applying the present invention.

また、上述したデータサーバの一部または全部が、ユーザの使用する操作端末内に実装されていてもよい。例えば、飛行計画を作成するためのソフトウェアツールが、操作端末7にインストールされていて、ユーザがそのツールを用いて自分で飛行計画を作成できる、または、そのツールが自動的に飛行計画を作成するようになっていてよい。
また、作業対象の種類または状況に応じて、ドローンとして、飛行以外の移動方法、例えば、地上走行、水上航行、水中潜航などが行えるものを使用する場合にも、本発明を適用してよい。
Further, a part or all of the above-described data server may be implemented in an operation terminal used by a user. For example, a software tool for creating a flight plan is installed on the operation terminal 7 so that a user can create a flight plan by himself using the tool, or the tool automatically creates a flight plan It may be like.
In addition, the present invention may be applied to a case in which a drone that can perform a traveling method other than flying, for example, a taxi, a surface navigation, an underwater diving, or the like is used as a drone according to the type or situation of a work target.

1 作業支援システム
3 調査ドローン
5 実作業ドローン
7 データサーバ
9 操作端末
17、27 制御器
19、29 無線操縦器
31 地域登録部
33 飛行計画入力部
35 飛行計画出力部
37 撮影画像入力部
39 撮影画像出力部
41 撮影位置入力部
43 撮影位置出力部
45 画像表示部
47 作業個所登録部
48 作業結果入力部
49 作業結果出力部
51 地域位置データベース
53 三次元地図データベース
55 飛行計画データベース
57 撮影画像データベース
59 撮影位置データベース
61 地域画像データベース
63 作業個所データベース
65 作業結果データベース
71 飛行計画作成部
73 撮影画像入力部
75 撮影位置入力部
77 撮影画像結合部
79 分析部
100 作業支援システム
101 データサーバ
111 操作端末
103 作業計画データベース
105 作業計画提案データベース
107 解析部
108 症状解析部
109 作業解析部
113 特異個所検出部
115 作業計画入力部
117 提案提示部
119 作業選択部
121 症状学習ディープニューラルネットワーク
123 症状推論ディープニューラルネットワーク
131 作業学習ディープニューラルネットワーク
133 作業推論ディープニューラルネットワーク
141、151 作業計画学習ディープニューラルネットワーク
143、153 作業計画推論ディープニューラルネットワーク
161 画像補正スケール
163C カラースケール
163G グレースケール
165 ユニットパネル
167 基準色スケール
169 識別符号
171 補正システム
DESCRIPTION OF SYMBOLS 1 Work support system 3 Survey drone 5 Actual work drone 7 Data server 9 Operation terminal 17, 27 Controller 19, 29 Radio controller 31 Area registration part 33 Flight plan input part 35 Flight plan output part 37 Photographed image input part 39 Photographed image Output unit 41 Shooting position input unit 43 Shooting position output unit 45 Image display unit 47 Work place registration unit 48 Work result input unit 49 Work result output unit 51 Regional position database 53 3D map database 55 Flight plan database 57 Shooting image database 59 Shooting Position database 61 Regional image database 63 Work location database 65 Work result database 71 Flight plan creation unit 73 Photographed image input unit 75 Photographed position input unit 77 Photographed image coupling unit 79 Analysis unit 100 Work support system 101 Data server 111 Operation terminal 103 Work plan Database 105 Work plan proposal database 107 Analysis unit 108 Symptom analysis unit 109 Work analysis unit 113 Unique part detection unit 115 Work plan input unit 117 Proposal presentation unit 119 Work selection unit 121 Symptom learning deep neural network 123 Symptom inference deep neural network 131 Work learning Deep neural network 133 Work inference Deep neural network 141, 151 Work plan learning Deep neural network 143, 153 Work plan inference deep neural network 161 Image correction scale 163C Color scale 163G Gray scale 165 Unit panel 167 Reference color scale 169 Identification code 171 Correction system

Claims (22)

1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたドローン作業支援システムにおいて、
前記ユーザの少なくとも一人から第一の対象の特定を受け、前記第一の対象の位置を記憶する第一の対象記憶手段と、
前記ドローンの少なくとも一つが前記第一の対象の位置に応じた移動と第一の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第一の移動計画を記憶する第一の移動計画記憶手段と、
記憶された前記第一の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供する第一の移動計画提供手段と、
前記第一の対象に対して行われた前記第一の作業の結果を受けて記憶する第一の作業結果記憶手段と、
記憶された前記第一の作業の結果を表す作業報告を作成する作業報告作成手段と、
作成された前記作業報告を前記ユーザの少なくとも一人に提供する作業報告提供手段と、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供する第二の対象特定ツール提供手段と、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶する第二の対象記憶手段と、
前記ドローンの少なくとも一つが前記第二の対象の位置に応じた移動と第二の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第二の移動計画を記憶する第二の移動計画記憶手段と、
記憶された前記第二の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供する第二の移動計画提供手段と
を備えたドローン作業支援システム。
In a drone operation support system configured to be able to communicate with one or more drones, or to be able to communicate with one or more users using the one or more drones,
A first target storage unit that receives a first target specification from at least one of the users and stores a position of the first target,
Storing a first movement plan configured to control at least one of the drones so that at least one of the drones performs a first work and a movement according to the position of the first object; One movement plan storage means,
First movement plan providing means for providing the stored first movement plan to at least one of the users or at least one of the drones;
First work result storage means for receiving and storing the result of the first work performed on the first target,
Work report creation means for creating a work report representing a result of the stored first work,
Work report providing means for providing the created work report to at least one of the users,
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Means for providing a second target identification tool to be provided to one person;
A second target storage unit that receives the specification of the second target from at least one of the users and stores a position of the second target,
Storing a second movement plan configured to control at least one of the drones such that at least one of the drones performs a movement according to the position of the second object and a second task; Second movement plan storage means,
A second movement plan providing unit for providing the stored second movement plan to at least one of the users or at least one of the drones.
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて前記第二の作業の作業内容を特定することができるように構成された作業内容特定ツールを、前記ユーザの少なくとも一人に提供する作業内容特定ツール提供手段と、
前記ユーザの少なくとも一人から前記作業内容の特定を受け、前記作業内容を記憶する作業内容記憶手段と、
を更に備えた請求項1記載のドローン作業支援システム。
A work content specifying tool configured so that at least one of the users can specify the work content of the second work in accordance with the result of the first work displayed in the work report, Means for providing a work content identification tool to be provided to at least one of
Work content storage means for receiving the work content from at least one of the users and storing the work content,
The drone operation support system according to claim 1, further comprising:
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて前記第二の対象の症状を特定することができるように構成された症状特定ツールを、前記ユーザの少なくとも一人に提供する症状特定ツール提供手段と、
前記ユーザの少なくとも一人から前記症状の特定を受け、前記症状を記憶する症状記憶手段と、
を更に備えた請求項1乃至2のいずれか一項記載のドローン作業支援システム。
A symptom identification tool configured so that at least one of the users can identify the symptom of the second target according to the result of the first operation displayed in the operation report, at least one of the users Means for providing a symptom identification tool to be provided to one person,
Symptom storage means for receiving the identification of the symptom from at least one of the users and storing the symptom;
The drone operation support system according to claim 1, further comprising:
前記第一の作業の結果を受けて、前記第一の対象の中から特異部分を自動的に検出し、検出された前記特異部分を、第二の対象の提案として前記ユーザの少なくとも一人に提供する第二の対象提案手段
をさらに備えた請求項1乃至3のいずれか一項記載のドローン作業支援システム。
In response to the result of the first operation, a unique part is automatically detected from the first object, and the detected unique part is provided to at least one of the users as a proposal of a second object. The drone operation support system according to any one of claims 1 to 3, further comprising a second target proposal unit that performs the operation.
前記第一の作業の結果を受けて、前記第二の作業の作業内容の提案を自動的に生成し、前記作業内容の提案を前記ユーザの少なくとも一人に提供する作業内容提案手段
をさらに備えた請求項1乃至4のいずれか一項記載のドローン作業支援システム。
Receiving a result of the first work, automatically generating a work content proposal for the second work, and further comprising a work content proposal means for providing the work content proposal to at least one of the users; The drone operation support system according to any one of claims 1 to 4.
前記第一の作業の結果を受けて、前記第二の対象の症状の提案を自動的に生成し、前記症状の提案を前記ユーザの少なくとも一人に提供する症状提案手段
をさらに備えた請求項1乃至5のいずれか一項記載のドローン作業支援システム。
2. The apparatus according to claim 1, further comprising: a symptom suggestion unit configured to automatically generate a symptom suggestion of the second target in response to the result of the first operation, and provide the symptom suggestion to at least one of the users. The drone operation support system according to any one of claims 1 to 5.
記憶された前記第一の対象の位置に基づいて前記第一の移動計画を作成し、作成されたた前記第一の移動計画を前記第一の移動計画記憶手段に提供する第一の移動計画作成手段
をさらに備えた請求項1乃至6のいずれか一項記載のドローン作業支援システム。
A first movement plan that creates the first movement plan based on the stored position of the first object and provides the created first movement plan to the first movement plan storage unit; The drone operation support system according to any one of claims 1 to 6, further comprising a creation unit.
記憶された前記第二の対象の位置に基づいて前記第二の移動計画を作成し、作成されたた前記第二の移動計画を前記第二の移動計画記憶手段に提供する第二の移動計画作成手段
をさらに備えた請求項1乃至7のいずれか一項記載のドローン作業支援システム。
A second movement plan that creates the second movement plan based on the stored position of the second target and provides the created second movement plan to the second movement plan storage unit The drone operation support system according to any one of claims 1 to 7, further comprising a creation unit.
前記1以上のドローンとして、前記第一の作業を行うための第一作業装置を有する第一作業ドローンと、前記第二の作業を行うための第二作業装置を有する第二作業ドローンとが前記ユーザに使用される場合、
前記第一の移動計画が、前記第一作業ドローンを制御するように構成され、
前記第二の移動計画が、前記第二作業ドローンを制御するように構成された、
請求項1乃至8のいずれか一項に記載のドローン作業支援システム。
As the one or more drones, a first working drone having a first working device for performing the first work, and a second working drone having a second working device for performing the second work, If used by the user,
The first travel plan is configured to control the first work drone;
The second travel plan is configured to control the second work drone;
A drone operation support system according to any one of claims 1 to 8.
前記第一の作業が、前記第一の対象の調査、点検、保守、加工、破壊又は建設を含み、
前記第二の作業が、前記第二の対象の調査、点検、保守、加工、破壊又は建設を含む
請求項1記載のドローン作業支援システム。
The first operation includes investigating, inspecting, maintaining, processing, destroying or constructing the first object;
The drone operation support system according to claim 1, wherein the second operation includes investigating, inspecting, maintaining, processing, destroying, or constructing the second object.
前記第一の作業が、前記第一の対象の写真撮影を含み、
前記作業報告が、前記写真撮影により撮影された前記第一の対象の写真画像の表示を含み、
前記第二の対象特定ツールが、前記ユーザの少なくとも一人が前記写真画像上で前記第二の対象を特定することができるように構成された
請求項1記載のドローン作業支援システム。
The first operation includes photographing the first object;
The work report includes a display of a photographic image of the first subject taken by the photography,
The drone operation support system according to claim 1, wherein the second target specifying tool is configured so that at least one of the users can specify the second target on the photographic image.
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたドローン作業支援システムにおいて、
前記ユーザの少なくとも一人から第一の対象の特定を受け、前記第一の対象の位置を記憶する第一の対象記憶手段と、
前記ドローンの少なくとも一つが前記第一の対象の位置に応じ移動と第一の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第一の移動計画を記憶する第一の移動計画記憶手段と、
記憶された前記第一の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供する第一の移動計画提供手段と、
前記第一の対象に対して行われた前記第一の作業の結果を受けて記憶する第一の作業結果記憶手段と、
記憶された前記第一の作業の結果を表す作業報告を作成する作業報告作成手段と、
作成された前記作業報告を前記ユーザの少なくとも一人に提供する作業報告提供手段と、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供する第二の対象特定ツール提供手段と、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶する第二の対象記憶手段と、
記憶された前記第二の対象の位置に応じた第二の作業に関する情報処理を行ない、前記情報処理の結果を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供する第二対象情報処理手段と
を備えたドローン作業支援システム。
In a drone operation support system configured to be able to communicate with one or more drones, or to be able to communicate with one or more users using the one or more drones,
A first target storage unit that receives a first target specification from at least one of the users and stores a position of the first target,
A first movement plan storing a first movement plan configured to control at least one of the drones such that at least one of the drones performs movement and a first task according to a position of the first object. Moving plan storage means,
First movement plan providing means for providing the stored first movement plan to at least one of the users or at least one of the drones;
First work result storage means for receiving and storing the result of the first work performed on the first target,
Work report creation means for creating a work report representing a result of the stored first work,
Work report providing means for providing the created work report to at least one of the users,
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Means for providing a second target identification tool to be provided to one person;
A second target storage unit that receives the specification of the second target from at least one of the users and stores a position of the second target,
A second target information processing means for performing information processing relating to a second work corresponding to the stored position of the second target, and providing a result of the information processing to at least one of the users or at least one of the drones; And a drone work support system.
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたドローン作業支援システムにおいて、
第一の対象に対して行われた第一の作業の結果を受けて記憶する第一の作業結果記憶手段と、
記憶された前記第一の作業の結果を表す作業報告を作成する作業報告作成手段と、
作成された前記作業報告を前記ユーザの少なくとも一人に提供する作業報告提供手段と、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供する第二の対象特定ツール提供手段と、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶する第二の対象記憶手段と、
前記ドローンの少なくとも一つが前記第二の対象の位置に応じた移動と第二の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第二の移動計画を記憶する第二の移動計画記憶手段と、
記憶された前記第二の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供する第二の移動計画提供手段と
を備えたドローン作業支援システム。
In a drone operation support system configured to be able to communicate with one or more drones, or to be able to communicate with one or more users using the one or more drones,
First work result storage means for receiving and storing the result of the first work performed on the first target,
Work report creation means for creating a work report representing a result of the stored first work,
Work report providing means for providing the created work report to at least one of the users,
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Means for providing a second target identification tool to be provided to one person;
A second target storage unit that receives the specification of the second target from at least one of the users and stores a position of the second target,
Storing a second movement plan configured to control at least one of the drones such that at least one of the drones performs a movement according to the position of the second object and a second task; Second movement plan storage means,
A second movement plan providing unit for providing the stored second movement plan to at least one of the users or at least one of the drones.
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたドローン作業支援システムにおいて、
前記ドローンの少なくとも一つにより第一の対象に対して行われた第一の作業の結果を受けて記憶する第一の作業結果記憶手段と、
記憶された前記第一の作業の結果を表す作業報告を作成する作業報告作成手段と、
作成された前記作業報告を前記ユーザの少なくとも一人に提供する作業報告提供手段と、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供する第二の対象特定ツール提供手段と、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶する第二の対象記憶手段と、
記憶された前記第二の対象の位置に基づいた情報処理を行ない、前記情報処理の結果を出力する情報処理手段と
を備えたドローン作業支援システム。
In a drone operation support system configured to be able to communicate with one or more drones, or to be able to communicate with one or more users using the one or more drones,
First work result storage means for receiving and storing a result of a first work performed on a first target by at least one of the drones,
Work report creation means for creating a work report representing a result of the stored first work,
Work report providing means for providing the created work report to at least one of the users,
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Means for providing a second target identification tool to be provided to one person;
A second target storage unit that receives the specification of the second target from at least one of the users and stores a position of the second target,
A drone operation support system comprising: an information processing unit that performs information processing based on the stored position of the second target and outputs a result of the information processing.
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムにより行われるドローン作業支援方法において、
前記ユーザの少なくとも一人から第一の対象の特定を受け、前記第一の対象の位置を記憶するステップ、
前記ドローンの少なくとも一つが前記第一の対象の位置に応じた移動と第一の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第一の移動計画を記憶するステップ、
記憶された前記第一の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
前記第一の対象に対して行われた前記第一の作業の結果を受けて記憶するステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、
前記ドローンの少なくとも一つが前記第二の対象の位置に応じた移動と第二の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第二の移動計画を記憶するステップ、及び、
記憶された前記第二の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
を有するドローン作業支援方法。
A drone operation support method performed by a computer system configured to be communicable with one or more drones or with one or more users using the one or more drones,
Receiving a first target specification from at least one of the users, and storing a position of the first target;
Storing a first movement plan configured to control at least one of the drones such that at least one of the drones performs a first work and a movement according to the position of the first object; ,
Providing the stored first travel plan to at least one of the users or at least one of the drones;
Receiving and storing the result of the first operation performed on the first target,
Creating a work report representing a result of the stored first work;
Providing the created work report to at least one of the users;
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Steps to provide to one person,
Receiving the identification of the second object from at least one of the users, storing the position of the second object,
Storing a second movement plan configured to control at least one of the drones such that at least one of the drones performs a second work and a movement according to the position of the second object. ,as well as,
Providing the stored second travel plan to at least one of the users or at least one of the drones;
Drone work support method having
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムにより行われるドローン作業支援方法において、
前記ユーザの少なくとも一人から第一の対象の特定を受け、前記第一の対象の位置を記憶するステップ、
前記ドローンの少なくとも一つが前記第一の対象の位置に応じた移動と第一の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第一の移動計画を記憶するステップ、
記憶された前記第一の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
前記第一の対象に対して行われた前記第一の作業の結果を受けて記憶するステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、及び、
記憶された前記第二の対象の位置に応じた第二の作業に関する情報処理を行い、前記情報処理の結果を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ
を有するドローン作業支援方法。
A drone operation support method performed by a computer system configured to be communicable with one or more drones or with one or more users using the one or more drones,
Receiving a first target specification from at least one of the users, and storing a position of the first target;
Storing a first movement plan configured to control at least one of the drones such that at least one of the drones performs a first work and a movement according to the position of the first object; ,
Providing the stored first travel plan to at least one of the users or at least one of the drones;
Receiving and storing the result of the first operation performed on the first target,
Creating a work report representing a result of the stored first work;
Providing the created work report to at least one of the users;
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Steps to provide to one person,
Receiving the identification of the second object from at least one of the users, and storing the position of the second object; and
Performing drone information processing relating to a second operation according to the stored position of the second object, and providing a result of the information processing to at least one of the users or at least one of the drones Method.
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムにより行われるドローン作業支援方法において、
第一の対象に対して行われた第一の作業の結果を受けて記憶するステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、
記憶された前記第二の対象の位置に基づいて、前記第二の対象に関する第二の作業のための情報処理を行うステップ、
前記情報処理の結果を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
前記ドローンの少なくとも一つが前記第二の対象の位置に応じた移動と第二の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第二の移動計画を記憶するステップ、及び、
記憶された前記第二の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
を有するドローン作業支援方法。
A drone operation support method performed by a computer system configured to be communicable with one or more drones or with one or more users using the one or more drones,
Receiving and storing the result of the first operation performed on the first object;
Creating a work report representing a result of the stored first work;
Providing the created work report to at least one of the users;
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Steps to provide to one person,
Receiving the identification of the second object from at least one of the users, storing the position of the second object,
Based on the stored position of the second target, performing information processing for a second work on the second target,
Providing the result of the information processing to at least one of the users or at least one of the drones;
Storing a second movement plan configured to control at least one of the drones so that at least one of the drones performs a second work and a movement according to the position of the second object; ,as well as,
Providing the stored second travel plan to at least one of the users or at least one of the drones;
Drone work support method having
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムにより行われるドローン作業支援方法において、
前記ドローンの少なくとも一つにより第一の対象に対して行われた第一の作業の結果を受けるステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、及び
記憶された前記第二の対象の位置に基づいた情報処理を行ない、前記情報処理の結果を出力するステップ、
を有するドローン作業支援方法。
A drone operation support method performed by a computer system configured to be communicable with one or more drones or with one or more users using the one or more drones,
Receiving the result of a first operation performed on a first object by at least one of the drones;
Creating a work report representing a result of the stored first work;
Providing the created work report to at least one of the users;
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Steps to provide to one person,
Receiving the identification of the second object from at least one of the users and storing the position of the second object; and performing information processing based on the stored position of the second object, Outputting the result of
Drone work support method having
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムに、ドローン作業支援方法を実行させるための機械読み取り可能なコンピュータプログラムにおいて、前記ドローン作業支援方法が、
前記ユーザの少なくとも一人から第一の対象の特定を受け、前記第一の対象の位置を記憶するステップ、
前記ドローンの少なくとも一つが前記第一の対象の位置に応じた移動と第一の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第一の移動計画を記憶するステップ、
記憶された前記第一の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
前記第一の対象に対して行われた前記第一の作業の結果を受けて記憶するステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、
前記ドローンの少なくとも一つが前記第二の対象の位置に応じた移動と第二の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第二の移動計画を記憶するステップ、及び、
記憶された前記第二の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
を有するコンピュータプログラム。
A machine-readable computer program for causing a computer system configured to be able to communicate with one or more drones or to communicate with one or more users using the one or more drones to execute the drone operation support method. The drone work support method,
Receiving a first target specification from at least one of the users, and storing a position of the first target;
Storing a first movement plan configured to control at least one of the drones such that at least one of the drones performs a first work and a movement according to the position of the first object; ,
Providing the stored first travel plan to at least one of the users or at least one of the drones;
Receiving and storing the result of the first operation performed on the first target,
Creating a work report representing a result of the stored first work;
Providing the created work report to at least one of the users;
A second target specifying tool configured so that at least one of the users can specify a second target in accordance with the result of the first work displayed in the work report, at least one of the users Steps to provide to one person,
Receiving the identification of the second object from at least one of the users, storing the position of the second object,
Storing a second movement plan configured to control at least one of the drones so that at least one of the drones performs a second work and a movement according to the position of the second object; ,as well as,
Providing the stored second travel plan to at least one of the users or at least one of the drones;
A computer program having:
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムに、ドローン作業支援方法を実行させるための機械読み取り可能なコンピュータプログラムにおいて、前記ドローン作業支援方法が、
前記ユーザの少なくとも一人から第一の対象の特定を受け、前記第一の対象の位置を記憶するステップ、
前記ドローンの少なくとも一つが前記第一の対象の位置に応じた移動と第一の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第一の移動計画を記憶するステップ、
記憶された前記第一の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
前記第一の対象に対して行われた前記第一の作業の結果を受けて記憶するステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、及び、
記憶された前記第二の対象の位置に応じた第二の作業に関する情報処理を行ない、前記情報処理の結果を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ
を有するコンピュータプログラム。
A machine-readable computer program for causing a computer system configured to be able to communicate with one or more drones or to communicate with one or more users using the one or more drones to execute the drone operation support method. The drone work support method,
Receiving a first target specification from at least one of the users, and storing a position of the first target;
Storing a first movement plan configured to control at least one of the drones such that at least one of the drones performs a first work and a movement according to the position of the first object; ,
Providing the stored first travel plan to at least one of the users or at least one of the drones;
Receiving and storing the result of the first operation performed on the first target,
Creating a work report representing a result of the stored first work;
Providing the created work report to at least one of the users;
A second target specifying tool configured so that at least one of the users can specify a second target in accordance with the result of the first work displayed in the work report, at least one of the users Steps to provide to one person,
Receiving the identification of the second object from at least one of the users, and storing the position of the second object; and
A computer program having a step of performing information processing relating to a second operation according to a stored position of the second target, and providing a result of the information processing to at least one of the users or at least one of the drones.
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムに、ドローン作業支援方法を実行させるための機械読み取り可能なコンピュータプログラムにおいて、前記ドローン作業支援方法が、
第一の対象に対して行われた第一の作業の結果を受けて記憶するステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、
前記ドローンの少なくとも一つが前記第二の対象の位置に応じた移動と第二の作業とを行なうように前記ドローンの少なくとも一つを制御するように構成された第二の移動計画を記憶するステップ、及び、
記憶された前記第二の移動計画を前記ユーザの少なくとも一人又は前記ドローンの少なくとも一つに提供するステップ、
を有するコンピュータプログラム。
A machine-readable computer program for causing a computer system configured to be able to communicate with one or more drones or to communicate with one or more users using the one or more drones to execute the drone operation support method. The drone work support method,
Receiving and storing the result of the first operation performed on the first object;
Creating a work report representing a result of the stored first work;
Providing the created work report to at least one of the users;
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Steps to provide to one person,
Receiving the identification of the second object from at least one of the users, storing the position of the second object,
Storing a second movement plan configured to control at least one of the drones such that at least one of the drones performs a second work and a movement according to the position of the second object. ,as well as,
Providing the stored second travel plan to at least one of the users or at least one of the drones;
A computer program having:
1以上のドローンと通信可能に、又は、前記1以上のドローンを用いる1以上のユーザと通信可能に構成されたコンピュータシステムに、ドローン作業支援方法を実行させるための機械読み取り可能なコンピュータプログラムにおいて、前記ドローン作業支援方法が、
前記ドローンの少なくとも一つにより第一の対象に対して行われた第一の作業の結果を受けるステップ、
記憶された前記第一の作業の結果を表す作業報告を作成するステップ、
作成された前記作業報告を前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人が前記作業報告に表示された前記第一の作業の結果に応じて第二の対象を特定することができるように構成された第二の対象特定ツールを、前記ユーザの少なくとも一人に提供するステップ、
前記ユーザの少なくとも一人から前記第二の対象の特定を受け、前記第二の対象の位置を記憶するステップ、及び
記憶された前記第二の対象の位置に基づいた情報処理を行ない、前記情報処理の結果を出力するステップ、
を有するコンピュータプログラム。
A machine-readable computer program for causing a computer system configured to be able to communicate with one or more drones or to communicate with one or more users using the one or more drones to execute the drone operation support method. The drone work support method,
Receiving the result of a first operation performed on a first object by at least one of the drones;
Creating a work report representing a result of the stored first work;
Providing the created work report to at least one of the users;
A second target specifying tool configured so that at least one of the users can specify a second target according to the result of the first work displayed in the work report, at least one of the users Steps to provide to one person,
Receiving the identification of the second object from at least one of the users and storing the position of the second object; and performing information processing based on the stored position of the second object, Outputting the result of
A computer program having:
JP2017196710A 2017-03-30 2017-10-10 Systems and methods to support work with drones Active JP6811483B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017066872 2017-03-30
JP2017066872 2017-03-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020203163A Division JP7129069B2 (en) 2017-03-30 2020-12-08 Systems and methods for assisting work with drones

Publications (3)

Publication Number Publication Date
JP2018169995A JP2018169995A (en) 2018-11-01
JP2018169995A5 true JP2018169995A5 (en) 2020-01-30
JP6811483B2 JP6811483B2 (en) 2021-01-13

Family

ID=64018834

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017196710A Active JP6811483B2 (en) 2017-03-30 2017-10-10 Systems and methods to support work with drones
JP2020203163A Active JP7129069B2 (en) 2017-03-30 2020-12-08 Systems and methods for assisting work with drones

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020203163A Active JP7129069B2 (en) 2017-03-30 2020-12-08 Systems and methods for assisting work with drones

Country Status (1)

Country Link
JP (2) JP6811483B2 (en)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6741052B2 (en) 2017-09-29 2020-08-19 株式会社デンソー Fuel injection valve
JP6914874B2 (en) * 2018-03-14 2021-08-04 株式会社ゼンリンデータコム Flight route generator and flight route generation method
JP6777923B2 (en) * 2018-06-28 2020-10-28 株式会社ナイルワークス Drone system, drone system control method, and drone system control program
JP2022107078A (en) * 2019-02-08 2022-07-21 株式会社ナイルワークス Drone system
JP2022087355A (en) * 2019-02-08 2022-06-10 株式会社ナイルワークス Drone system
JP7242077B2 (en) * 2019-02-08 2023-03-20 株式会社ナイルワークス Drone system, drone system control method, drone system control program, and control device
CN113412053B (en) * 2019-02-12 2023-04-04 株式会社尼罗沃克 Unmanned aerial vehicle system, control method of unmanned aerial vehicle system, and computer-readable recording medium
JP7260631B2 (en) * 2019-03-18 2023-04-18 株式会社Nttドコモ Information processing equipment
JP2020170213A (en) 2019-04-01 2020-10-15 株式会社スカイマティクス Drone-work support system and drone-work support method
KR102316838B1 (en) * 2019-08-14 2021-10-25 경북대학교 산학협력단 Personalized wireless controller for drone and Personalized control method
WO2021029065A1 (en) * 2019-08-15 2021-02-18 株式会社センシンロボティクス Management server and management system for flying object
JP7274978B2 (en) * 2019-08-20 2023-05-17 株式会社クボタ air vehicle support system
JP7428461B2 (en) 2020-01-21 2024-02-06 アルパイン株式会社 Unmanned aircraft system and flight control method
JP6934964B2 (en) * 2020-02-05 2021-09-15 ソフトバンク株式会社 Routing device, program, routing method, and system
JP7289802B2 (en) * 2020-02-17 2023-06-12 株式会社日立製作所 reservoir calculator
JP6876354B1 (en) * 2020-03-04 2021-05-26 株式会社センシンロボティクス Aircraft management server and management system
JP6777962B1 (en) * 2020-03-04 2020-10-28 株式会社センシンロボティクス Aircraft management server and management system
JP7347651B2 (en) * 2020-03-11 2023-09-20 日本電気株式会社 Aircraft control device, aircraft control method, and program
JP6771253B1 (en) * 2020-07-02 2020-10-21 株式会社センシンロボティクス Aircraft management server and management system
JP6786138B1 (en) * 2020-07-02 2020-11-18 株式会社センシンロボティクス Aircraft management server and management system
JP7165703B2 (en) 2020-09-24 2022-11-04 楽天グループ株式会社 Flight system, flight path determination method, and flight path determination device
JP7004863B1 (en) 2020-12-24 2022-02-14 Kddi株式会社 Flight management system and flight management method
JP7108063B1 (en) * 2021-01-26 2022-07-27 Kddi株式会社 Route generation device, route generation method and program
WO2023153014A1 (en) * 2022-02-14 2023-08-17 出光興産株式会社 Flight route determining system, and server
WO2023181253A1 (en) * 2022-03-24 2023-09-28 日本電気株式会社 Flight management system, flight management method, and recording medium
JP7132680B1 (en) 2022-03-31 2022-09-07 株式会社オプティム program, method, information processing device, system
JP7295321B1 (en) * 2022-09-21 2023-06-20 ソフトバンク株式会社 Information processing device, program, system, and information processing method
JP7295320B1 (en) * 2022-09-21 2023-06-20 ソフトバンク株式会社 Information processing device, program, system, and information processing method
WO2024121953A1 (en) * 2022-12-06 2024-06-13 日本電信電話株式会社 Inspection system, inspection device, inspection method and inspection program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6387782B2 (en) * 2014-10-17 2018-09-12 ソニー株式会社 Control device, control method, and computer program

Similar Documents

Publication Publication Date Title
JP7129069B2 (en) Systems and methods for assisting work with drones
JP2018169995A5 (en)
US11361417B2 (en) Aircraft-utilizing deterioration diagnosis system
EP3743781B1 (en) Automated and adaptive three-dimensional robotic site surveying
US11907341B2 (en) Diagnostic assistance system and method therefor
CN106931945B (en) Robot navigation method and system
US9599994B1 (en) Collisionless flying of unmanned aerial vehicles that maximizes coverage of predetermined region
DE102019122343A1 (en) DEVIATION CORRECTION FOR INDUSTRIAL APPLICATIONS WITH EXTENDED REALITY
Valente et al. Near-optimal coverage trajectories for image mosaicing using a mini quad-rotor over irregular-shaped fields
US10839612B1 (en) Method and system for visualizing overlays in virtual environments
JP7501878B2 (en) Drone operation support system and drone operation support method
JP6973375B2 (en) Control device, control method, and control program
WO2018136349A1 (en) Aerial imaging of a region using above ground aerial camera platform
JP2018046787A (en) Agricultural management prediction system, agricultural management prediction method, and server apparatus
WO2020103109A1 (en) Map generation method and device, drone and storage medium
CN110254722A (en) A kind of aerocraft system and its method, the product with computer program
CN105526916A (en) System and method for dynamic image masking
EP3757866A1 (en) Harbor area monitoring method and system, and central control system
CN114206110A (en) Method for generating an application map for processing a field with agricultural equipment
CN111811502B (en) Motion carrier multi-source information fusion navigation method and system
CN114964275A (en) Ground-air cooperative map construction method, device, equipment and storage medium
WO2024067133A1 (en) 3d-map-based flight control method and system for unmanned aircraft, and medium
CN112506187A (en) Mobile robot monitoring method and device and storage medium
Yadav et al. Computer Vision for Volunteer Cotton Detection in a Corn Field with UAS Remote Sensing Imagery and Spot Spray Applications
Ješke et al. Autonomous compact monitoring of large areas using micro aerial vehicles with limited sensory information and computational resources