WO2018109796A1 - 遠隔制御システム、遠隔制御方法、およびプログラム - Google Patents

遠隔制御システム、遠隔制御方法、およびプログラム Download PDF

Info

Publication number
WO2018109796A1
WO2018109796A1 PCT/JP2016/086866 JP2016086866W WO2018109796A1 WO 2018109796 A1 WO2018109796 A1 WO 2018109796A1 JP 2016086866 W JP2016086866 W JP 2016086866W WO 2018109796 A1 WO2018109796 A1 WO 2018109796A1
Authority
WO
WIPO (PCT)
Prior art keywords
remote control
image
condition
analysis result
unit
Prior art date
Application number
PCT/JP2016/086866
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Priority to CN201680091530.9A priority Critical patent/CN110063061B/zh
Priority to JP2018556030A priority patent/JP6621942B2/ja
Priority to PCT/JP2016/086866 priority patent/WO2018109796A1/ja
Priority to EP16923843.3A priority patent/EP3554094B1/en
Priority to US16/467,603 priority patent/US10913533B2/en
Publication of WO2018109796A1 publication Critical patent/WO2018109796A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C27/00Rotorcraft; Rotors peculiar thereto
    • B64C27/04Helicopters
    • B64C27/08Helicopters with two or more rotors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/91Remote control based on location and proximity

Definitions

  • the present invention relates to a remote control system, a remote control method, and a program.
  • Patent Document 1 discloses a plurality of agricultural machines 2 that are movable and perform farm work, a data collection device 3 that collects farm work data in each farm machine 2 and transmits the data to the outside, and data
  • a system including a plurality of movable portable terminals 4 that receive farm work data transmitted from the collection device 3 and transmit it to the server 5 is disclosed.
  • the farm work data accumulated in the server 5 is used by farm workers to create daily work reports, make work plans, graph farm work results in each field, and create management plans.
  • an object of the present invention is to make it possible to determine whether or not to perform various processes such as farm work without leaving it to a human.
  • the present invention provides an acquisition unit that acquires image data indicating an image captured by an imaging device, position data indicating the position of the image, a condition relating to an analysis result of the image data, and a process performed by the control target device.
  • Storage means for associating and storing, determination means for analyzing the acquired image data and determining whether or not the analysis result matches the stored condition, and the analysis result is stored.
  • an instruction means for instructing the device to be controlled to perform the process associated with the condition in an area based on the acquired position data when the condition is met.
  • the imaging device may be a movable mobile device.
  • a movement control means for controlling the movement of the imaging apparatus may be provided.
  • the movement control means may control the movement of the imaging device according to the type of animals and plants included in the area where the processing is performed.
  • the movement control unit controls the movement of the imaging device according to the processing, and the analysis unit determines whether or not the analysis result matches a condition stored in association with the processing. May be.
  • the device to be controlled may be the mobile device.
  • the area based on the acquired position data may be an area that does not include the position indicated by the position data and has a predetermined positional relationship with the position indicated by the position data.
  • a history storage unit that stores the instructed process and an area in which the process has been performed as a process history, and the instructing unit performs a process of instructing the control target device based on the stored process history. You may decide.
  • the instruction unit may determine a process for instructing the control target device based on information on a natural environment at a position of the image before the time when the image is captured.
  • the present invention performs an acquisition step of acquiring image data indicating an image captured by an imaging device and position data indicating the position of the image, a condition regarding an analysis result of the image data, and a control target device.
  • a storage means for storing processing in association with each other, a determination step for determining whether an analysis result of the acquired image data matches the stored condition, and the analysis result is stored.
  • a remote control comprising: an instruction step for instructing the device to be controlled to perform the processing associated with the condition in an area based on the acquired position data when the condition is met.
  • the present invention provides an acquisition step of acquiring image data indicating an image captured by an imaging device and position data indicating the position of the image in one or more computers, and a condition regarding an analysis result of the image data,
  • a determination unit that determines whether or not an analysis result of the acquired image data matches the stored condition in a storage unit that associates and stores processing performed by the control target device; and the analysis result If the condition matches the stored condition, an instruction step for instructing the device to be controlled to perform the process associated with the condition is executed in an area based on the acquired position data.
  • a program is provided.
  • FIG. 2 is a diagram illustrating a hardware configuration of a moving body imaging apparatus 20.
  • FIG. 2 is a diagram illustrating a hardware configuration of a remote control device 10.
  • FIG. 4 is a diagram illustrating information stored in an auxiliary storage device 104 of the remote control device 10.
  • FIG. 4 is a diagram illustrating a condition processing table stored in the auxiliary storage device 104 of the remote control device 10.
  • FIG. 4 is a sequence chart illustrating the operation of the remote control system 1.
  • FIG. 1 is a diagram illustrating an overview of a remote control system 1 according to an embodiment of the present invention.
  • the remote control system 1 includes a remote control device 10, a moving body imaging device 20, a control target device 30, and a network 90 that connects these devices 10 to 30 so that they can communicate with each other.
  • the network 90 is, for example, a local area network (LAN), a wide area network (WAN), or a combination thereof, and may include a wired section or a wireless section.
  • the control target device 30 is an agricultural machine for performing various processes such as watering, additional fertilization, agricultural chemical application, and harvesting on plants cultivated in a field, for example.
  • the moving body imaging device 30 is a device that is movable and has an imaging function.
  • the moving body imaging device 30 is a flightable rotorcraft called a drone or a multicopter.
  • the moving body imaging device 30 flies over the field in accordance with the instruction from the remote control device 10 and captures an image of the plant cultivated in the field.
  • the remote control device 10 analyzes the image picked up by the moving body image pickup device 30, determines what processing should be performed on the plant according to the analysis result, and the control target device performs the determined processing. 30.
  • the control target device 30 performs the instructed process automatically or according to the operation of the farmer.
  • FIG. 2 is a diagram illustrating a hardware configuration of the moving body imaging apparatus 20.
  • the mobile imaging device 20 includes a CPU 201 (Central Processing Unit), ROM (Read Only Memory) 202, RAM (Random Access Memory) 203, auxiliary storage device 204, communication IF 205, camera 206, sensor 207, and rotation mechanism 208. Is a processor that performs various operations.
  • the RAM 202 is a volatile memory that functions as a work area when the CPU 201 executes a program.
  • the ROM 203 is a non-volatile memory that stores programs and data used for starting the mobile imaging device 20, for example.
  • the auxiliary storage device 204 is a non-volatile storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores programs and data used in the mobile imaging device 20.
  • the moving body imaging device 20 functions as a computer device, and a function shown in FIG. 6 to be described later is realized.
  • the communication IF 205 is an interface for performing communication via the network 90 in accordance with a predetermined communication standard. This communication standard may be a wireless communication standard or a wired communication standard.
  • the camera 206 images a space below the moving body imaging device 20 and generates image data indicating the captured image.
  • the positioning device 207 is a GPS (Global Positioning System) unit, for example, and detects the position of the moving body imaging device 20.
  • the rotation mechanism 208 is a means for generating buoyancy in the moving body imaging apparatus 20, and includes a propeller, a shaft, a motor, and other driving mechanisms.
  • FIG. 3 is a diagram illustrating a hardware configuration of the remote control device 10.
  • the remote control device 10 is a computer device having a CPU 101, a ROM 102, a RAM 103, an auxiliary storage device 104, and a communication IF 105.
  • the CPU 101 is a processor that performs various calculations.
  • the RAM 102 is a volatile memory that functions as a work area when the CPU 101 executes a program.
  • the ROM 103 is a non-volatile memory that stores programs and data used for starting the remote control device 10, for example.
  • the auxiliary storage device 104 is a nonvolatile storage device such as an HDD or an SSD, and stores programs and data used in the remote control device 10. When the CPU 101 executes this program, the functions shown in FIG. 6 to be described later are realized.
  • the communication IF 105 is an interface for performing communication via the network 90 in accordance with a predetermined communication standard.
  • FIG. 4 is a diagram illustrating information stored in the auxiliary storage device 104 of the remote control device 10.
  • the auxiliary storage device 104 includes the date and time when an image (moving image in this case) was captured by the moving body imaging device 10, position data indicating the position where the image was captured, image data indicating the captured image, and the captured image.
  • processing target position data indicating the position of the area where processing is required as a result of the analysis, an analysis result obtained by analyzing the captured image by the image recognition technology, and a content of the processing required Correspondingly stored.
  • FIG. 5 is a diagram illustrating a condition processing table stored in the auxiliary storage device 104 of the remote control device 10.
  • the condition processing table a condition of an analysis result obtained by analyzing a captured image that is assumed in advance and a process that is necessary at a position that matches the condition are associated with each other. For example, if the shape, color, size, etc. of the object (plant image object) included in the image matches the condition of the pest occurrence symptom, this condition processing table stipulates that processing such as pesticide spraying is executed. Has been.
  • FIG. 6 is a diagram illustrating a functional configuration of the remote control system 1.
  • the remote control system 1 includes a movement unit 21, an imaging unit 22, a position detection unit 23, a transmission unit 24, a movement control unit 11, an acquisition unit 12, a storage unit 13, a determination unit 14, an instruction unit 15, a history storage unit 16, and A processing unit 31 is included.
  • the moving unit 21, the imaging unit 22, the position detection unit 23, and the transmission unit 24 are mounted on the moving body imaging device 20, and the movement control unit 11, the acquisition unit 12, the storage unit 13, the determination unit 14, The instruction unit 15 and the history storage unit 16 are mounted on the remote control device 10, and the processing unit 31 is mounted on the control target device 30.
  • the moving unit 21 is realized by the rotation mechanism 208 of the moving body imaging device 20, the imaging unit 22 is realized by the camera 206 of the moving body imaging device 20, and the position detection unit 23 is realized by the positioning device 207 of the moving body imaging device 20.
  • the transmission unit 24 is realized by the communication IF 205 of the moving body imaging apparatus 20.
  • the movement control unit 11 is realized by the CPU 101 and the communication IF 105 of the remote control device 10, the acquisition unit 12 is realized by the communication IF 105 of the remote control device 10, and the storage unit 13 is realized by the auxiliary storage device 104 of the remote control device 10.
  • the determination unit 14 is realized by the CPU 101 and the auxiliary storage device 104 of the remote control device 10, the instruction unit 15 is realized by the communication IF 105 of the remote control device 10, and the history storage unit 16 is realized by the auxiliary storage device 104 of the remote control device 10. Is done.
  • the movement control unit 11 gives a movement instruction including a moving route, a moving speed, an altitude when moving, a timing of starting and ending imaging, and the like to the moving unit 21 in order to control the movement of the moving body imaging device 20.
  • the moving unit 21 moves the moving body imaging device 20 in accordance with a movement instruction from the movement control unit 11.
  • the imaging unit 25 captures a moving image over a period from the start to the end of imaging as the mobile body imaging device 20 moves.
  • the position detection unit 23 detects the position of the moving body imaging device 20, that is, the position of the image to be captured.
  • the transmission unit 24 transmits image data indicating the image captured by the imaging unit 22 and position data indicating the position of the image to the remote control device 10.
  • the acquisition unit 12 acquires the image data and position data transmitted from the transmission unit 24.
  • the storage unit 13 stores the above-described condition processing table, that is, information that associates the conditions relating to the analysis result of the image data with the processing performed by the control target device 30.
  • the determination unit 14 analyzes the image data acquired by the acquisition unit 12 and determines whether or not the analysis result matches the conditions stored in the storage unit 13.
  • the instruction unit 15 specifies the area to be processed based on the position data acquired by the acquisition unit 12, and
  • the control target device 30 is instructed to perform processing associated with the above condition in the area.
  • the history storage unit 16 stores the process instructed by the instruction unit 15 and the position of the area where the process is performed as a process history.
  • the processing unit 31 performs processing in accordance with an instruction from the instruction unit 15.
  • FIG. 7 is a sequence chart illustrating the operation of the remote control system 1.
  • the movement control unit 11 of the remote control device 10 moves to the moving unit 21 via the network 90 including the movement route, the moving speed, the altitude when moving, and the timing for starting and ending the imaging.
  • An instruction is given (step S11). This movement instruction is created in advance by an administrator of the remote control system 1 and is input to the remote control device 10.
  • the moving unit 21 of the moving body imaging apparatus 20 drives the rotating mechanism 208 to move the moving body imaging apparatus 20 in accordance with a movement instruction from the movement control unit 11.
  • the imaging unit 25 images a moving image over a period from the start to the end of imaging included in the movement instruction as the moving body imaging device 20 moves.
  • the position detection unit 23 periodically detects the position of the moving body imaging device 20, that is, the position of the image to be captured (for example, every 10 seconds).
  • the transmission unit 24 transmits image data indicating the image captured by the imaging unit 22 and position data indicating the position detected by the position detection unit 23 to the remote control device 10 via the network 90. This transmission process may be performed after the mobile imaging device 20 has landed at the base facility provided at the end point of the flight, or may be performed while the mobile imaging device 20 is flying.
  • the acquisition unit 12 of the remote control device 10 acquires the image data and position data transmitted from the transmission unit 24.
  • the determination unit 14 analyzes the image data acquired by the acquisition unit 12. Specifically, the determination unit 14 analyzes the shape, color, size, and the like of an object included in each image indicated by the image data using an image recognition technique, and the analysis result is stored in the storage unit 13 ( It is determined whether or not any of the pest occurrence symptom, water deficiency symptom, fertilizer deficiency symptom, growth completion symptom is met.
  • the instruction unit 15 of the remote control device 10 performs processing based on the position data corresponding to the image. Identify the location of the area of interest. More specifically, the instruction unit 15 is an image that is an analysis result that matches the conditions stored in the storage unit 13 (infestation symptom, water deficiency symptom, fertilizer deficiency symptom, growth completion symptom ). An area with a predetermined radius centered on the position data corresponding to is processed.
  • indication part 15 reads the process (any of agrochemical spraying, watering, additional fertilization, harvest ...) matched with the said conditions in a condition process table, and the process instruction
  • the history storage unit 16 stores the processing instructed by the instruction unit 15 and the processing target position data of the area where the processing is performed as a processing history.
  • the processing unit 31 of the control target device 30 receives a processing instruction from the instruction unit 15. Then, in the control target device 30, the process included in the processing instruction is performed in the area indicated by the processing target position data included in the processing instruction. Specifically, when the control target device 30 can perform all the processing automatically, the control target device 30 itself moves to the area indicated by the processing target position data and executes the processing. When at least a part of processing is assisted or executed by a human, for example, the human refers to the processing instruction in the control target device 30 and operates the control target device 30 to move to the area indicated by the processing target position data. Then, the process is executed while operating the control target device 30 in the area.
  • Modification 1 The present invention can be applied to a case where treatment is performed on animals such as seaweed, fish and shellfish cultivated in the ocean and rivers, or animals such as livestock kept on the ranch in addition to plants cultivated in the field. It is.
  • the movement control unit 11 may control the movement of the moving body imaging device 20 according to the type of animals and plants included in the area to be processed. For example, depending on the type of animals and plants, when the moving body imaging device 20 does not fly at a low altitude and the image cannot be analyzed, the movement control unit 11 moves the moving body imaging device 20 so as to fly at a relatively low altitude. To control. In addition, for example, depending on the type of animals and plants, when the moving path per unit area of the moving body imaging device 20 cannot be analyzed unless the moving path is dense, the movement control unit 11 per unit area of the moving body imaging device 20. The movement of the moving body imaging device 20 is controlled so as to fly along a movement path with a dense movement path.
  • the movement control unit 11 moves the moving body imaging apparatus 20 so as to fly at a relatively slow speed.
  • the determination unit 14 analyzes the image and selects a necessary process. Instead, for example, the process is first designated by a system administrator or the like, and the determination unit 14 selects the image. Analysis may be performed to determine whether or not the specified process should be performed. In this case, the movement control unit 11 may control the movement of the moving body imaging apparatus 20 according to the designated process.
  • the movement control unit 11 when the process of watering is specified, the movement control unit 11 is not suitable because the movement path per unit area is sparse and it is sufficient for image analysis even if the movement path is relatively high and fast.
  • the moving body imaging device 20 is controlled to move.
  • the movement control unit 11 when the process of spraying agricultural chemicals is designated, the movement control unit 11 is not able to perform sufficient image analysis unless the movement route per unit area is dense and the movement is slow at a relatively low altitude.
  • the moving body imaging device 20 is controlled to move.
  • the control target device 30 and the moving body imaging device 20 may be the same. That is, the moving body imaging device 20 may be used as the control target device 30.
  • the transmission unit 24 of the mobile body imaging device 20 uses the image data indicating the image captured by the imaging unit 22 and the position data indicating the position detected by the position detection unit 23 as the mobile body imaging device 20. It may be transmitted during the flight.
  • the determination unit 14 immediately analyzes the image data acquired by the acquisition unit 12 and determines whether or not the analysis result matches the condition stored in the storage unit 13. Then, when the analysis result by the determination unit 14 matches the condition stored in the storage unit 13, the instruction unit 15 instructs the control target device 30 to perform processing associated with the condition. These processes are performed in real time during the flight of the mobile imaging device 20.
  • the area to be processed may be an area that does not include the position where the image is captured and that has a predetermined positional relationship with the position where the image is captured. For example, when seaweed is cultivated in the ocean, a sign that a red tide may occur may appear on the open ocean side of the seaweed culture area. Therefore, the moving body imaging device 20 images the open sea side from the seaweed culture area, and when the occurrence of red tide or the like is predicted by analysis of the captured image, the moving body imaging apparatus 20 Move and spray appropriate drugs. In this case, the area to be processed corresponds to an area that does not include the position where the image is captured and has a predetermined positional relationship with the position where the image is captured.
  • the instruction unit 15 determines processing to be instructed to the control target device 30 based on the processing history stored in the history storage unit 16. For example, when pesticide spraying is again performed on an area where a processing history of pesticide spraying in the past is stored, the instruction unit 15 instructs the processing to reduce the amount of the pesticide from the previous time. Conceivable.
  • the instructing unit 15 instructs the control target device 30 based on information (for example, temperature, humidity, precipitation) related to the natural environment at the position of the image before the time when the image is captured by the mobile imaging device 20. May be determined. For example, when the amount of precipitation is extremely small before the time when the image is picked up by the mobile body imaging device 20, the instruction unit 15 instructs the processing to increase the amount of water spraying in the area to be processed. An example is conceivable.
  • the imaging device in the present invention is not limited to the moving body imaging device 20 such as the rotorcraft exemplified in the embodiment, and may be a device mounted on a vehicle moving on the ground, or a smartphone or a digital camera. Thus, the apparatus carried by the user may be sufficient.
  • the imaging device according to the present invention is not necessarily a movable device, and may be a device that is fixed in a state where the camera is directed in a known direction at a known position, for example.
  • the storage unit 13 may be provided by an external computer device different from the remote control system 1.
  • the sharing of functions in the remote control device 10 and the moving body imaging device 20 is not limited to that illustrated in FIG.
  • some of the functions implemented in the remote control device 10 may be implemented in the mobile device 20.
  • some or all of the functions of the determination unit 14 may be implemented in the mobile imaging device 20.
  • a computer group consisting of a plurality of devices may function as the remote control device 10 in the remote control system 1.
  • the program executed by the CPU 101 and the CPU 201 may be provided by a storage medium such as an optical disk, a magnetic disk, or a semiconductor memory, or may be downloaded via a communication line such as the Internet. Further, these programs may not execute all the steps described in the embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Selective Calling Equipment (AREA)
  • Image Processing (AREA)

Abstract

制御対象装置30は、例えば田畑で栽培される植物に対して散水、追肥、農薬散布、収穫などの各種処理を行う農業用機械である。移動体撮像装置20は移動可能で撮像機能を備えた装置であり、例えばドローン又はマルチコプターと呼ばれる飛行可能な回転翼機である。遠隔制御装置10は、移動体撮像装置20によって撮像された田畑の画像を解析し、その解析結果に応じてどのような処理を行うべきかを決定し、決定した処理を行うよう制御対象装置30に指示する。

Description

遠隔制御システム、遠隔制御方法、およびプログラム
 本発明は、遠隔制御システム、遠隔制御方法、およびプログラムに関する。
 人間が行う作業を支援する様々な仕組みが開発されている。例えば農作業を支援する仕組みとして、特許文献1には、移動可能で且つ農作業を行う複数の農業機械2と、各農業機械2において農作業データを収集して外部に送信するデータ収集装置3と、データ収集装置3から送信された農作業データを受信してサーバ5に送信する移動可能な複数の携帯端末4とを備えたシステムが開示されている。サーバ5に蓄積された農作業データは、農作業従事者等が作業日報を作成したり、作業計画を立てたり、各圃場の農作業実績をグラフ化したり、経営計画を作成するために用いられる。
特開2014-194601号公報
 例えば特許文献1に記載の技術において、どのような農作業をいつ行うかという判断は農作業従事者に委ねられている。これに対し、本発明は、例えば農作業のような様々な処理を行うか否かの判断を人間に委ねなくても可能にすることを目的とする。
課題を解決する手段
 本発明は、撮像装置によって撮像された画像を示す画像データと、当該画像の位置を示す位置データとを取得する取得手段と、前記画像データの解析結果に関する条件と、制御対象装置が行う処理とを対応付けて記憶する記憶手段と、前記取得された画像データを解析し、解析結果が前記記憶されている条件に合致するか否かを判断する判断手段と、前記解析結果が前記記憶されている条件に合致する場合には、前記取得された位置データに基づくエリアにおいて、前記条件に対応付けられた前記処理を行うよう前記制御対象装置に指示する指示手段とを備えることを特徴とする遠隔制御システムを提供する。   
 前記撮像装置は移動可能な移動体装置であってもよい。
 前記撮像装置の移動を制御する移動制御手段を備えてもよい。
 前記移動制御手段は、前記処理が行われるエリアに含まれる動植物の種類に応じて、前記撮像装置の移動を制御してもよい。
 前記移動制御手段は、前記処理に応じて前記撮像装置の移動を制御し、前記解析手段は、前記解析結果が、前記処理に対応付けて記憶されている条件に合致するか否かを判断してもよい。
 前記制御対象装置は前記移動体装置であってもよい。
 前記取得された位置データに基づくエリアは、当該位置データが示す位置を含まないエリアであって、且つ、当該位置データが示す位置と所定の位置関係にあるエリアであってもよい。
 前記指示された処理と、当該処理が行われたエリアとを処理履歴として記憶する履歴記憶手段を備え、前記指示手段は、前記記憶された処理履歴に基づいて前記制御対象装置に指示する処理を決定してもよい。
 前記指示手段は、前記画像が撮像された時期以前の、当該画像の位置における自然環境に関する情報に基づいて、前記制御対象装置に指示する処理を決定してもよい。
 また、本発明は、撮像装置によって撮像された画像を示す画像データと、当該画像の位置を示す位置データとを取得する取得ステップと、前記画像データの解析結果に関する条件と、制御対象装置が行う処理とを対応付けて記憶する記憶手段において、前記取得された画像データの解析結果が前記記憶されている条件に合致するか否かを判断する判断ステップと、前記解析結果が前記記憶されている条件に合致する場合には、前記取得された位置データに基づくエリアにおいて、前記条件に対応付けられた前記処理を行うよう前記制御対象装置に指示する指示ステップとを備えることを特徴とする遠隔制御システムを提供する。
 また、本発明は、1以上のコンピュータに、撮像装置によって撮像された画像を示す画像データと、当該画像の位置を示す位置データとを取得する取得ステップと、前記画像データの解析結果に関する条件と、制御対象装置が行う処理とを対応付けて記憶する記憶手段において、前記取得された画像データの解析結果が前記記憶されている条件に合致するか否かを判断する判断ステップと、前記解析結果が前記記憶されている条件に合致する場合には、前記取得された位置データに基づくエリアにおいて、前記条件に対応付けられた前記処理を行うよう前記制御対象装置に指示する指示ステップとを実行させるためのプログラムを提供する。
 本発明によれば、人間の判断に委ねなくても、処理を行うか否かを判断することができる。
本発明の一実施形態に係る遠隔制御システム1の概要を例示する図。 移動体撮像装置20のハードウェア構成を例示する図。 遠隔制御装置10のハードウェア構成を例示する図。 遠隔制御装置10の補助記憶装置104に記憶される情報を例示する図。 遠隔制御装置10の補助記憶装置104に記憶される条件処理テーブルを例示する図。 遠隔制御システム1の機能構成を例示する図。 遠隔制御システム1の動作を例示するシーケンスチャート。
1…遠隔制御システム、10…遠隔制御装置、11…移動制御部、12…取得部、13…記憶部、14…判断部、15…指示部、16…履歴記憶部、20…移動体撮像装置、21…移動部、22…撮像部、23…送信部、24…位置検出部、30…制御対象装置、31…処理部、90…ネットワーク、101…CPU、102…RAM、103…ROM、104…補助記憶装置、105…通信IF、201…CPU、202…RAM、203…ROM、204…補助記憶装置、205…通信IF、206…カメラ、207…センサ、2081…回転機構。
1.構成
 図1は、本発明の一実施形態に係る遠隔制御システム1の概要を例示する図である。遠隔制御システム1は、遠隔制御装置10と、移動体撮像装置20と、制御対象装置30と、これらの装置10~30どうしを通信可能に接続するネットワーク90とを備えている。ネットワーク90は、例えばLAN(Local Area Network)またはWAN(Wide Area Network)、若しくはこれらの組み合わせであり、有線区間又は無線区間を含んでいてもよい。制御対象装置30は、例えば田畑で栽培される植物に対して散水、追肥、農薬散布、収穫などの各種処理を行うための農業用機械である。移動体撮像装置30は、移動可能で撮像機能を備えた装置であり、本実施形態では、ドローン又はマルチコプターと呼ばれる飛行可能な回転翼機である。移動体撮像装置30は、遠隔制御装置10の指示に従い、田畑の上方を飛行して、その田畑で栽培されている植物の画像を撮像する。遠隔制御装置10は、移動体撮像装置30によって撮像された画像を解析し、その解析結果に応じて、植物にどのような処理を行うべきかを決定し、決定した処理を行うよう制御対象装置30に指示する。制御対象装置30は、指示された処理を自動的に又は農業従事者の操作に従って行う。
 図2は、移動体撮像装置20のハードウェア構成を例示する図である。移動体撮像装置20は、CPU201(Central Processing Unit)、ROM(Read Only Memory)202、RAM(Random Access Memory)203、補助記憶装置204、通信IF205、カメラ206、センサ207及び回転機構208を有するCPU201は、各種の演算を行うプロセッサである。RAM202は、CPU201がプログラムを実行する際のワークエリアとして機能する揮発性メモリである。ROM203は、例えば移動体撮像装置20の起動に用いられるプログラムおよびデータを記憶した不揮発性メモリである。補助記憶装置204は、例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶装置であり、移動体撮像装置20において用いられるプログラムおよびデータを記憶する。CPU201がこのプログラムを実行することにより、移動体撮像装置20はコンピュータ装置として機能し、後述する図6に示される機能が実現される。通信IF205は、所定の通信規格に従ってネットワーク90を介した通信を行うためのインターフェースである。この通信規格は、無線通信の規格であってもよいし、有線通信の規格であってもよい。カメラ206は、例えば移動体撮像装置20の鉛直下方の空間を撮像し、撮像した画像を示す画像データを生成する。測位装置207は、例えばGPS(Global Positioning System)ユニットであり、移動体撮像装置20の位置を検出する。回転機構208は、移動体撮像装置20において浮力を発生させる手段であり、プロペラ、シャフト、モータ、その他の駆動機構などを含む。
 図3は、遠隔制御装置10のハードウェア構成を例示する図である。遠隔制御装置10は、CPU101、ROM102、RAM103、補助記憶装置104、および通信IF105を有するコンピュータ装置である。CPU101は、各種の演算を行うプロセッサである。RAM102は、CPU101がプログラムを実行する際のワークエリアとして機能する揮発性メモリある。ROM103は、例えば遠隔制御装置10の起動に用いられるプログラムおよびデータを記憶した不揮発性メモリである。補助記憶装置104は、例えばHDD又はSSDなどの不揮発性の記憶装置であり、遠隔制御装置10において用いられるプログラムおよびデータを記憶する。CPU101がこのプログラムを実行することにより、後述する図6に示される機能が実現される。通信IF105は、所定の通信規格に従ってネットワーク90を介した通信を行うためのインターフェースである。
 図4は、遠隔制御装置10の補助記憶装置104に記憶される情報を例示する図である。補助記憶装置104には、移動体撮像装置10において画像(ここでは動画)が撮像された日時、画像が撮像された位置を示す位置データ、撮像された画像を示す画像データ、撮像された画像が解析された結果、その解析の結果処理が必要とされるエリアの位置を示す処理対象位置データ、撮像された画像が画像認識技術により解析された解析結果、及び、必要とされる処理の内容が対応付けられて記憶される。
 図5は、遠隔制御装置10の補助記憶装置104に記憶される条件処理テーブルを例示する図である。条件処理テーブルには、あらかじめ想定される、撮像された画像が解析された解析結果の条件と、その条件に合致する位置において必要な処理とが対応付けられている。例えば画像に含まれるオブジェクト(植物の画像オブジェクト)の形状、色、大きさ等が害虫発生症状という条件に合致する場合には、農薬散布という処理が実行されることなどがこの条件処理テーブルに規定されている。
 図6は、遠隔制御システム1の機能構成を例示する図である。遠隔制御システム1は、移動部21、撮像部22、位置検出部23、送信部24、移動制御部11、取得部12、記憶部13、判断部14、指示部15、履歴記憶部16、及び処理部31を有する。この例では、移動部21、撮像部22、位置検出部23、及び送信部24が移動体撮像装置20に実装されており、移動制御部11、取得部12、記憶部13、判断部14、指示部15、及び履歴記憶部16が遠隔制御装置10に実装されており、処理部31が制御対象装置30に実装されている。
 移動部21は移動体撮像装置20の回転機構208によって実現され、撮像部22は移動体撮像装置20のカメラ206によって実現され、位置検出部23は移動体撮像装置20の測位装置207によって実現され、送信部24は移動体撮像装置20の通信IF205によって実現される。移動制御部11は遠隔制御装置10のCPU101及び通信IF105によって実現され、取得部12は遠隔制御装置10の通信IF105によって実現され、記憶部13は遠隔制御装置10の補助記憶装置104によって実現され、判断部14は遠隔制御装置10のCPU101及び補助記憶装置104によって実現され、指示部15は遠隔制御装置10の通信IF105によって実現され、履歴記憶部16は遠隔制御装置10の補助記憶装置104によって実現される。
 移動制御部11は、移動体撮像装置20の移動を制御するべく、移動部21に対し移動経路、移動速度、移動するときの高度、撮像を開始及び終了する時期などを含む移動指示を与える。移動部21は移動制御部11の移動指示に従い、移動体撮像装置20を移動させる。撮像部25は、移動体撮像装置20の移動に伴い、撮像の開始から終了に至る期間にわたって動画を撮像する。位置検出部23は、移動体撮像装置20の位置、つまり撮像される画像の位置を検出する。送信部24は、撮像部22によって撮像された画像を示す画像データと、当該画像の位置を示す位置データとを遠隔制御装置10に送信する。
 取得部12は、送信部24から送信された画像データ及び位置データを取得する。記憶部13は、前述した条件処理テーブル、つまり、画像データの解析結果に関する条件と制御対象装置30が行う処理とを対応付けた情報を記憶している。判断部14は、取得部12によって取得された画像データを解析し、その解析結果が記憶部13に記憶されている条件に合致するか否かを判断する。指示部15は、判断部14による解析結果が記憶部13に記憶されている条件に合致する場合には、取得部12によって取得された位置データに基づいて処理対象となるエリアを特定し、そのエリアにおいて上記条件に対応付けられた処理を行うよう制御対象装置30に指示する。履歴記憶部16は、指示部15により指示された処理と当該処理が行われたエリアの位置とを処理履歴として記憶する。処理部31は、指示部15による指示に応じて処理を行う。
2.動作
 図7は、遠隔制御システム1の動作を例示するシーケンスチャートである。図7において、遠隔制御装置10の移動制御部11は、ネットワーク90を介して移動部21に対して、移動経路、移動速度、移動するときの高度、撮像を開始及び終了する時期などを含む移動指示を与える(ステップS11)。この移動指示はこの遠隔制御システム1の管理者等により事前に作成されており、遠隔制御装置10に入力される。
 移動体撮像装置20の移動部21は移動制御部11の移動指示に従い、回転機構208を駆動して移動体撮像装置20を移動させる。撮像部25は、移動体撮像装置20の移動に伴い、移動指示に含まれる撮像の開始から終了に至る期間にわたって動画を撮像する。位置検出部23は、移動体撮像装置20の位置、つまり撮像される画像の位置を定期的に(例えば10秒ごとに)検出する。送信部24は、撮像部22によって撮像された画像を示す画像データと、位置検出部23によって検出された位置を示す位置データとを、ネットワーク90を介して遠隔制御装置10に送信する。この送信処理は、移動体撮像装置20が飛行終了地点に設けられた基地施設に着陸してから行われてもよいし、移動体撮像装置20の飛行中に行われてもよい。
 遠隔制御装置10の取得部12は、送信部24から送信された画像データ及び位置データを取得する。判断部14は、取得部12によって取得された画像データを解析する。具体的には、判断部14は、画像データが示す各画像に含まれるオブジェクトの形状、色、大きさ等を画像認識技術により解析し、その解析結果が記憶部13に記憶されている条件(害虫発生症状、水分不足症状、肥料不足症状、生育完了症状・・・)のいずれかに合致するか否かを判断する。
 遠隔制御装置10の指示部15は、記憶部13に記憶されている条件に合致するような解析結果となるような画像があった場合には、その画像に対応する位置データに基づいて、処理対象となるエリアの位置を特定する。より具体的には、指示部15は、記憶部13に記憶されている条件(害虫発生症状、水分不足症状、肥料不足症状、生育完了症状・・・)に合致するような解析結果となる画像に対応する位置データを中心として所定の半径のエリアを処理対象とする。そして、指示部15は、条件処理テーブルにおいて上記条件に対応付けられた処理(農薬散布、散水、追肥、収穫・・・のいずれか)を読み出し、処理対象位置データとその処理とを含む処理指示を、ネットワーク90を介して制御対象装置30に送信する。履歴記憶部16は、指示部15により指示された処理と当該処理が行われるエリアの処理対象位置データとを処理履歴として記憶する。
 制御対象装置30の処理部31は、指示部15による処理指示を受け取る。そして、制御対象装置30において、その処理指示に含まれる処理対象位置データが示すエリアにおいて、処理指示に含まれる処理が行われる。具体的には、制御対象装置30が処理をすべて自動で行うことが可能な場合には、制御対象装置30自身が処理対象位置データの示すエリアに移動して処理を実行する。また、少なくとも一部の処理を人間が補助ないし実行する場合には、例えば制御対象装置30において人間が処理指示を参照し、制御対象装置30を操作して処理対象位置データが示すエリアに移動し、そのエリアにて制御対象装置30を操作しながら処理を実行する。
 本実施形態によれば、人間の判断に委ねなくても、農作業のような様々な処理を行うか否かを判断することができる。
3.変形例
 本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3-1.変形例1 
 本発明は、田畑で栽培される植物以外に、海洋や河川で養殖される海苔、魚類、貝類等の動植物、或いは、牧場で飼われる家畜等の動物に対する処理を行う場合であっても適用可能である。
3-2.変形例1
 移動制御部11は、処理対象となるエリアに含まれる動植物の種類に応じて、移動体撮像装置20の移動を制御するようにしてもよい。例えば動植物の種類によっては低い高度で移動体撮像装置20が飛行しないと画像の解析ができないような場合には、移動制御部11は、比較的低い高度で飛行するよう移動体撮像装置20の移動を制御する。また、例えば動植物の種類によっては移動体撮像装置20の単位面積当たりの移動経路を密にしないと画像の解析ができないような場合、移動制御部11は、移動体撮像装置20の単位面積当たりの移動経路を密にした移動経路で飛行するよう移動体撮像装置20の移動を制御する。また、例えば動植物の種類によっては移動体撮像装置20の移動速度を遅くしないと画像の解析ができないような場合、移動制御部11は、比較的遅い速度で飛行するよう移動体撮像装置20の移動を制御する。
 また、実施形態では、判断部14が画像を解析して必要な処理を選定していたが、これに代えて、例えばシステムの管理者等によって最初に処理が指定され、判断部14が画像を解析して、指定されたその処理を行うべきか否かを判断してもよい。この場合、移動制御部11は、指定された処理に応じて移動体撮像装置20の移動を制御してもよい。例えば散水という処理が指定された場合には、単位面積当たりの移動経路が疎で、比較的高い高度で速く移動しても画像の解析には十分であるため、移動制御部11はそのような移動をするよう移動体撮像装置20を制御する。一方、例えば農薬散布という処理が指定された場合には、単位面積当たりの移動経路が密で、比較的低い高度で遅く移動しないと十分な画像解析ができないため、移動制御部11はそのような移動をするよう移動体撮像装置20を制御する。
3-3.変形例3
 制御対象装置30と移動体撮像装置20とが同一であってもよい。つまり、制御対象装置30として移動体撮像装置20を用いてもよい。この場合、移動体撮像装置20の送信部24は、撮像部22によって撮像された画像を示す画像データと、位置検出部23によって検出された位置を示す位置データとを、移動体撮像装置20の飛行中に送信してもよい。これに応じて、判断部14は直ちに、取得部12によって取得された画像データを解析し、その解析結果が記憶部13に記憶されている条件に合致するか否かを判断する。そして、指示部15は、判断部14による解析結果が記憶部13に記憶されている条件に合致する場合には、上記条件に対応付けられた処理を行うよう制御対象装置30に指示する。これらの処理が移動体撮像装置20の飛行中にリアルタイムに行われる。
3-4.変形例4
 処理対象となるエリアは、画像が撮像された位置を含まないエリアであって、且つ、画像が撮像された位置と所定の位置関係にあるエリアであってもよい。例えば海洋において海苔を養殖する場合、赤潮等が発生する予兆は海苔の養殖地域よりも外洋側に現れることがある。そこで、移動体撮像装置20は海苔の養殖地域よりも外洋側を撮像し、その撮像した画像の解析によって赤潮等の発生が予測される場合には、海苔の養殖施設があるエリアに対して施設の移動や適切な薬剤の散布などを行う。この場合、処理対象となるエリアは、画像が撮像された位置を含まないエリアであって、且つ、画像が撮像された位置と所定の位置関係にあるエリアに相当する。
3-5.変形例5
 指示部15は、履歴記憶部16によって記憶された処理履歴に基づいて制御対象装置30に指示する処理を決定する。例えば過去に農薬散布を行ったという処理履歴が記憶されているエリアに対して再び農薬散布を行う場合、指示部15は、その農薬の量を前回よりも少なくする処理の指示を行うといった例が考えられる。 
3-6.変形例6
 指示部15は、移動体撮像装置20によって画像が撮像された時期以前の、当該画像の位置における自然環境に関する情報(例えば温度、湿度、降水量)に基づいて、制御対象装置30に指示する処理を決定するようにしてもよい。例えば移動体撮像装置20によって画像が撮像された時期以前に降水量が極端に少ない場合には、指示部15は、その処理対象となるエリアにおいて散水量を通常よりも多くする処理の指示を行うといった例が考えられる。 
3-7.変形例7
 本発明における撮像装置は、実施形態で例示した回転翼機のような移動体撮像装置20に限定されず、地面を移動する車両に搭載される装置であってもよいし、スマートフォンやデジタルカメラのようにユーザにより携帯される装置であってもよい。また、本発明における撮像装置は必ずしも、移動可能な装置でなくてもよく、例えば既知の位置において既知の向きにカメラが向けられた状態で固定された装置であってもよい。
3-8.他の変形例
 図6で例示した機能構成の一部は省略されてもよい。例えば、記憶部13は、遠隔制御システム1とは別の外部のコンピュータ装置により提供されてもよい。また、遠隔制御装置10および移動体撮像装置20における機能の分担は図6で例示したものに限定されない。実施形態においては遠隔制御装置10に実装されていた機能の一部を、移動体装置20に実装してもよい。例えば判断部14の一部又は全部の機能は移動体撮像装置20に実装されていてもよい。また、物理的に複数の装置からなるコンピュータ装置群が、遠隔制御システム1における遠隔制御装置10として機能してもよい。
 CPU101およびCPU201等により実行されるプログラムは、光ディスク、磁気ディスク、半導体メモリなどの記憶媒体により提供されてもよいし、インターネット等の通信回線を介してダウンロードされてもよい。また、これらのプログラムは、実施形態で説明したすべてのステップを実行させるものでなくてもよい。

Claims (11)

  1.  撮像装置によって撮像された画像を示す画像データと、当該画像の位置を示す位置データとを取得する取得手段と、
     前記画像データの解析結果に関する条件と、制御対象装置が行う処理とを対応付けて記憶する記憶手段と、
     前記取得された画像データを解析し、解析結果が前記記憶されている条件に合致するか否かを判断する判断手段と、
     前記解析結果が前記記憶されている条件に合致する場合には、前記取得された位置データに基づくエリアにおいて、前記条件に対応付けられた前記処理を行うよう前記制御対象装置に指示する指示手段と
     を備えることを特徴とする遠隔制御システム。     
  2.  前記撮像装置は移動可能な移動体装置である
     ことを特徴とする請求項1に記載の遠隔制御システム。
  3.  前記撮像装置の移動を制御する移動制御手段を備える
     ことを特徴とする請求項2に記載の遠隔制御システム。
  4.  前記移動制御手段は、前記処理が行われるエリアに含まれる動植物の種類に応じて、前記撮像装置の移動を制御する
     ことを特徴とする請求項3に記載の遠隔制御システム。
  5.  前記移動制御手段は、前記処理に応じて前記撮像装置の移動を制御し、
     前記解析手段は、前記解析結果が、前記処理に対応付けて記憶されている条件に合致するか否かを判断する
     ことを特徴とする請求項3に記載の遠隔制御システム。
  6.  前記制御対象装置は前記移動体装置である
     ことを特徴とする請求項2~5のいずれか1項に記載の遠隔制御システム。
  7.  前記取得された位置データに基づくエリアは、当該位置データが示す位置を含まないエリアであって、且つ、当該位置データが示す位置と所定の位置関係にあるエリアである
     ことを特徴とする請求項1~6のいずれか1項に記載の遠隔制御システム。
  8. 前記指示された処理と、当該処理が行われたエリアとを処理履歴として記憶する履歴記憶手段を備え、
     前記指示手段は、前記記憶された処理履歴に基づいて前記制御対象装置に指示する処理を決定する
     ことを特徴とする請求項1~7のいずれか1項に記載の遠隔制御システム。
  9.  前記指示手段は、前記画像が撮像された時期以前の、当該画像の位置における自然環境に関する情報に基づいて、前記制御対象装置に指示する処理を決定する
     ことを特徴とする請求項1~8のいずれか1項に記載の遠隔制御システム。
  10.  撮像装置によって撮像された画像を示す画像データと、当該画像の位置を示す位置データとを取得する取得ステップと、
     前記画像データの解析結果に関する条件と、制御対象装置が行う処理とを対応付けて記憶する記憶手段において、前記取得された画像データの解析結果が前記記憶されている条件に合致するか否かを判断する判断ステップと、
     前記解析結果が前記記憶されている条件に合致する場合には、前記取得された位置データに基づくエリアにおいて、前記条件に対応付けられた前記処理を行うよう前記制御対象装置に指示する指示ステップと
     を備えることを特徴とする遠隔制御方法。
  11.  1以上のコンピュータに、
     撮像装置によって撮像された画像を示す画像データと、当該画像の位置を示す位置データとを取得する取得ステップと、
     前記画像データの解析結果に関する条件と、制御対象装置が行う処理とを対応付けて記憶する記憶手段において、前記取得された画像データの解析結果が前記記憶されている条件に合致するか否かを判断する判断ステップと、
     前記解析結果が前記記憶されている条件に合致する場合には、前記取得された位置データに基づくエリアにおいて、前記条件に対応付けられた前記処理を行うよう前記制御対象装置に指示する指示ステップと
     を実行させるためのプログラム。
PCT/JP2016/086866 2016-12-12 2016-12-12 遠隔制御システム、遠隔制御方法、およびプログラム WO2018109796A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201680091530.9A CN110063061B (zh) 2016-12-12 2016-12-12 远程控制系统、远程控制方法以及程序
JP2018556030A JP6621942B2 (ja) 2016-12-12 2016-12-12 遠隔制御システム、遠隔制御方法、およびプログラム
PCT/JP2016/086866 WO2018109796A1 (ja) 2016-12-12 2016-12-12 遠隔制御システム、遠隔制御方法、およびプログラム
EP16923843.3A EP3554094B1 (en) 2016-12-12 2016-12-12 Remote control system, remote control method, and program
US16/467,603 US10913533B2 (en) 2016-12-12 2016-12-12 Remote control system, remote control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/086866 WO2018109796A1 (ja) 2016-12-12 2016-12-12 遠隔制御システム、遠隔制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2018109796A1 true WO2018109796A1 (ja) 2018-06-21

Family

ID=62558124

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/086866 WO2018109796A1 (ja) 2016-12-12 2016-12-12 遠隔制御システム、遠隔制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US10913533B2 (ja)
EP (1) EP3554094B1 (ja)
JP (1) JP6621942B2 (ja)
CN (1) CN110063061B (ja)
WO (1) WO2018109796A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020189506A1 (ja) * 2019-03-18 2020-09-24

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011254711A (ja) * 2010-06-05 2011-12-22 Zukosha:Kk 施肥マップ生成システム,その方法,産業用ヘリコプタ,サーバ,可変施肥機
WO2013137191A1 (ja) * 2012-03-12 2013-09-19 株式会社エヌ・ティ・ティ・ドコモ 遠隔制御システム、遠隔制御方法、通信装置及びプログラム
JP2014194601A (ja) 2013-03-28 2014-10-09 Kubota Corp 農作業データ管理システム
JP2016131517A (ja) * 2015-01-19 2016-07-25 日本電信電話株式会社 操作決定装置、操作決定システム、操作決定方法、及び操作決定プログラム

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040141641A1 (en) * 2003-01-21 2004-07-22 Mcdonald Miller Baird Seed image analyzer
CN100418355C (zh) * 2003-09-01 2008-09-10 松下电器产业株式会社 带有发送功能的照相机和携带电话机、图像数据取得发送方法
JP2006174415A (ja) * 2004-11-19 2006-06-29 Ntt Docomo Inc 画像復号装置、画像復号プログラム、画像復号方法、画像符号化装置、画像符号化プログラム及び画像符号化方法
US7756362B2 (en) * 2005-01-28 2010-07-13 Canon Kabushiki Kaisha Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP5009577B2 (ja) * 2005-09-30 2012-08-22 富士フイルム株式会社 画像検索装置および方法並びにプログラム
US8417534B2 (en) * 2006-12-29 2013-04-09 Pioneer Hi-Bred International, Inc. Automated location-based information recall
US8254712B2 (en) * 2007-03-30 2012-08-28 Fujifilm Corporation Image processing apparatus, image processing method, image managing apparatus, image managing method, computer program product, and image order sheet
JP5231284B2 (ja) * 2008-03-31 2013-07-10 富士フイルム株式会社 撮像装置、撮像方法、およびプログラム
JP5181294B2 (ja) * 2008-03-31 2013-04-10 富士フイルム株式会社 撮像システム、撮像方法、およびプログラム
JP5111255B2 (ja) * 2008-06-20 2013-01-09 キヤノン株式会社 画像処理装置及び画像処理方法、コンピュータプログラム及び記録媒体
BRPI1010018A2 (pt) * 2009-05-01 2016-04-12 Nokia Corp método e aparelho de coletar dados para análise agrícola
LT2437586T (lt) * 2009-06-02 2018-11-26 Topcon Precision Agriculture Pty Ltd Transporto priemonės valdymo sistema
JP5641813B2 (ja) * 2010-08-17 2014-12-17 キヤノン株式会社 撮像装置及び撮像方法、画像処理装置及び画像処理方法
JP2013179564A (ja) * 2012-02-01 2013-09-09 Canon Inc 画像処理方法、画像処理装置および撮像装置
CN102854851A (zh) * 2012-07-25 2013-01-02 深圳市深芯半导体有限公司 互联网集成作业系统
JP5997039B2 (ja) * 2012-12-26 2016-09-21 株式会社日立ハイテクノロジーズ 欠陥検査方法および欠陥検査装置
WO2014163014A1 (ja) * 2013-04-04 2014-10-09 日本電気株式会社 識別システム、識別方法、照合装置及びプログラム
CN203399548U (zh) * 2013-08-04 2014-01-22 天津三兴宏高科技有限公司 一种设施农业自动化管理机
JP6270388B2 (ja) * 2013-09-13 2018-01-31 オリンパス株式会社 撮像装置、顕微鏡システム、撮像方法及び撮像プログラム
JP5574556B1 (ja) * 2013-09-26 2014-08-20 株式会社電通 視聴番組同定システム、方法およびプログラム
KR102066939B1 (ko) * 2013-09-27 2020-01-16 한화테크윈 주식회사 영상 감시 시스템
JP5499212B1 (ja) * 2013-10-23 2014-05-21 NEUSOFT Japan株式会社 遠隔操作受付システム、遠隔操作システム及びプログラム
CN103795974A (zh) * 2013-11-05 2014-05-14 陕西科技大学 一种监测大棚植物的移动摄像系统及方法
JP6537332B2 (ja) * 2014-04-28 2019-07-03 キヤノン株式会社 画像処理方法および撮影装置
CN104007733B (zh) * 2014-06-05 2017-08-04 山东省农业科学院科技信息研究所 一种对农业集约化生产进行监控的系统及方法
JP6300658B2 (ja) * 2014-06-19 2018-03-28 オリンパス株式会社 標本観察装置
KR101650924B1 (ko) * 2014-07-01 2016-08-24 주식회사 아이티엑스엠투엠 지능형 영상 분석 시스템 및 방법
CN106687877A (zh) * 2014-07-16 2017-05-17 株式会社理光 系统,机械,控制方法和程序
KR102369652B1 (ko) * 2014-12-23 2022-03-11 삼성전자주식회사 의료영상 장치, 영상 처리 장치 및 영상 융합 방법
CN104794189B (zh) * 2015-04-16 2018-05-08 惠州Tcl移动通信有限公司 一种图像筛选方法及筛选系统
JP6521763B2 (ja) * 2015-06-26 2019-05-29 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、及び記録媒体
WO2017006314A1 (en) * 2015-07-05 2017-01-12 THE WHOLLYSEE.Ltd. Optical identification and characterization system and tagss
US10484601B2 (en) * 2015-08-31 2019-11-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6314951B2 (ja) * 2015-10-08 2018-04-25 コニカミノルタ株式会社 画像形成システムおよびプログラム
JP6200483B2 (ja) * 2015-12-23 2017-09-20 株式会社オプティム 画像処理システム、画像処理方法、および画像処理プログラム
US9870609B2 (en) * 2016-06-03 2018-01-16 Conduent Business Services, Llc System and method for assessing usability of captured images
US11055786B2 (en) * 2016-06-03 2021-07-06 Conduent Business Services, Llc Image segmentation system for verification of property roof damage
JP7121629B2 (ja) * 2018-10-25 2022-08-18 株式会社 ミックウェア 撮像装置、プログラム、およびコンテンツ共有システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011254711A (ja) * 2010-06-05 2011-12-22 Zukosha:Kk 施肥マップ生成システム,その方法,産業用ヘリコプタ,サーバ,可変施肥機
WO2013137191A1 (ja) * 2012-03-12 2013-09-19 株式会社エヌ・ティ・ティ・ドコモ 遠隔制御システム、遠隔制御方法、通信装置及びプログラム
JP2014194601A (ja) 2013-03-28 2014-10-09 Kubota Corp 農作業データ管理システム
JP2016131517A (ja) * 2015-01-19 2016-07-25 日本電信電話株式会社 操作決定装置、操作決定システム、操作決定方法、及び操作決定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3554094A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020189506A1 (ja) * 2019-03-18 2020-09-24
WO2020189506A1 (ja) * 2019-03-18 2020-09-24 株式会社ナイルワークス ドローン、ドローンの制御方法、および、ドローンの制御プログラム
JP7045122B2 (ja) 2019-03-18 2022-03-31 株式会社ナイルワークス ドローン、ドローンの制御方法、および、ドローンの制御プログラム

Also Published As

Publication number Publication date
US20200070975A1 (en) 2020-03-05
JP6621942B2 (ja) 2019-12-18
CN110063061A (zh) 2019-07-26
EP3554094A4 (en) 2020-07-29
CN110063061B (zh) 2022-02-22
EP3554094A1 (en) 2019-10-16
JPWO2018109796A1 (ja) 2019-10-24
EP3554094B1 (en) 2022-07-20
US10913533B2 (en) 2021-02-09

Similar Documents

Publication Publication Date Title
AU2019245339B2 (en) Visual observer of unmanned aerial vehicle for monitoring horticultural grow operations
KR102049938B1 (ko) 센서 기반의 작황상황 빅데이터 분석을 이용하여 농약 살포량을 실시간으로 조절 가능한 농업용 드론 시스템
KR20200065696A (ko) 드론을 이용한 농작물 모니터링 시스템
WO2020234296A1 (en) Method for plantation treatment based on image recognition
Roure et al. GRAPE: ground robot for vineyard monitoring and protection
CN114206110A (zh) 用于生成用于利用农业设备来处理田地的应用地图的方法
CN113597874B (zh) 一种除草机器人及其除草路径的规划方法、装置和介质
CN110197500A (zh) 放牧无人机及牧群跟踪方法
CN113542345A (zh) 信息处理系统、信息处理装置以及非临时性的存储介质
JP6621942B2 (ja) 遠隔制御システム、遠隔制御方法、およびプログラム
Ozguven et al. The technology uses in the determination of sugar beet diseases
Christensen et al. Sensing for weed detection
Mukherjee et al. Application of IoT-enabled 5G network in the agricultural sector
WO2018138771A1 (ja) 移動体、移動体制御方法、プログラム及び移動体制御システム
Nar et al. Autonomous multifunctional quadcopter for real-time object tracking and seed bombing in a dynamic environment
CN112153892B (zh) 用于苍蝇管理的装置
US11183073B2 (en) Aircraft flight plan systems
Czymmek et al. Autonomous fawn tracking system based on drone images and CNNs
Schellenberger et al. Leveraging 5G private networks, UAVs and robots to detect and combat broad-leaved dock (Rumex obtusifolius) in feed production
EP4230037A1 (en) Multi-device agricultural field treatment
Lawrence et al. Autonomous Agriculture: The Role of IoT, AI, and ML in Drone Operations
Niu et al. The Unmanned Ground Vehicles (UGVs) for Digital Agriculture
US20230116047A1 (en) Sensing system, sensing data acquisition method, and control device
Tziridis et al. Information management and monitoring system for a grapes harvesting robot
Bechar et al. Smart Agriculture and Agricultural Robotics: Review and Perspective

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16923843

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018556030

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016923843

Country of ref document: EP