WO2019150418A1 - ドローン、駆除方法及びプログラム - Google Patents

ドローン、駆除方法及びプログラム Download PDF

Info

Publication number
WO2019150418A1
WO2019150418A1 PCT/JP2018/002853 JP2018002853W WO2019150418A1 WO 2019150418 A1 WO2019150418 A1 WO 2019150418A1 JP 2018002853 W JP2018002853 W JP 2018002853W WO 2019150418 A1 WO2019150418 A1 WO 2019150418A1
Authority
WO
WIPO (PCT)
Prior art keywords
drone
image
position information
information
module
Prior art date
Application number
PCT/JP2018/002853
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Priority to CN201880002688.3A priority Critical patent/CN110325035A/zh
Priority to PCT/JP2018/002853 priority patent/WO2019150418A1/ja
Publication of WO2019150418A1 publication Critical patent/WO2019150418A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M29/00Scaring or repelling devices, e.g. bird-scaring apparatus
    • A01M29/06Scaring or repelling devices, e.g. bird-scaring apparatus using visual means, e.g. scarecrows, moving elements, specific shapes, patterns or the like
    • A01M29/10Scaring or repelling devices, e.g. bird-scaring apparatus using visual means, e.g. scarecrows, moving elements, specific shapes, patterns or the like using light sources, e.g. lasers or flashing lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/70Convertible aircraft, e.g. convertible into land vehicles

Definitions

  • the present invention relates to a drone that can acquire position information of its own device, a removal method, and a program.
  • drones unmanned aerial vehicles, land mobiles, etc.
  • a laser is applied to the ground surface by a drone from above, and the topography of the target ground surface is surveyed.
  • a configuration is known in which a multi-wavelength laser is irradiated from the drone to the ground, and the covering state of the land is observed based on the wavelength reflection intensity of the reflected pulse (Patent Document) 1).
  • the present invention aims to provide a drone, a removal method, and a program capable of removing an object by performing laser irradiation on the drone.
  • the present invention provides the following solutions.
  • the present invention is a drone that can acquire the position information of its own machine, Photographing means for photographing an image; Detecting means for detecting an object to be removed from the photographed image; Calculating means for calculating the detected position of the object from the position information of the own machine; Irradiation means for irradiating the object with a laser based on the calculated position of the object;
  • a drone characterized by comprising:
  • the drone capable of acquiring the position information of the own device captures an image, detects the object to be removed from the captured image, and determines the position of the detected object. Based on the position information, laser irradiation is performed on the object based on the calculated position of the object.
  • the present invention is a drone category, but in other categories such as methods and programs, the same actions and effects according to the category are exhibited.
  • the present invention is a drone that can acquire the position information of its own machine, Photographing means for photographing an image; Inquiry means for sending the captured image to a predetermined computer and inquiring about an object to be removed, Calculating means for calculating the position of the object to be removed from the position information of the own machine; Irradiation means for irradiating the object with a laser based on the calculated position of the object;
  • a drone characterized by comprising:
  • a drone capable of acquiring position information of its own device takes an image, transmits the taken image to a predetermined computer, inquires about an object to be disinfected, and inquires about the object to be disinfected.
  • the position is calculated from the position information of the own device, and the target is laser-irradiated based on the calculated position of the target.
  • the present invention is a drone category, but in other categories such as methods and programs, the same actions and effects according to the category are exhibited.
  • the present invention it is possible to provide a drone, a removal method, and a program capable of removing an object when the drone performs laser irradiation.
  • FIG. 1 is a diagram showing an outline of the removal system 1.
  • FIG. 2 is an overall configuration diagram of the removal system 1.
  • FIG. 3 is a functional block diagram of the drone 10.
  • FIG. 4 is a flowchart showing the removal process executed by the drone 10.
  • FIG. 5 is a diagram schematically showing an object position estimation executed by the drone 10.
  • FIG. 1 is a diagram for explaining an outline of a removal system 1 which is a preferred embodiment of the present invention.
  • the extermination system 1 is composed of a drone (unmanned aerial vehicle, land vehicle, etc.) 10 and is a drone capable of acquiring position information of its own device from a GPS or the like.
  • the drone 10 includes an imaging device such as a camera that captures images such as moving images and still images, a gyro sensor that detects the tilt of the imaging device, various sensors such as an acceleration sensor, an altimeter, and a wind direction sensor, a propeller and power necessary for flight, A laser irradiation apparatus capable of laser irradiation is provided.
  • the drone 10 flies based on a preset flight route or a flight route designated by an external device such as a predetermined computer or information terminal (not shown).
  • the drone 10 extinguishes a target object (a pest, a parasite, a bird, a weed, a mold leaf, etc.) by irradiating with a laser from a laser irradiating apparatus mounted on its own device.
  • a target object a pest, a parasite, a bird, a weed, a mold leaf, etc.
  • the drone 10 acquires and stores information (feature points, feature amounts, etc.) regarding the object whose position is to be estimated. This may be obtained from irradiation (not shown), or information related to the object may be input to the drone 10.
  • the drone 10 may be connected to an external device (not shown) by wireless connection or wired connection. At this time, the drone 10 may transmit an image captured by an external device or information detected by various sensors.
  • the drone 10 flies based on a preset flight route, and shoots an image such as a moving image or a still image with a photographing device (step S01).
  • This flight path includes the flight altitude, the waypoint, the latitude / longitude, etc. of the flight.
  • the drone 10 detects an object to be removed from the photographed image (step S02).
  • the drone 10 performs image analysis on the image, and analyzes either or both of the feature point and the feature amount of the image.
  • the drone 10 identifies an object included in the image.
  • a feature point is something that appears in an image, and specifically, shape, color, brightness, outline, and the like.
  • the feature amount is a statistical value such as various values (average of pixel values, variance, histogram, etc.) calculated from image information.
  • the drone 10 compares the information on the object acquired in advance with the feature points and feature quantities in the image obtained as a result of the image analysis, and analyzes the presence or absence of the object in the image by image analysis. .
  • the drone 10 determines whether or not an object is included in the image as a result of the image analysis. If the drone 10 determines that the object is not included, the drone 10 continues the set flight. On the other hand, when the drone 10 determines that the object is included, the drone 10 detects that the object exists.
  • the drone 10 calculates the position of the detected object from the position information of the own device (step S03).
  • the drone 10 calculates the object in the image based on its own position information (latitude, longitude, flight altitude, etc.).
  • the drone 10 calculates the actual position of the target object based on its own flight altitude and the angle of the photographing device toward the target object.
  • the drone 10 irradiates the target with laser based on the position of the target (step S04).
  • the drone 10 removes the object by irradiating the object with a laser having a predetermined wavelength.
  • FIG. 2 is a diagram showing a system configuration of the removal system 1 which is a preferred embodiment of the present invention.
  • the removal system 1 is a removal system composed of a drone 10.
  • the drone 10 is the above-described unmanned aerial vehicle or land mobile body having the functions described later. That is, the drone 10 includes not only a flying object but also a moving object that moves on land.
  • FIG. 3 is a functional block diagram of the drone 10.
  • the drone 10 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), etc. as the control unit 11, and a device for enabling communication with other devices as the communication unit 12, For example, a WiFi (Wireless Fidelity) compatible device compliant with IEEE 802.11 is provided.
  • the drone 10 also includes a data storage unit such as a hard disk, a semiconductor memory, a recording medium, or a memory card as the storage unit 13.
  • the drone 10 functions as a processing unit 14 for performing various processes such as image processing, various calculations, processing of own position information, control processing of a photographing apparatus included therein, control processing of a laser irradiation apparatus, and the like. Is provided.
  • the control unit 11 reads a predetermined program, thereby realizing the object information acquisition module 20 and the position information acquisition module 21 in cooperation with the communication unit 12. Further, in the drone 10, the control unit 11 reads a predetermined program, thereby realizing the storage module 30 in cooperation with the storage unit 13. In the drone 10, the control unit 11 reads a predetermined program, so that the flight module 40, the imaging module 41, the analysis module 42, the calculation module 43, the estimation module 44, and the laser irradiation module 45 cooperate with the processing unit 14. Is realized.
  • FIG. 4 is a diagram showing a flowchart of the disinfection process executed by the drone 10. Processing executed by each module described above will be described together with this processing.
  • the object information acquisition module 20 acquires object information that is information about the object (step S10).
  • the object information acquisition module 20 acquires object information as information on an object to be disinfected, which will be described later.
  • the target object in the present embodiment means an object that harms or adversely affects agricultural products such as pests, parasites, birds, weeds, and mold leaves.
  • the object information is, for example, information that can uniquely identify the object, and includes feature points and feature amounts of the object in addition to the name and type of the object.
  • the feature points are, for example, the shape, color, brightness, contour, etc. of the object.
  • the feature amount is, for example, a statistical numerical value such as an average pixel value, a variance, or a histogram.
  • Such feature points and feature quantities are acquired by performing data communication with an external device (not shown) by wireless communication or wired communication.
  • the target is not limited to the above-described example, but may be any other object, and can be appropriately changed as long as it can be exterminated, exterminated, or treated by laser irradiation.
  • Storage module 30 stores object information (step S11).
  • the flight module 40 starts flying based on a preset flight path (step S12).
  • the flight module 40 flies based on a flight path stored in the storage module 30 or an instruction from an external device (not shown).
  • the flight path includes information on the flight altitude, latitude, and longitude when the flight is performed.
  • the imaging module 41 captures an image (step S13).
  • step S ⁇ b> 13 the imaging module 41 captures an image with the imaging device oriented in the vertical direction with respect to the drone 10. That is, the imaging module 41 captures an image immediately below the drone 10.
  • the analysis module 42 performs image analysis on the image (step S14).
  • step S14 an object or the like shown in the image is analyzed by analyzing either or both of the feature point and the feature amount of the image.
  • the analysis module 42 compares the object information stored in step S11 with the feature points and feature quantities of the image obtained as a result of the image analysis, and determines whether the object exists in the image ( Step S15). In step S ⁇ b> 15, the analysis module 42 determines whether there is object information that matches the feature points and feature amounts of the image.
  • step S15 when the analysis module 42 determines that the feature points and feature quantities of the image do not match the feature points and feature quantities of the target object as a result of image analysis (NO in step S15), the target object is The flight module 40 determines that it does not exist, and again executes the process of step S12 described above to continue the flight.
  • step S15 determines that there is an object, and acquires its current three-dimensional position information (step S16).
  • step S16 the position information acquisition module 21 acquires its own position information from GPS or the like. Further, the position information acquisition module 21 acquires its own flight altitude information from the flight path set in step S12 described above. The position information acquisition module 21 acquires the position information of the drone 10 and the flight altitude information, thereby acquiring the three-dimensional position information of the drone 10.
  • the position information acquisition module 21 acquires the three-dimensional position information of the imaging device by acquiring the three-dimensional position information of the drone 10.
  • the position information acquisition module 21 may acquire its own position information from the flight path currently set for itself.
  • the process of step S16 may be performed at arbitrary timing until it estimates the absolute position of the target object mentioned later.
  • the analysis module 42 specifies the position of the object in the image (step S17).
  • the analysis module 42 specifies the coordinates of the object in the image based on the center of the image. Note that the position of the object in the image executed by the analysis module 42 may be determined by other methods.
  • the imaging module 41 rotates the imaging apparatus toward the position of the object based on the position of the object in the identified image, and tilts the imaging apparatus toward the object by a predetermined angle (step S18).
  • the imaging module 41 tilts the imaging device by a predetermined angle by rotating the imaging device to a position parallel to the straight line indicating the latitude of the imaging module 41.
  • the imaging module 41 acquires the angle A between the imaging device and the object at this position (step S19).
  • step S ⁇ b> 19 the imaging module 41 acquires, as an angle A, an angle between the reference and the state where the imaging device is facing the object, based on the state when the imaging device captures the image immediately below.
  • This angle A corresponds to the angle at which the photographing apparatus is tilted.
  • the calculation module 43 calculates the distance between the drone and the object based on the tangent at the angle A and the flight altitude information acquired by the position information acquisition module 21 (step S20).
  • the estimation module 44 estimates the absolute position of the target object based on the calculated distance between the drone and the target object and its own position information (step S21).
  • step S21 the estimation module 44 estimates the position based on the latitude of the position information acquired by the position information acquisition module 21 and the calculated distance. That is, since the drone and the object exist on the same longitude, the estimation module 44 adds or subtracts the distance calculated from the latitude in its own position information (based on the coordinates in the image of the object) The latitude of the object is calculated by determining whether to subtract.
  • the estimation module 44 estimates the absolute position of the object based on the calculated latitude of the object and the longitude of the drone.
  • FIG. 5 is a diagram schematically showing how the estimation module 44 estimates the absolute position of the object 100.
  • the drone 10 will be described as estimating the absolute position of the object 100 existing on the ground 200.
  • a vertical line 210 from the imaging device toward the ground 200, a straight line extending from the imaging device toward the target object 100 (oblique line 220), and a straight line connecting the target object 100 and the point 240 where the vertical line 210 and the ground 200 are orthogonal (adjacent side) 230) is formed virtually.
  • the angle A at which the photographing module 41 tilts the photographing device means an angle between the perpendicular 210 and the hypotenuse 220.
  • the values required for the absolute position of the object estimated by the estimation module 44 are the distance D that is the length of the adjacent side 230, the position of the drone 10, and the height H that is the length of the perpendicular 210.
  • the position of the drone 10 can be acquired from position information acquired from the current location, GPS, etc. in the flight route.
  • the altitude H can be acquired in the same manner as the position of the drone 10.
  • the distance D can be estimated from the tangent of the angle A (the value of tanA) and the altitude H from the coordinates at the point 240 (for example, the XY coordinate system). That is, the absolute position of the object 100 is estimated by adding or subtracting the estimated distance D to the value of the X coordinate in the coordinates at the point 240.
  • the estimation module 44 estimates the altitude of the object (step S22).
  • step S22 the estimation module 44 estimates the altitude of the object based on a database in which each position stored in advance by the storage module 30 is associated with an altitude at this position. In this database, the latitude / longitude at each position and the altitude at this latitude / longitude are associated.
  • the estimation module 44 estimates the altitude associated with the absolute position (latitude / longitude) of the object estimated by the processing in step S21 described above by referring to this database.
  • the estimation module 44 outputs the estimated position (latitude / longitude and altitude) of the estimated object and an identifier (name, number, type, etc.) that can uniquely identify the object as estimation result information (step S23).
  • the laser irradiation module 45 performs laser irradiation on the object based on the output estimation result information (step S24).
  • step S24 the laser irradiation module 45 irradiates the target with laser based on the estimated position of the target and the angle A of the photographing apparatus.
  • the laser irradiation module 45 tilts the laser irradiation device to an angle A and irradiates the laser at a distance to the position of the object.
  • the laser irradiation module 45 adjusts the end of the laser to the position of the object based on the distance to the object, and performs laser irradiation. Further, the laser irradiation module 45 adjusts the wavelength of the laser in accordance with the specified object, and irradiates the laser having the adjusted wavelength.
  • the laser irradiation module 45 may be configured to irradiate a certain wavelength with a laser regardless of the type of the object.
  • the object is described on the assumption that it is a still life, but it may be an animal or the like.
  • the calculation module 43 may be configured to calculate the speed of the object in addition to the position of the object. That is, assuming that the object is moving at a right angle with respect to the drone 10, the imaging module 41 takes images before and after the movement, and the estimation module 44 determines the position of the object at each time point. Then, the calculation module 43 may calculate the speed of the object based on the distance between these two points and the time before and after the movement. The estimation module 44 may estimate the current position of the object based on the speed, the time difference before and after the movement, and the position of the object at each time point.
  • the image analysis process, various calculation processes, and various estimation processes are executed by the drone 10, but either or both of these processes are not necessarily executed by the drone 10.
  • the drone 10 may be configured to transmit information necessary for these processes to the irradiation, and the irradiation performs these processes.
  • the description is given on the assumption that only one object exists.
  • the present invention can be applied without problems even when there are a plurality of objects.
  • the above-described position estimation may be performed for each object. Specifically, when a plurality of objects are specified in an image, a predetermined condition (a coordinate order close to the center of the image, a coordinate order far from the center of the image, a high priority order set in advance for each object, etc. ) To estimate the position of the object existing in the image.
  • the drone 10 constituting the extermination system 1 transmits an image taken by itself to an external device such as an information terminal (not shown) or a predetermined computer.
  • This external device executes the above-described determination of the presence / absence of the object, identification of the object, and determination of the position of the object in the image.
  • the external device transmits information regarding the determination result and the identified object to the drone 10 as object information.
  • the drone 10 calculates the position of the object and performs laser irradiation on the object based on the object information. That is, the extermination system according to the modified example entrusts processing related to detection of an object to an external device and inquires about the result.
  • the drone 10 flies and shoots an image based on the flight path, similar to the processing in steps S12 and S13 described above. In other words, in the present modification, the drone 10 does not acquire and store the object information that is the process of steps S10 and S11 described above. Although the details will be described later, this is because a predetermined external device executes processing related to detection of an object, not the drone 10 itself.
  • the drone 10 transmits the captured image to the external device.
  • the drone 10 inquires of an external device whether there is an object to be disinfected in the image.
  • the external device receives this image and analyzes the image.
  • the external device compares the object information stored in advance with the feature points and feature quantities of the image obtained as a result of the image analysis, and determines whether the object exists in the image. If it is determined that it does not exist, the result is notified to the drone 10. Upon receiving this notification, the drone 10 continues to fly.
  • the external device When it is determined that the external device exists, the external device notifies the drone 10 of the presence of the target object, the position of the target object in the image, and its type. In these processes, the external apparatus executes processes similar to the processes in steps S10, S11, S14, S15, and S17 described above.
  • the drone 10 receives this notification and acquires its own location information. This process is the same as the process of step S16 described above.
  • the drone 10 calculates the position of the object from its own position information. This process is the same as the process in steps S18 to S23 described above.
  • the drone 10 irradiates the target with laser based on the position of the target and the angle of the photographing device. This process is the same as the process of step S24 described above.
  • the object may be a moving object as in the above-described embodiment.
  • the external device may be configured to calculate the speed of the countermeasure in addition to the position of the target object. That is, the drone 10 transmits the images before and after the movement to the external device, and the external device estimates the position of the object at each time point, and the distance between these two points and the movement. The speed of the object may be calculated based on the time between before and after the movement. The drone 10 may estimate the current position of the object based on the speed, the time difference before and after the movement, and the position of the object at each time point.
  • the drone 10 executes various calculation processes and various estimation processes. However, either or both of these processes are not necessarily executed by the drone 10.
  • the drone 10 may be configured to transmit information necessary for these processes to an external device, and the external device executes these processes.
  • the description is given on the assumption that only one object exists.
  • the present invention can be applied without problems even when there are a plurality of objects.
  • the above-described position estimation may be performed for each object. Specifically, when a plurality of objects are specified in an image, a predetermined condition (a coordinate order close to the center of the image, a coordinate order far from the center of the image, a high priority order set in advance for each object, etc. ) To estimate the position of the object existing in the image.
  • the means and functions described above are realized by a computer (including a CPU, an information processing apparatus, and various terminals) reading and executing a predetermined program.
  • the program is provided, for example, in a form (SaaS: Software as a Service) provided from a computer via a network.
  • the program is provided in a form recorded on a computer-readable recording medium such as a flexible disk, CD (CD-ROM, etc.), DVD (DVD-ROM, DVD-RAM, etc.).
  • the computer reads the program from the recording medium, transfers it to the internal storage device or the external storage device, stores it, and executes it.
  • the program may be recorded in advance in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided from the storage device to a computer via a communication line.

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Pest Control & Pesticides (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Environmental Sciences (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Insects & Arthropods (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Botany (AREA)
  • Ecology (AREA)
  • Forests & Forestry (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Birds (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】ドローンがレーザ照射を行うことにより、対象物を駆除することが可能なドローン、駆除方法及びプログラムを提供することを目的とする。 【解決手段】自機の位置情報を取得可能なドローンは、画像を撮影し、撮影した前記画像から、駆除すべき対象物を検知し、検知した前記対象物の位置を、自機の位置情報から算出し、算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射する。また、自機の位置情報を取得可能なドローンは、画像を撮影し、撮影した前記画像を所定のコンピュータに送信し、駆除すべき対象物を問い合わせる問い合わせ、駆除する前記対象物の位置を、自機の位置情報から算出し、算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射する。

Description

ドローン、駆除方法及びプログラム
 本発明は、自機の位置情報を取得可能なドローン、駆除方法及びプログラムに関する。
 近年、様々な分野において、ドローン(無人航空機、陸上用移動体等)が活用されている。例えば、上空からドローンにより地表に対してレーザを照射し、対象とする地表の地形を測量することが行われている。
 このような測量の方法として、例えば、ドローンから、地上への多波長のレーザを照射し、反射パルスの波長反射強度に基づいて、土地の被覆状態を観察する構成が知られている(特許文献1参照)。
特開2011-175387
 しかしながら、このようなレーザ照射による測量は知られているものの、ドローンがレーザ照射をすることにより、対象物(害虫、寄生虫、鳥、雑草、カビた葉等)を駆除することは行われていなかった。
 本発明は、ドローンがレーザ照射を行うことにより、対象物を駆除することが可能なドローン、駆除方法及びプログラムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 本発明は、自機の位置情報を取得可能なドローンであって、
 画像を撮影する撮影手段と、
 撮影した前記画像から、駆除すべき対象物を検知する検知手段と、
 検知した前記対象物の位置を、自機の位置情報から算出する算出手段と、
 算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射する照射手段と、
 を備えることを特徴とするドローンを提供する。
 本発明によれば、自機の位置情報を取得可能なドローンは、画像を撮影し、撮影した前記画像から、駆除すべき対象物を検知し、検知した前記対象物の位置を、自機の位置情報から算出し、算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射する。
 本発明は、ドローンのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
 また、本発明は、自機の位置情報を取得可能なドローンであって、
 画像を撮影する撮影手段と、
 撮影した前記画像を所定のコンピュータに送信し、駆除すべき対象物を問い合わせる問い合わせ手段と、
 駆除する前記対象物の位置を、自機の位置情報から算出する算出手段と、
 算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射する照射手段と、
 を備えることを特徴とするドローンを提供する。
 本発明によれば、自機の位置情報を取得可能なドローンは、画像を撮影し、撮影した前記画像を所定のコンピュータに送信し、駆除すべき対象物を問い合わせる問い合わせ、駆除する前記対象物の位置を、自機の位置情報から算出し、算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射する。
 本発明は、ドローンのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
 本発明によれば、ドローンがレーザ照射を行うことにより、対象物を駆除することが可能なドローン、駆除方法及びプログラムを提供することが可能となる。
図1は、駆除システム1の概要を示す図である。 図2は、駆除システム1の全体構成図である。 図3は、ドローン10の機能ブロック図である。 図4は、ドローン10が実行する駆除処理を示すフローチャートである。 図5は、ドローン10が実行する対象物の位置推測を模式的に示した図である。
 以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも例であって、本発明の技術的範囲はこれに限られるものではない。
 [駆除システム1の概要]
 本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である駆除システム1の概要を説明するための図である。駆除システム1は、ドローン(無人航空機、陸上用移動体等)10から構成され、自機の位置情報をGPS等から取得可能なドローンである。
 ドローン10は、動画や静止画等の画像を撮影するカメラ等の撮影装置、撮影装置の傾きを検出するジャイロセンサ、加速度センサ、高度計、風向センサ等の各種センサ、飛行に必要なプロペラや動力、レーザ照射可能なレーザ照射装置等を備える。ドローン10は、予め設定された飛行経路や図示していない所定のコンピュータや情報端末等の外部装置が指定する飛行経路に基づいて飛行する。また、ドローン10は、自機に搭載するレーザ照射装置からレーザ照射することにより、対象物(害虫、寄生虫、鳥、雑草、カビた葉等)を駆除する。
 ドローン10は、位置を推測したい対象物に関する情報(特徴点や特徴量等)を取得し、記憶する。これは、図示していない照射から取得してもよいし、ドローン10に、この対象物に関する情報を入力していてもよい。
 なお、ドローン10は、無線接続又は有線接続により、図示していない外部装置と接続されていてもよい。このとき、ドローン10は、外部装置に撮影した画像や、各種センサが検出した情報を送信してもよい。
 はじめに、ドローン10は、予め設定された飛行経路に基づいて飛行するとともに、撮影装置により、動画や静止画等の画像を撮影する(ステップS01)。この飛行経路には、自身が飛行する飛行高度、経由地及び緯度・経度等が含まれる。
 ドローン10は、撮影した画像から、駆除すべき対象物を検知する(ステップS02)。ドローン10は、画像を画像解析し、この画像の特徴点又は特徴量の何れか又は双方を解析する。ドローン10は、画像解析の結果、この画像に含まれる対象物等を特定する。特徴点とは、画像に写っている何かであり、具体的には、形状、色、輝度、輪郭等である。また、特徴量とは、画像情報から算出した各種数値(画素値の平均、分散、ヒストグラム等)等の統計的な数値である。このとき、ドローン10は、予め取得しておいた対象物の情報と、画像解析の結果得られた画像における特徴点や特徴量とを比較し、画像における対象物の有無を画像解析により解析する。
 ドローン10は、画像解析の結果、画像に対象物が含まれているか否かを判断する。ドローン10は、対象物が含まれていないと判断した場合、設定された飛行を継続する。一方、ドローン10は、対象物が含まれていると判断した場合、対象物が存在することを検知する。
 ドローン10は、検知した対象物の位置を、自機の位置情報から算出する(ステップS03)。ドローン10は、画像内の対象物を、自身の位置情報(緯度、経度、飛行高度等)に基づいて算出する。ドローン10は、自身の飛行高度と、対象物に向けた撮影装置の角度とに基づいて、この対象物の実際の位置を算出する。
 ドローン10は、この対象物の位置に基づいて、対象物に対してレーザ照射する(ステップS04)。ドローン10は、この対象物に対して、所定の波長のレーザを照射することにより、対象物を駆除する。
 以上が、駆除システム1の概要である。
 [駆除システム1のシステム構成]
 図2に基づいて、本発明の好適な実施形態である駆除システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である駆除システム1のシステム構成を示す図である。駆除システム1は、ドローン10から構成される駆除システムである。
 ドローン10は、後述の機能を備えた上述した無人航空機や陸上用移動体等である。すなわち、ドローン10は、飛行体に限らず、陸を移動する移動体も含むものである。
 [各機能の説明]
 図3に基づいて、本発明の好適な実施形態である駆除システム1の機能について説明する。図3は、ドローン10の機能ブロック図を示す図である。
 ドローン10は、制御部11として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部12として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイスを備える。また、ドローン10は、記憶部13として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、ドローン10は、処理部14として、画像処理、各種計算、自身の位置情報の処理、自身が有する撮影装置の制御処理、レーザ照射装置の制御処理等の各種処理を実行するためのデバイス等を備える。
 ドローン10において、制御部11が所定のプログラムを読み込むことにより、通信部12と協働して、対象物情報取得モジュール20、位置情報取得モジュール21を実現する。また、ドローン10において、制御部11が所定のプログラムを読み込むことにより、記憶部13と協働して、記憶モジュール30を実現する。また、ドローン10において、制御部11が所定のプログラムを読み込むことにより、処理部14と協働して飛行モジュール40、撮影モジュール41、解析モジュール42、算出モジュール43、推測モジュール44、レーザ照射モジュール45を実現する。
 [駆除処理]
 図4に基づいて、駆除システム1が実行する駆除処理について説明する。図4は、ドローン10が実行する駆除処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
 はじめに、対象物情報取得モジュール20は、対象物に関する情報である対象物情報を取得する(ステップS10)。ステップS10において、対象物情報取得モジュール20は、後述する駆除する対象となる対象物の情報として対象物情報を取得する。本実施形態における対象物とは、害虫、寄生虫、鳥、雑草、カビた葉等の農作物に対して害又は悪影響を与えるものを意味する。対象物情報とは、例えば、対象物を一意に特定可能な情報であり、対象物の名称、種類等に加え、対象物の特徴点や特徴量である。特徴点は、例えば、対象物の形状、色、輝度、輪郭等である。また、特徴量は、例えば、画素値の平均、分散、ヒストグラム等の統計的な数値である。このような特徴点や特徴量は、図示してない外部装置と無線通信又は有線通信等によりデータ通信を行うことにより取得する。
 なお、対象物は、上述した例に限らず、その他のものであってもよく、レーザ照射することにより、退治や駆除や治療可能なものであれば適宜変更可能である。
 記憶モジュール30は、対象物情報を記憶する(ステップS11)。
 飛行モジュール40は、予め設定された飛行経路に基づいて飛行を開始する(ステップS12)。ステップS12において、飛行モジュール40は、記憶モジュール30が記憶する飛行経路や図示していない外部装置からの指示等に基づいて飛行する。このとき、飛行経路には、自身が飛行する際の飛行高度、緯度及び経度に関する情報が含まれる。
 撮影モジュール41は、画像を撮影する(ステップS13)。ステップS13において、撮影モジュール41は、ドローン10に対して、垂直な方向に向いた撮影装置により、画像を撮影する。すなわち、撮影モジュール41は、ドローン10の直下を撮影する。
 解析モジュール42は、画像を画像解析する(ステップS14)。ステップS14において、画像の特徴点又は特徴量の何れか又は双方を解析することにより、画像に写っている物体等を解析する。
 解析モジュール42は、ステップS11において記憶した対象物情報と、画像解析の結果として得られた画像の特徴点や特徴量とを比較し、画像内に対象物が存在するか否かを判断する(ステップS15)。ステップS15において、解析モジュール42は、画像の特徴点や特徴量と一致する対象物情報が存在するか否かを判断する。
 ステップS15において、解析モジュール42は、画像解析の結果、画像の特徴点や特徴量と、対象物の特徴点や特徴量とが一致していないと判断した場合(ステップS15 NO)、対象物は存在していないと判断し、飛行モジュール40は、上述したステップS12の処理を再度実行し、飛行を継続する。
 一方、ステップS15において、解析モジュール42は、画像解析の結果、画像の特徴点や特徴量と、対象物の特徴点や特徴量とが一致していると判断した場合(ステップS15 YES)、対象物が存在すると判断し、位置情報取得モジュール21は、自身の現在における3次元の位置情報を取得する(ステップS16)。ステップS16において、位置情報取得モジュール21は、自身の位置情報を、GPS等から取得する。また、位置情報取得モジュール21は、自身の飛行高度情報を、上述したステップS12において設定された飛行経路から取得する。位置情報取得モジュール21が、ドローン10の位置情報及び飛行高度情報を取得することにより、ドローン10の3次元の位置情報を取得することになる。これにより、対象物を撮影した撮影装置の3次元の位置情報を取得することが可能となる。これは、ドローン10の位置情報と撮影装置の位置情報とが略同一であるからである。すなわち、位置情報取得モジュール21は、ドローン10の3次元の位置情報を取得することにより、撮影装置の3次元の位置情報を取得する。
 なお、位置情報取得モジュール21は、自身の位置情報を、自身に現在設定された飛行経路から取得してもよい。なお、ステップS16の処理は、後述する対象物の絶対的な位置を推測するまでの間の任意のタイミングで行われてもよい。
 解析モジュール42は、画像内における対象物の位置を特定する(ステップS17)。ステップS17において、解析モジュール42は、画像の中心を基準として、画像における対象物の座標を把握することにより特定する。なお、解析モジュール42が実行する画像内における対象物の位置の特定は、他の方法により行われてもよい。
 撮影モジュール41は、特定した画像内における対象物の位置に基づいて、この対象物の位置に向けて、撮影装置を回転させ、撮影装置を対象物の方向に所定角度傾ける(ステップS18)。ステップS18において、撮影モジュール41は、撮影装置を、自身の緯度を示す直線に対して、平行な位置に回転させることにより、撮影装置を所定角度傾ける。
 撮影モジュール41は、この位置における撮影装置と対象物との間の角度Aを取得する(ステップS19)。ステップS19において、撮影モジュール41は、撮影装置が直下を撮影する際の状態を基準とし、この基準と、今回撮影装置が対象物に向いた状態との間の角度とを角度Aとして取得する。この角度Aが、撮影装置を傾けた角度に該当する。
 算出モジュール43は、この角度Aにおける正接と、位置情報取得モジュール21が取得した飛行高度情報とに基づいて、ドローンと対象物との間の距離を算出する(ステップS20)。
 推測モジュール44は、算出したドローンと対象物との間の距離と、自身の位置情報とに基づいて、対象物の絶対的な位置を推測する(ステップS21)。ステップS21において、推測モジュール44は、位置情報取得モジュール21が取得した自身の位置情報の緯度と、算出した距離とに基づいてこの位置を推測する。すなわち、推測モジュール44は、ドローンと対象物とが同一経度上に存在することから、自身の位置情報における緯度から算出した距離を加算又は減算(対象物の画像における座標に基づいて、加算するか減算するのかは判断する)することにより、対象物の緯度を算出する。推測モジュール44は、算出した対象物の緯度と、ドローンの経度とに基づいて、対象物の絶対的な位置を推測する。
 図5に基づいて、推測モジュール44が実行する対象物の絶対的な位置の推測方法について説明する。図5は、推測モジュール44が対象物100の絶対的な位置を推測する方法を模式的に示した図である。図5において、ドローン10は、地面200に存在する対象物100の絶対的な位置を推測するものとして説明する。
 撮影装置から地面200に向けた垂線210、撮影装置から対象物100に向けて伸ばした直線(斜線220)及び垂線210と地面200とが直行する地点240と対象物100とを結ぶ直線(隣辺230)からなる直角三角形を仮想的に形成する。撮影モジュール41が撮影装置を傾けた角度Aとは、垂線210と斜辺220との間の角度を意味する。今回、推測モジュール44が推測する対象物の絶対的な位置に必要な値は、隣辺230の長さである距離D、ドローン10の位置及び垂線210の長さである高度Hである。
 まず、ドローン10の位置は、飛行経路における現在地やGPS等から取得した位置情報から取得可能である。次に、高度Hも、ドローン10の位置と同様に取得可能である。距離Dは、地点240における座標(例えば、XY座標系)から、角度Aの正接(tanAの値)と高度Hとから推測可能である。すなわち、推測した距離Dを、地点240における座標におけるX座標の値に加算又は減算することにより、対象物100の絶対的な位置を推測する。
 推測モジュール44は、対象物の標高を推測する(ステップS22)。ステップS22において、推測モジュール44は、記憶モジュール30が予め記憶した各位置とこの位置における標高とを対応付けたデータベースに基づいて、対象物の標高を推測する。このデータベースには、各位置における緯度・経度と、この緯度・経度における標高とが対応付けられている。推測モジュール44は、上述したステップS21の処理により推測した対象物の絶対的な位置(緯度・経度)に対応付けられた標高を、このデータベースを参照することにより推測する。
 推測モジュール44は、推測した対象物の位置(緯度・経度及び標高)及びこの対象物を一意に特定可能な識別子(名称、番号、種類等)を推測結果情報として出力する(ステップS23)。
 レーザ照射モジュール45は、出力された推測結果情報に基づいて、対象物に対してレーザ照射する(ステップS24)。ステップS24において、レーザ照射モジュール45は、推測した対象物の位置と、撮影装置の角度Aとに基づいて、対象物に対してレーザ照射する。レーザ照射モジュール45は、レーザ照射装置を、角度Aの角度に傾け、対象物の位置までの距離にレーザ照射する。このとき、レーザ照射モジュール45は、この対象物までの距離に基づいて、レーザの終端をこの対象物の位置に調整し、レーザ照射する。また、レーザ照射モジュール45は、特定した対象物に応じて、レーザの波長を調整し、この調整した波長のレーザを照射する。
 このようにすることにより、ドローン10は、対象物をレーザにより駆除することが可能となる。
 なお、レーザ照射モジュール45は、対象物の種類によらず、一定の波長をレーザ照射する構成であってもよい。
 上述した実施形態において、対象物は、静物である場合を前提として説明しているが、動物等の動きがあるものであってもよい。この場合、算出モジュール43は、対象物の位置に加え、この対象物の速度を算出する構成であってもよい。すなわち、対象物がドローン10に対して直角に動いているものとして、撮影モジュール41が移動前と移動後との其々の画像を撮影し、推測モジュール44は、各時点における対象物の位置を推測し、算出モジュール43は、これらの2点間の距離と、移動前と移動後との間の時間とに基づいて、対象物の速度を算出すればよい。推測モジュール44は、この速度と、移動前と移動後の時間差と、各時点における対象物の位置とに基づいて、対象物の現在位置を推測すればよい。
 以上の処理において、画像解析処理、各種計算処理及び各種推測処理をドローン10が実行しているが、これらの処理の何れか又は双方は、必ずしもドローン10が実行する必要はない。例えば、ドローン10は、これらの処理に必要な情報を照射に送信し、照射がこれらの処理を実行する構成であってもよい。
 また、上述した実施形態において、一の対象物のみが存在する場合を前提として説明しているが、対象物が複数存在する場合であっても、本発明は、問題なく適用可能である。この場合、対象物毎に、上述した位置の推測を行えばよい。具体的には、画像に複数の対象物を特定した場合、所定の条件(画像の中心から近い座標順、画像の中心から遠い座標順、予め対象物毎に設定された優先順位の高い順等)に沿って、画像に存在する対象物の位置の推測を行っていけばよい。
 以上が、本実施形態における駆除処理である。
 [変形例]
 上述した駆除システム1における変形例について説明する。なお、上述した各処理と同様の構成については、その説明を省略し、変更箇所について詳細を説明する。
 概要としては、駆除システム1を構成するドローン10は、自身が撮影した画像を、図示してない情報端末や所定のコンピュータ等の外部装置に送信する。この外部装置が、上述した対象物の有無の判断や対象物の特定や画像内における対象物の位置の把握を実行する。外部装置は、この判断結果や特定した対象物に関する情報を、対象物情報として、ドローン10に送信する。ドローン10は、この対象物情報に基づいて、対象物の位置の算出及びこの対象物へのレーザ照射を実行する。すなわち、変形例における駆除システムは、対象物の検知に関する処理を、外部装置に委ね、その結果を問い合わせるものである。
 [駆除処理]
 変形例における駆除システム1が実行する駆除処理について説明する。なお、上述した実施形態における駆除処理と同様の処理については、その詳細な説明は省略する。
 ドローン10は、上述したステップS12、S13の処理と同様に、飛行経路に基づいて、飛行し、画像を撮影する。すなわち、本変形例において、ドローン10は、上述したステップS10及びS11の処理である対象物情報の取得及び記憶を行わない。これは、詳細は後述するが、対象物の検知に関する処理を、ドローン10自身ではなく、所定の外部装置が実行するためである。
 ドローン10は、撮影した画像を、外部装置に送信する。ドローン10は、この画像に駆除すべき対象物が存在するかを外部装置に問い合わせる。外部装置は、この画像を受信し、この画像を画像解析する。外部装置は、予め記憶した対象物情報と、画像解析の結果として得られた画像の特徴点や特徴量とを比較し、画像内に対象物が存在するか否かを判断する。存在しないと判断した場合、その結果を、ドローン10に通知する。ドローン10は、この通知を受けて、飛行を継続する。
 外部装置は、存在すると判断した場合、対象物の存在、画像における対象物の位置及びその種類をドローン10に通知する。これらの処理は、上述したステップS10、S11、S14、S15及びS17の処理と同様の処理を、外部装置が実行するものである。
 ドローン10は、この通知を受けて、自身の位置情報を取得する。この処理は、上述したステップS16の処理と同様である。
 このようにすることにより、ドローン10は、撮影した画像を外部装置に送信し、駆除すべき対象物を問い合わせることが可能となる。
 すなわち、上述した実施形態と本変形例との相違点は、上述したステップS10、S11、S14、S15及びS17の処理を、ドローン10のかわりに、外部装置に委ねる点である。
 ドローン10は、対象物の位置を、自機の位置情報から算出する。この処理は、上述したステップS18~S23の処理と同様である。
 ドローン10は、この対象物の位置と、撮影装置の角度とに基づいて、対象物にレーザ照射する。この処理は、上述したステップS24の処理と同様である。
 上述した変形例においても、上述した実施形態と同様に、対象物は、動きがあるものであってもよい。この場合、外部装置が、対象物の位置に加えて、対処物の速度を算出する構成であればよい。すなわち、ドローン10が、移動前と移動後との其々の画像を、外部装置に送信し、外部装置が、各時点における対象物の位置を推測し、これらの2点間の距離と、移動前と移動後との間の時間とに基づいて、対象物の速度を算出すればよい。ドローン10は、この速度と、移動前と移動後の時間差と、各時点における対象物の位置とに基づいて、対象物の現在位置を推測すればよい。
 以上の処理において、各種計算処理及び各種推測処理をドローン10が実行しているが、これらの処理の何れか又は双方は、必ずしもドローン10が実行する必要はない。例えば、ドローン10は、これらの処理に必要な情報を外部装置に送信し、外部装置がこれらの処理を実行する構成であってもよい。
 また、上述した実施形態において、一の対象物のみが存在する場合を前提として説明しているが、対象物が複数存在する場合であっても、本発明は、問題なく適用可能である。この場合、対象物毎に、上述した位置の推測を行えばよい。具体的には、画像に複数の対象物を特定した場合、所定の条件(画像の中心から近い座標順、画像の中心から遠い座標順、予め対象物毎に設定された優先順位の高い順等)に沿って、画像に存在する対象物の位置の推測を行っていけばよい。
 以上が、変形例における駆除処理である。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態で提供される。また、プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 1 駆除システム、10 ドローン

Claims (6)

  1.  自機の位置情報を取得可能なドローンであって、
     画像を撮影する撮影手段と、
     撮影した前記画像から、駆除すべき対象物を検知する検知手段と、
     検知した前記対象物の位置を、自機の位置情報から算出する算出手段と、
     算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射する照射手段と、
     を備えることを特徴とするドローン。
  2.  自機の位置情報を取得可能なドローンであって、
     画像を撮影する撮影手段と、
     撮影した前記画像を所定のコンピュータに送信し、駆除すべき対象物を問い合わせる問い合わせ手段と、
     駆除する前記対象物の位置を、自機の位置情報から算出する算出手段と、
     算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射する照射手段と、
     を備えることを特徴とするドローン。
  3.  自機の位置情報を取得可能なドローンが実行する駆除方法であって、
     画像を撮影するステップと、
     撮影した前記画像から、駆除すべき対象物を検知するステップと、
     検知した前記対象物の位置を、自機の位置情報から算出するステップと、
     算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射するステップと、
     を備えることを特徴とする駆除方法。
  4.  自機の位置情報を取得可能なドローンが実行する駆除方法であって、
     画像を撮影するステップと、
     撮影した前記画像を所定のコンピュータに送信し、駆除すべき対象物を問い合わせるステップと、
     駆除する前記対象物の位置を、自機の位置情報から算出するステップと、
     算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射するステップと、
     を備えることを特徴とする駆除方法。
  5.  自機の位置情報を取得可能なドローンに、
     画像を撮影するステップ、
     撮影した前記画像を所定のコンピュータに送信し、駆除すべき対象物を問い合わせるステップ、
     駆除する前記対象物の位置を、自機の位置情報から算出するステップ、
     算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射するステップ、
     を実行させるためのコンピュータ読み取り可能なプログラム。
  6.  自機の位置情報を取得可能なドローンに、
     画像を撮影するステップ、
     撮影した前記画像を所定のコンピュータに送信し、駆除すべき対象物を問い合わせるステップ、
     駆除する前記対象物の位置を、自機の位置情報から算出するステップ、
     算出した前記対象物の位置に基づいて、前記対象物に対してレーザ照射するステップ、
     を実行させるためのコンピュータ読み取り可能なプログラム。
PCT/JP2018/002853 2018-01-30 2018-01-30 ドローン、駆除方法及びプログラム WO2019150418A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880002688.3A CN110325035A (zh) 2018-01-30 2018-01-30 无人机、驱除方法以及程序
PCT/JP2018/002853 WO2019150418A1 (ja) 2018-01-30 2018-01-30 ドローン、駆除方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/002853 WO2019150418A1 (ja) 2018-01-30 2018-01-30 ドローン、駆除方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2019150418A1 true WO2019150418A1 (ja) 2019-08-08

Family

ID=67478141

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/002853 WO2019150418A1 (ja) 2018-01-30 2018-01-30 ドローン、駆除方法及びプログラム

Country Status (2)

Country Link
CN (1) CN110325035A (ja)
WO (1) WO2019150418A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7453643B1 (ja) 2023-11-07 2024-03-21 Pciソリューションズ株式会社 ソーラーパネルの経緯度特定方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115104594B (zh) * 2021-03-17 2024-01-16 中国航发商用航空发动机有限责任公司 涡扇发动机和飞机

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015096041A (ja) * 2013-11-15 2015-05-21 弘崇 新妻 レーザーによる害獣と害虫の追い払い
JP2015228803A (ja) * 2014-06-03 2015-12-21 みこらった株式会社 害虫捕獲収容装置及び害虫殺虫装置
WO2016170766A1 (ja) * 2015-04-20 2016-10-27 日本電気株式会社 光照射装置および光照射システム
US20170164603A1 (en) * 2015-12-11 2017-06-15 Joseph E. Kovarik System and method to drive away geese

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7501979B1 (en) * 1999-05-14 2009-03-10 Guice David L Airborne biota monitoring and control system
CN105752329B (zh) * 2014-10-21 2018-02-16 江苏锦程航空科技有限公司 一种具有遥控系统的四旋翼无人机
CN104699111A (zh) * 2015-03-25 2015-06-10 成都好飞机器人科技有限公司 基于无人机的病虫害防治设备
CN107027739A (zh) * 2017-04-21 2017-08-11 上海博历机械科技有限公司 一种含有led照明装置可连续工作的机场驱鸟系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015096041A (ja) * 2013-11-15 2015-05-21 弘崇 新妻 レーザーによる害獣と害虫の追い払い
JP2015228803A (ja) * 2014-06-03 2015-12-21 みこらった株式会社 害虫捕獲収容装置及び害虫殺虫装置
WO2016170766A1 (ja) * 2015-04-20 2016-10-27 日本電気株式会社 光照射装置および光照射システム
US20170164603A1 (en) * 2015-12-11 2017-06-15 Joseph E. Kovarik System and method to drive away geese

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7453643B1 (ja) 2023-11-07 2024-03-21 Pciソリューションズ株式会社 ソーラーパネルの経緯度特定方法

Also Published As

Publication number Publication date
CN110325035A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
TWI784102B (zh) 用於操作機器人式運載工具或用於機器人式運載工具中的方法、處理設備及非暫時性處理器可讀取儲存媒體
US10817734B2 (en) Information processing apparatus, information processing method, and computer program product
JP6410993B2 (ja) ドローン飛行制御システム、方法及びプログラム
JP6804991B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN108140245B (zh) 测距方法、装置以及无人机
JP2019049457A (ja) 画像処理装置および測距装置
JP6808590B2 (ja) 情報処理装置、情報処理方法、プログラムおよび移動体
JP6372835B1 (ja) 警告方法
WO2019150418A1 (ja) ドローン、駆除方法及びプログラム
CN109213138B (zh) 一种避障方法、装置及系统
CN109398731B (zh) 一种提升3d图像深度信息的方法、装置及无人机
US10636174B2 (en) Abnormality detection system, abnormality detection method, and program
JP6775748B2 (ja) コンピュータシステム、位置推測方法及びプログラム
JP6758068B2 (ja) 自律移動ロボット
JP6530212B2 (ja) 自律移動ロボット
US20180181129A1 (en) Method and apparatus for controlling flight of unmanned aerial vehicle and unmanned aerial vehicle
WO2024067134A1 (zh) 一种基于信号丢失的无人驾驶航空器控制方法、系统和介质
JP7503164B2 (ja) 地図情報作成方法
JP6422090B2 (ja) 警告方法、及び、警告装置
EP3416094B1 (en) Information processing apparatus, information processing method, and computer readable medium
CN109344776B (zh) 数据处理方法
WO2018042551A1 (ja) 不要物除去システム、不要物除去方法及びプログラム
Santos et al. Indoor waypoint UAV navigation using a RGB-D system
JP2020193945A (ja) 計測装置、把持システム、計測装置の制御方法及びプログラム
WO2024004723A1 (ja) 電子機器、制御方法および制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18904360

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18904360

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP