JP2020092643A - Unmanned flight device, unmanned flight system, and unmanned flight device control system - Google Patents

Unmanned flight device, unmanned flight system, and unmanned flight device control system Download PDF

Info

Publication number
JP2020092643A
JP2020092643A JP2018232518A JP2018232518A JP2020092643A JP 2020092643 A JP2020092643 A JP 2020092643A JP 2018232518 A JP2018232518 A JP 2018232518A JP 2018232518 A JP2018232518 A JP 2018232518A JP 2020092643 A JP2020092643 A JP 2020092643A
Authority
JP
Japan
Prior art keywords
animal
unit
unmanned aerial
aerial vehicle
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018232518A
Other languages
Japanese (ja)
Other versions
JP6704979B1 (en
Inventor
隆司 岩村
Takashi Iwamura
隆司 岩村
義博 大和
Yoshihiro Yamato
義博 大和
徳之 遠藤
Noriyuki Endo
徳之 遠藤
筒井 雄一朗
Yuichiro Tsutsui
雄一朗 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Techfirm Inc
Original Assignee
Techfirm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Techfirm Inc filed Critical Techfirm Inc
Priority to JP2018232518A priority Critical patent/JP6704979B1/en
Application granted granted Critical
Publication of JP6704979B1 publication Critical patent/JP6704979B1/en
Publication of JP2020092643A publication Critical patent/JP2020092643A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Catching Or Destruction (AREA)

Abstract

To efficiently drive out harmful animals from premises.SOLUTION: A drone 1 in an unmanned flight system S includes: an image acquisition part for acquiring an image capturing the inside of a predetermined region R; an animal recognition part for recognizing an animal A in the region R based on the captured image; a retreating position specification part for specifying a retreating position P associated with the region R; and a flight control part for flying the drone 1 or another drone so as to guide the animal A toward the retreating position P. The drone 1 may be flown in accordance with an instruction received from a control server 2.SELECTED DRAWING: Figure 1

Description

本発明は、所定領域に侵入した動物を追い払うための無人飛行装置、無人飛行システム及び無人飛行装置制御システムに関する。 The present invention relates to an unmanned aerial vehicle, an unmanned aerial vehicle system, and an unmanned aerial vehicle control system for driving away an animal that has invaded a predetermined area.

近年、鳥や獣等の害獣によって農地等の敷地が荒らされる被害を抑制するために、無人飛行装置(ドローン)を用いて害獣を追い払う技術の開発が進んでいる。特許文献1には、農地領域の外周に設置された検知部によって害獣を検知し、検知された害獣をドローンが農地領域の外側に追い払うシステムが開示されている。 2. Description of the Related Art In recent years, in order to suppress damage to sites such as farmlands caused by harmful animals such as birds and beasts, the development of technology for driving away harmful animals using an unmanned aerial vehicle (drone) has been advanced. Patent Document 1 discloses a system in which a detection unit installed on the outer periphery of a farmland area detects a pest and a drone drives the detected pest out of the farmland area.

特開2018−50503号公報JP, 2008-50503, A

ドローンが害獣を無作為に追跡すると、害獣が敷地内で動き回ってしまうため非効率的であり、余計に被害が発生するおそれがある。例えば、ドローンが害獣を追跡中に農地に入ってしまうと、農地が荒らされてしまう。 If a drone randomly tracks a pest, it is inefficient as it moves around the premises, which can cause additional damage. For example, if a drone enters a farmland while tracking a pest, the farmland will be destroyed.

そこで、本発明はこれらの点に鑑みてなされたものであり、敷地から害獣を効率的に追い払うことができる無人飛行装置、無人飛行システム及び無人飛行装置制御システムを提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object thereof is to provide an unmanned flight device, an unmanned flight system, and an unmanned flight device control system that can effectively drive off harmful animals from the site. ..

本発明の第1の態様の無人飛行装置は、無人飛行装置であって、所定領域の中を撮像した撮像画像を取得する画像取得部と、前記撮像画像に基づいて、前記所定領域の中の動物を認識する動物認識部と、前記所定領域に関連付けられた退去位置を特定する退去位置特定部と、前記動物を前記退去位置に向かって誘導するように前記無人飛行装置又は他の無人飛行装置を飛行させる飛行制御部と、を有する。 The unmanned aerial vehicle of the first aspect of the present invention is an unmanned aerial vehicle, wherein an image acquisition unit that acquires a captured image of an image of a predetermined area, An animal recognition unit that recognizes an animal, a retreat position specifying unit that specifies a retreat position associated with the predetermined area, and the unmanned flight device or another unmanned flight device so as to guide the animal toward the retreat position. And a flight control unit for flying.

前記動物認識部は、前記撮像画像を記憶部に予め記憶された特徴量と比較することによって、前記撮像画像中の前記動物を認識してもよい。 The animal recognition unit may recognize the animal in the captured image by comparing the captured image with a feature amount stored in advance in a storage unit.

前記動物認識部は、前記撮像画像を入力することにより前記撮像画像中で前記動物を認識したか否かを示す情報を出力する機械学習モデルに前記撮像画像を入力することで、前記撮像画像中の前記動物を認識してもよい。 In the captured image, the animal recognition unit inputs the captured image to a machine learning model that outputs information indicating whether the animal is recognized in the captured image by inputting the captured image. May be recognized.

前記無人飛行装置は、前記無人飛行装置の位置と、前記動物の位置と、前記退去位置との関係に基づいて、前記動物が忌避する物質、電気、音及び光のうち少なくとも1つ、又は前記動物を誘引する物質、電気、音及び光のうち少なくとも1つを発生させる発生部をさらに有してもよい。 The unmanned aerial device, based on the relationship between the position of the unmanned aerial device, the position of the animal, and the evacuation position, at least one of a substance, electricity, sound and light that the animal avoids, or the You may further have the generation part which generate|occur|produces at least 1 of the substance which attracts an animal, electricity, a sound, and light.

前記退去位置特定部は、前記動物が前記所定領域に侵入した位置を前記退去位置として特定してもよい。 The evacuation position specifying unit may specify a position at which the animal has entered the predetermined area as the evacuation position.

前記退去位置特定部は、前記動物が前記所定領域のうち第1領域に侵入した位置を前記退去位置として特定し、前記飛行制御部は、前記動物が前記所定領域のうち前記第1領域よりも内側の第2領域に侵入したことを条件として、前記動物を前記退去位置に向かって誘導するように前記無人飛行装置又は前記他の無人飛行装置を飛行させてもよい。 The retreat position identification unit identifies a position where the animal has entered the first region of the predetermined region as the retreat position, and the flight control unit is configured such that the flight control unit includes the animal in the predetermined region rather than the first region. The unmanned aerial vehicle or the other unmanned aerial vehicle may be caused to fly so as to guide the animal toward the evacuation position on condition that the vehicle has entered the second area inside.

前記無人飛行装置は、前記所定領域に関連付けられた複数の候補位置を予め記憶する記憶部をさらに有し、前記退去位置特定部は、前記動物の位置に基づいて、前記複数の候補位置のうちいずれか1つの候補位置を前記退去位置として特定してもよい。 The unmanned aerial device further has a storage unit that stores in advance a plurality of candidate positions associated with the predetermined area, the evacuation position specifying unit, based on the position of the animal, among the plurality of candidate positions. Any one of the candidate positions may be specified as the exit position.

前記退去位置特定部は、前記複数の候補位置のうち前記動物の位置に最も近い候補位置を前記退去位置として特定してもよい。 The evacuation position specifying unit may specify, as the evacuation position, a candidate position that is closest to the position of the animal among the plurality of candidate positions.

前記退去位置特定部は、前記無人飛行装置又は前記他の無人飛行装置が前記動物を前記退去位置に向かって誘導するように飛行している最中に、前記退去位置を、前記動物の位置に基づいて、前記複数の候補位置のうちいずれか1つの候補位置に変更してもよい。 The retreat position specifying unit, while the unmanned flight device or the other unmanned flight device is flying to guide the animal toward the retreat position, the retreat position, the position of the animal Based on the above, the position may be changed to any one of the plurality of candidate positions.

本発明の第2の態様の無人飛行システムは、第1無人飛行装置と、第2無人飛行装置とを含み、前記第1無人飛行装置は、所定領域の中を撮像した撮像画像を取得する画像取得部と、前記撮像画像に基づいて、前記所定領域の中の動物を認識する動物認識部と、前記所定領域に関連付けられた退去位置を特定する退去位置特定部と、前記動物を前記退去位置に向かって誘導するように飛行するための指示を送信する送信部と、を有し、前記第2無人飛行装置は、前記第1無人飛行装置から前記指示を受信する受信部と、前記受信部が受信した前記指示に従って前記第2無人飛行装置を飛行させる飛行制御部と、を有する。 An unmanned flight system according to a second aspect of the present invention includes a first unmanned flight device and a second unmanned flight device, wherein the first unmanned flight device acquires an image of a captured image of a predetermined area. An acquisition unit, an animal recognition unit that recognizes an animal in the predetermined area based on the captured image, a retreat position specifying unit that specifies a retreat position associated with the predetermined area, and the retreat position of the animal. A transmitting unit for transmitting an instruction to fly so as to guide the vehicle toward the vehicle, the second unmanned aerial vehicle receiving unit receiving the instruction from the first unmanned aerial vehicle, and the receiving unit. A flight control unit that causes the second unmanned aerial vehicle to fly in accordance with the instruction received by.

前記第1無人飛行装置の前記動物認識部は、複数の前記動物を認識した場合に、複数の前記動物のうちいずれか1頭を対象動物として決定し、前記第1無人飛行装置の前記送信部は、前記対象動物の位置を含む前記指示を送信し、前記第2無人飛行装置の前記受信部は、前記第1無人飛行装置から前記対象動物の位置を含む前記指示を受信し、前記第2無人飛行装置の前記飛行制御部は、前記対象動物の位置と前記退去位置との関係に基づいて、前記対象動物を前記退去位置に向かって誘導するように前記第2無人飛行装置を飛行させてもよい。 When recognizing a plurality of the animals, the animal recognition unit of the first unmanned flight device determines any one of the plurality of animals as a target animal, and the transmission unit of the first unmanned flight device. Transmits the instruction including the position of the target animal, and the receiving unit of the second unmanned flying device receives the instruction including the position of the target animal from the first unmanned flying device, The flight control unit of the unmanned flight device flies the second unmanned flight device to guide the target animal toward the evacuation position based on the relationship between the position of the target animal and the evacuation position. Good.

前記無人飛行システムは、少なくとも2つの前記第2無人飛行装置を含み、前記第1無人飛行装置の前記送信部は、1つの前記第2無人飛行装置に、前記動物を追うように飛行するための前記指示を送信するとともに、別の前記第2無人飛行装置に、前記動物を引き付けるように飛行するための前記指示を送信してもよい。 The unmanned flight system includes at least two second unmanned flight devices, wherein the transmitter of the first unmanned flight device is configured to fly to the one second unmanned flight device to follow the animal. The instruction may be transmitted to the second unmanned aerial vehicle, together with the instruction, to transmit the instruction to fly to attract the animal.

本発明の第3の態様の無人飛行装置制御システムは、情報処理装置と、無人飛行装置とを含み、前記情報処理装置は、所定領域の中を撮像した撮像画像を取得する画像取得部と、前記撮像画像に基づいて、前記所定領域の中の動物を認識する動物認識部と、前記所定領域に関連付けられた退去位置を特定する退去位置特定部と、前記動物を前記退去位置に向かって誘導するように飛行するための指示を送信する送信部と、を有し、前記無人飛行装置は、前記情報処理装置から前記指示を受信する受信部と、前記受信部が受信した前記指示に従って前記無人飛行装置を飛行させる飛行制御部と、を有する。 An unmanned flight device control system according to a third aspect of the present invention includes an information processing device and an unmanned flight device, and the information processing device includes an image acquisition unit that acquires a captured image of a predetermined region, An animal recognition unit that recognizes an animal in the predetermined region based on the captured image, a retreat position specifying unit that identifies a retreat position associated with the predetermined region, and guides the animal toward the retreat position. A transmitting unit that transmits an instruction to fly so that the unmanned flight device receives the instruction from the information processing device; and the unmanned flying device according to the instruction received by the receiving unit. And a flight control unit for flying the flying device.

本発明によれば、敷地から害獣を効率的に追い払うことができるという効果を奏する。 According to the present invention, there is an effect that the harmful beast can be effectively driven off from the site.

第1の実施形態に係る無人飛行システムの模式図である。It is a schematic diagram of the unmanned flight system which concerns on 1st Embodiment. 第1の実施形態に係る無人飛行システムのブロック図である。It is a block diagram of the unmanned flight system concerning a 1st embodiment. 画像取得部が取得した撮像画像を示す図である。It is a figure which shows the captured image which the image acquisition part acquired. 退去位置特定部が退去位置を特定する第1の方法を示す模式図である。It is a schematic diagram which shows the 1st method in which a retreat position specific|specification part pinpoints a retreat position. 退去位置特定部が退去位置を特定する第2の方法を示す模式図である。It is a schematic diagram which shows the 2nd method in which a retreat position specific|specification part specifies a retreat position. ドローンの飛行経路を示す模式図である。It is a schematic diagram which shows the flight path of a drone. 第1の実施形態に係る無人飛行装置制御方法のシーケンス図である。It is a sequence diagram of the unmanned flight device control method which concerns on 1st Embodiment. 第1の実施形態の変形例に係る無人飛行システムのブロック図である。It is a block diagram of the unmanned flight system concerning the modification of a 1st embodiment. 第1の実施形態の変形例に係るドローンが動物を退去位置に向かって誘導する方法の模式図である。It is a schematic diagram of the method by which the drone which concerns on the modification of 1st Embodiment guides an animal toward an evacuation position. 第2の実施形態に係る無人飛行システムのブロック図である。It is a block diagram of the unmanned flight system concerning a 2nd embodiment. 第2の実施形態に係る主ドローン及び副ドローンが、動物を退去位置に向かって誘導する方法の模式図である。It is a schematic diagram of the method with which the main drone and the sub drone which concern on 2nd Embodiment guide an animal toward an evacuation position. 第2の実施形態に係る無人飛行装置制御方法のシーケンス図である。It is a sequence diagram of the unmanned flight device control method which concerns on 2nd Embodiment.

(第1の実施形態)
[無人飛行システムSの概要]
図1は、本実施形態に係る無人飛行システムSの模式図である。無人飛行システムS(無人飛行装置制御システム)は、ドローン1と、制御サーバ2と、撮像装置3と、通信端末4とを含む。無人飛行システムSは、複数のドローン1を含んでもよい。また、無人飛行システムSは、その他のサーバ、端末等の機器を含んでもよい。
(First embodiment)
[Outline of unmanned flight system S]
FIG. 1 is a schematic diagram of an unmanned flight system S according to this embodiment. The unmanned flight system S (unmanned flight device control system) includes a drone 1, a control server 2, an imaging device 3, and a communication terminal 4. The unmanned flight system S may include a plurality of drones 1. In addition, the unmanned flight system S may include devices such as other servers and terminals.

ドローン1は、制御サーバ2から受信した情報に基づいて空中を飛行し、排除対象である動物Aを所定の領域Rから追い払う無人飛行装置である。ドローン1は、通常は所定のステーションSTに留まっており、制御サーバ2から飛行指示を受信した場合に飛行する。 The drone 1 is an unmanned flight device that flies in the air based on the information received from the control server 2 and drives away the animal A, which is an exclusion target, from a predetermined area R. The drone 1 normally stays at a predetermined station ST and flies when it receives a flight instruction from the control server 2.

また、ドローン1は、領域Rから動物Aを追い払うために、飛行中に動物Aを忌避又は誘引する物質、電気、音、光等を発生させる。動物Aは、例えば鹿、猪、猿、鳥等の、排除対象とする害獣である。ドローン1は、自身の飛行を制御するコンピュータを備える。ドローン1は、制御サーバ2と通信可能である。 Further, the drone 1 generates a substance, electricity, sound, light or the like that repels or attracts the animal A in flight in order to drive the animal A away from the region R. The animal A is a pest to be excluded, such as a deer, boar, monkey, or bird. The drone 1 includes a computer that controls its own flight. The drone 1 can communicate with the control server 2.

制御サーバ2は、撮像装置3が撮像した撮像画像を受信し、受信した撮像画像に基づいて決定した飛行指示をドローン1へ送信するコンピュータ(情報処理装置)である。また、制御サーバ2は、動物Aが領域Rに侵入したことや、動物Aが領域Rから追い払われたことを示す通知を、通信端末4へ送信する。制御サーバ2は、ドローン1、撮像装置3及び通信端末4と通信可能である。 The control server 2 is a computer (information processing device) that receives a captured image captured by the image capturing device 3 and transmits a flight instruction determined based on the received captured image to the drone 1. The control server 2 also transmits to the communication terminal 4 a notification indicating that the animal A has entered the area R and that the animal A has been driven out of the area R. The control server 2 can communicate with the drone 1, the imaging device 3, and the communication terminal 4.

撮像装置3は、領域R内を撮像するカメラである。撮像装置3は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を含む。領域Rに侵入した動物Aを撮像できるように、領域Rの外周に沿った複数の位置に、複数の撮像装置3が配置されている。撮像装置3は、所定の1つの撮像範囲を撮像してもよく、レンズの向きを変更して複数の撮像範囲を撮像してもよい。撮像装置3が撮像する撮像画像は、可視光画像であってもよく、赤外線画像であってもよい。撮像装置3は、撮像した撮像画像を制御サーバ2へ送信する。撮像装置3は、制御サーバ2と通信可能である。 The imaging device 3 is a camera that images the inside of the region R. The image pickup device 3 includes an image pickup element such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor. A plurality of imaging devices 3 are arranged at a plurality of positions along the outer periphery of the region R so that the animal A that has entered the region R can be imaged. The imaging device 3 may image a predetermined one imaging range, or may change the direction of the lens and image a plurality of imaging ranges. The captured image captured by the imaging device 3 may be a visible light image or an infrared image. The imaging device 3 transmits the captured image captured to the control server 2. The imaging device 3 can communicate with the control server 2.

通信端末4は、ユーザが保持するコンピュータである。ユーザは、無人飛行システムSの管理者又は提供者であってもよく、領域Rの所有者であってもよい。通信端末4は、例えばパーソナルコンピュータや、スマートフォン、タブレット端末等の携帯端末である。通信端末4は、制御サーバ2から受信した通知を示す情報を液晶ディスプレイ等の表示部上に表示し、又は制御サーバ2から受信した通知を示す音をスピーカ等の音発生部から発生させる。通信端末4は、制御サーバ2と通信可能である。 The communication terminal 4 is a computer held by the user. The user may be the administrator or provider of the unmanned flight system S, or the owner of the area R. The communication terminal 4 is, for example, a personal computer, a mobile terminal such as a smartphone or a tablet terminal. The communication terminal 4 displays information indicating the notification received from the control server 2 on a display unit such as a liquid crystal display, or causes a sound generation unit such as a speaker to generate a sound indicating the notification received from the control server 2. The communication terminal 4 can communicate with the control server 2.

ドローン1は、GPS(Global Positioning System)やビーコン等を用いて自身の位置を取得し、領域Rに侵入した動物Aを、領域Rに関連付けられた退去位置Pに向かって誘導するように飛行する。後述するように、退去位置Pは、動物Aが領域Rに侵入した位置、又は予め定義された複数の候補位置のうち動物Aに最も近い位置である。複数の候補位置は、退去位置Pの候補となる位置である。これにより、ドローン1は、動物Aを闇雲に追い回すのではなく、動物Aが出て行きやすい退去位置Pに動物Aを向かわせることができるため、動物Aを領域Rから効率的に追い払うことができる。 The drone 1 acquires its own position using GPS (Global Positioning System), a beacon, or the like, and flies so as to guide the animal A invading the area R toward a retreat position P associated with the area R. .. As will be described later, the retreat position P is a position where the animal A has entered the region R or a position closest to the animal A among a plurality of predefined candidate positions. The plurality of candidate positions are positions that are candidates for the exit position P. As a result, the drone 1 can move the animal A from the area R efficiently because it can move the animal A to the retreat position P where the animal A can easily go out instead of chasing the animal A into the dark clouds. it can.

[無人飛行システムSの構成]
図2は、本実施形態に係る無人飛行システムSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に分かれて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of unmanned flight system S]
FIG. 2 is a block diagram of the unmanned flight system S according to this embodiment. In FIG. 2, arrows indicate main data flows, and there may be data flows not shown in FIG. In FIG. 2, each block does not have a hardware (device) unit configuration but a functional unit configuration. As such, the blocks shown in FIG. 2 may be implemented within a single device or may be implemented separately within multiple devices. Data transfer between blocks may be performed via any means such as a data bus, a network, and a portable storage medium.

ドローン1は、制御部11と、記憶部12と、撮像部13と、発生部14とを有する。制御部11は、受信部111と、飛行制御部112とを有する。 The drone 1 has a control unit 11, a storage unit 12, an imaging unit 13, and a generation unit 14. The controller 11 includes a receiver 111 and a flight controller 112.

撮像部13は、ドローン1の飛行中に撮像するカメラである。撮像部13は、CCDセンサ、CMOSセンサ等の撮像素子を含む。撮像部13が撮像する撮像画像は、可視光画像であってもよく、赤外線画像であってもよい。撮像部13は、撮像した撮像画像を制御部11へ入力する。 The image capturing unit 13 is a camera that captures an image during the flight of the drone 1. The image pickup unit 13 includes an image pickup device such as a CCD sensor or a CMOS sensor. The captured image captured by the image capturing unit 13 may be a visible light image or an infrared image. The image capturing unit 13 inputs the captured imaged image to the control unit 11.

発生部14は、制御部11から入力された制御信号に従って、動物が忌避する又は動物を誘引する物質、電気、音及び光のうち少なくとも1つを発生させる機構を備える。発生部14が発生させる物質、電気、音及び光は、動物の知覚神経に作用することによって、動物に忌避され、又は動物を誘引する。 The generation unit 14 includes a mechanism that generates at least one of a substance, electricity, sound, and light that an animal repels or attracts an animal according to a control signal input from the control unit 11. The substances, electricity, sound, and light generated by the generation unit 14 act on the sensory nerves of the animal to be repelled by or attract the animal.

物質は、動物が忌避する又は動物を誘引する物質であり、発生部14によって動物に向けて放出される。例えば、鹿が忌避する物質は、唐辛子成分を含む物質であり、鹿を誘引する物質は、アルファルファ成分を含む物質である。電気は、発生部14によって動物に向けて放電される。音は、所定の周波数及び強度を有する音であり、発生部14によって動物に向けて出力される。光は、所定の周波数及び強度を有する光であり、発生部14によって動物に向けて出力される。例えば、動物が忌避する電気、音及び光は、所定の強度以上の電気、音及び光であり、動物を誘引する電気、音及び光は、動物が知覚可能であり、かつ所定の強度未満の電気、音及び光である。 The substance is a substance that the animal repels or attracts, and is emitted toward the animal by the generation unit 14. For example, a substance that repels deer is a substance containing a pepper component, and a substance that attracts a deer is a substance containing an alfalfa component. Electricity is discharged toward the animal by the generator 14. The sound is a sound having a predetermined frequency and intensity and is output to the animal by the generation unit 14. The light is light having a predetermined frequency and intensity, and is output to the animal by the generation unit 14. For example, the electricity, sound, and light that the animal repels are electricity, sound, and light having a predetermined intensity or higher, and the electricity, sound, and light that attract the animal are perceivable by the animal and have a intensity lower than the predetermined intensity. Electricity, sound and light.

記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部12は、制御部11が実行するプログラムを予め記憶している。記憶部12は、ドローン1の外部に設けられてもよく、その場合にネットワークを介して制御部11との間でデータの授受を行ってもよい。 The storage unit 12 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, and the like. The storage unit 12 stores a program executed by the control unit 11 in advance. The storage unit 12 may be provided outside the drone 1, and in that case, data may be exchanged with the control unit 11 via the network.

制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部12に記憶されたプログラムを実行することにより、受信部111及び飛行制御部112として機能する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。 The control unit 11 is a processor such as a CPU (Central Processing Unit), and functions as the reception unit 111 and the flight control unit 112 by executing the program stored in the storage unit 12. At least a part of the function of the control unit 11 may be executed by an electric circuit. Further, at least a part of the functions of the control unit 11 may be executed by a program executed via the network.

制御サーバ2は、制御部21と、記憶部22とを有する。制御部21は、画像取得部211と、動物認識部212と、退去位置特定部213と、送信部214とを有する。記憶部22は、認識情報記憶部221と、候補位置記憶部222とを有する。 The control server 2 has a control unit 21 and a storage unit 22. The control unit 21 includes an image acquisition unit 211, an animal recognition unit 212, an exit position identification unit 213, and a transmission unit 214. The storage unit 22 has a recognition information storage unit 221 and a candidate position storage unit 222.

記憶部22は、ROM、RAM、ハードディスクドライブ等を含む記憶媒体である。記憶部22は、制御部21が実行するプログラムを予め記憶している。記憶部22は、制御サーバ2の外部に設けられてもよく、その場合にネットワークを介して制御部21との間でデータの授受を行ってもよい。 The storage unit 22 is a storage medium including a ROM, a RAM, a hard disk drive and the like. The storage unit 22 stores a program executed by the control unit 21 in advance. The storage unit 22 may be provided outside the control server 2, and in that case, data may be exchanged with the control unit 21 via the network.

認識情報記憶部221は、撮像画像に写っている動物を認識するための認識情報(例えば特徴量や機械学習モデル)を記憶する。候補位置記憶部222は、退去位置Pの候補である複数の候補位置を領域Rと関連付けて記憶する。認識情報記憶部221及び候補位置記憶部222は、それぞれ記憶部22上の記憶領域であってもよく、あるいは記憶部22上で構成されたデータベースであってもよい。 The recognition information storage unit 221 stores recognition information (for example, a feature amount or a machine learning model) for recognizing an animal shown in a captured image. The candidate position storage unit 222 stores a plurality of candidate positions that are candidates for the exit position P in association with the region R. The recognition information storage unit 221 and the candidate position storage unit 222 may each be a storage area on the storage unit 22, or may be a database configured on the storage unit 22.

制御部21は、例えばCPU等のプロセッサであり、記憶部22に記憶されたプログラムを実行することにより、画像取得部211、動物認識部212、退去位置特定部213及び送信部214として機能する。制御部21の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部21の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。 The control unit 21 is a processor such as a CPU, for example, and functions as the image acquisition unit 211, the animal recognition unit 212, the exit position identification unit 213, and the transmission unit 214 by executing the program stored in the storage unit 22. At least a part of the function of the control unit 21 may be performed by an electric circuit. Further, at least a part of the functions of the control unit 21 may be executed by a program executed via the network.

本実施形態に係る無人飛行システムSは、図2に示す具体的な構成に限定されない。ドローン1及び制御サーバ2は、それぞれ1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。 The unmanned flight system S according to this embodiment is not limited to the specific configuration shown in FIG. The drone 1 and the control server 2 are not limited to one device, respectively, and may be configured by connecting two or more physically separated devices by wire or wirelessly.

[無人飛行装置制御方法の説明]
本実施形態に係る無人飛行システムSが実行する無人飛行装置制御方法を以下に説明する。複数の撮像装置3は、それぞれ領域R内の所定の撮像範囲を所定の時間間隔で繰り返し撮像し、制御サーバ2へ送信する。
[Explanation of unmanned flight device control method]
An unmanned flight device control method executed by the unmanned flight system S according to this embodiment will be described below. Each of the plurality of imaging devices 3 repeatedly captures a predetermined imaging range within the region R at predetermined time intervals, and transmits the images to the control server 2.

制御サーバ2において、画像取得部211は、撮像装置3が送信した撮像画像を受信して取得する。画像取得部211は、撮像装置3が送信した撮像画像に代えて又は加えて、ドローン1の撮像部13が撮像した撮像画像を受信して取得してもよい。 In the control server 2, the image acquisition unit 211 receives and acquires the captured image transmitted by the imaging device 3. The image acquisition unit 211 may receive and acquire a captured image captured by the imaging unit 13 of the drone 1, instead of or in addition to the captured image transmitted by the imaging device 3.

図3は、画像取得部211が取得した撮像画像IMを示す図である。動物認識部212は、画像取得部211が取得した撮像画像IMに基づいて、領域Rの中の排除対象の動物Aを認識する。 FIG. 3 is a diagram showing the captured image IM acquired by the image acquisition unit 211. The animal recognition unit 212 recognizes the exclusion target animal A in the region R based on the captured image IM acquired by the image acquisition unit 211.

例えば動物認識部212は、撮像画像IMの特徴量を用いて、撮像画像IM中の動物Aを認識する。この場合に、認識情報記憶部221は、排除対象の動物Aの特徴量を、認識情報として予め記憶している。認識情報記憶部221は、排除対象の複数の種類の動物Aの特徴量を、動物Aの種類と関連付けて記憶してもよい。特徴量は、撮像画像IMの中で動物Aを認識するための特徴を表す値である。特徴量は、動物Aの画像(テンプレート画像)の輝度分布であってもよい。あるいは特徴量は、動物Aの画像の複数の画素の輝度値から所定の規則に従って算出した値(SIFT特徴量やHOG特徴量等)であってもよい。 For example, the animal recognition unit 212 recognizes the animal A in the captured image IM using the feature amount of the captured image IM. In this case, the recognition information storage unit 221 stores the feature amount of the animal A to be excluded as recognition information in advance. The recognition information storage unit 221 may store the feature amounts of the plurality of types of animals A to be excluded in association with the types of the animals A. The feature amount is a value representing a feature for recognizing the animal A in the captured image IM. The feature amount may be the brightness distribution of the image of the animal A (template image). Alternatively, the feature amount may be a value (SIFT feature amount, HOG feature amount, or the like) calculated from the brightness values of a plurality of pixels of the image of the animal A according to a predetermined rule.

動物認識部212は、認識情報記憶部221から特徴量を取得する。動物認識部212は、認識情報記憶部221に記憶された特徴量と同じ方法を用いて、画像取得部211が取得した撮像画像IM中の各位置における特徴量を算出する。そして動物認識部212は、認識情報記憶部221から取得した特徴量と、撮像画像IM中の各位置において算出した特徴量とを比較し、類似度を算出する。 The animal recognition unit 212 acquires the feature amount from the recognition information storage unit 221. The animal recognition unit 212 calculates the feature amount at each position in the captured image IM acquired by the image acquisition unit 211 using the same method as the feature amount stored in the recognition information storage unit 221. Then, the animal recognition unit 212 compares the feature amount acquired from the recognition information storage unit 221 with the feature amount calculated at each position in the captured image IM, and calculates the degree of similarity.

動物認識部212は、撮像画像IM中のいずれかの位置で算出した類似度が所定条件を満たす場合(例えば類似度が所定値以上である場合)に、撮像画像IM中の該位置において動物Aを認識する。動物認識部212は、撮像画像IM中のいずれの位置で算出した類似度も所定条件を満たさない場合に、撮像画像IM中に動物Aを認識しない。 When the similarity calculated at any position in the captured image IM satisfies a predetermined condition (for example, when the similarity is equal to or more than a predetermined value), the animal recognizing unit 212 determines that the animal A at the position in the captured image IM. Recognize. The animal recognition unit 212 does not recognize the animal A in the captured image IM when the similarity calculated at any position in the captured image IM does not satisfy the predetermined condition.

認識情報記憶部221が複数の種類の動物Aの特徴量を記憶している場合には、動物認識部212は各種類の動物Aについて認識処理を繰り返す。動物認識部212は撮像画像IM中で1頭の動物Aを認識した場合に、その時点で認識処理を終了してもよく、複数の動物Aを認識できるように認識処理を継続してもよい。 When the recognition information storage unit 221 stores the feature amounts of a plurality of types of animals A, the animal recognition unit 212 repeats the recognition process for each type of animal A. When the animal recognition unit 212 recognizes one animal A in the captured image IM, the recognition process may be ended at that point, or the recognition process may be continued so that a plurality of animals A can be recognized. ..

そして動物認識部212は、撮像画像IM中で動物Aを認識したか否かを示す認識結果を、認識した動物Aの位置と関連付けて出力する。認識結果は、認識した動物Aの種類を含んでもよい。動物Aの位置は、例えば撮像画像IMを撮像した撮像装置3又はドローン1の位置である。 Then, the animal recognizing unit 212 outputs the recognition result indicating whether or not the animal A is recognized in the captured image IM, in association with the position of the recognized animal A. The recognition result may include the type of the recognized animal A. The position of the animal A is, for example, the position of the imaging device 3 or the drone 1 that has captured the captured image IM.

別の方法として、例えば動物認識部212は、機械学習モデルを用いて、撮像画像IM中の動物Aを認識する。この場合に、認識情報記憶部221は、排除対象の動物Aを認識するための機械学習モデルを、認識情報として予め記憶している。機械学習モデルは、撮像画像を入力することにより、撮像画像IM中で動物Aを認識したか否かを示す認識結果を出力する。 As another method, for example, the animal recognition unit 212 recognizes the animal A in the captured image IM using a machine learning model. In this case, the recognition information storage unit 221 stores a machine learning model for recognizing the exclusion target animal A in advance as recognition information. The machine learning model inputs a captured image and outputs a recognition result indicating whether or not the animal A is recognized in the captured image IM.

機械学習モデルは、動物Aが含まれている撮像画像と動物Aが含まれていない撮像画像とを用いて既知の機械学習方法を実行することによって予め生成され、認識情報記憶部221に記憶される。例えばコンピュータは、機械学習方法として、指定された特徴量(SIFT特徴量やHOG特徴量等)を各撮像画像において算出し、算出された特徴量を用いた決定木やSVM(Support Vector Machine)等の学習アルゴリズムを実行することによって、動物Aが含まれている撮像画像と動物Aが含まれていない撮像画像とを分類可能な機械学習モデルを生成する。 The machine learning model is generated in advance by executing a known machine learning method using a captured image including the animal A and a captured image not including the animal A, and is stored in the recognition information storage unit 221. It For example, as a machine learning method, a computer calculates a specified feature amount (SIFT feature amount, HOG feature amount, etc.) in each captured image, and uses a decision tree or SVM (Support Vector Machine) that uses the calculated feature amount. By executing the learning algorithm of 1., a machine learning model capable of classifying a captured image including the animal A and a captured image not including the animal A is generated.

あるいは機械学習モデルは、深層学習(ディープラーニング)によって生成されてもよい。深層学習において、コンピュータは、撮像画像に対して特徴量を抽出する畳み込み処理と、抽出した特徴量を絞り込むプーリング処理とを繰り返し行うことによって、動物Aが含まれている撮像画像と動物Aが含まれていない撮像画像とを分類可能な機械学習モデルを生成する。 Alternatively, the machine learning model may be generated by deep learning. In deep learning, the computer includes a captured image containing the animal A and the animal A by repeatedly performing a convolution process for extracting the feature amount from the captured image and a pooling process for narrowing down the extracted feature amount. A machine learning model that can classify captured images that are not captured is generated.

動物認識部212は、認識情報記憶部221から機械学習モデルを取得する。動物認識部212は、認識情報記憶部221から取得した機械学習モデルに撮像画像IMを入力することにより、機械学習モデルから出力された撮像画像IM中で動物Aを認識したか否か(すなわち撮像画像IMに動物Aが含まれているか否か)を示す認識結果を取得する。 The animal recognition unit 212 acquires a machine learning model from the recognition information storage unit 221. The animal recognition unit 212 inputs the captured image IM to the machine learning model acquired from the recognition information storage unit 221, thereby determining whether or not the animal A is recognized in the captured image IM output from the machine learning model (that is, the captured image IM. A recognition result indicating whether or not the image IM includes the animal A) is acquired.

そして動物認識部212は、撮像画像IM中で動物Aを認識したか否かを示す認識結果を、認識した動物Aの位置と関連付けて出力する。認識結果は、認識した動物Aの種類を含んでもよい。動物Aの位置は、例えば撮像画像IMを撮像した撮像装置3又はドローン1の位置である。 Then, the animal recognizing unit 212 outputs the recognition result indicating whether or not the animal A is recognized in the captured image IM, in association with the position of the recognized animal A. The recognition result may include the type of the recognized animal A. The position of the animal A is, for example, the position of the imaging device 3 or the drone 1 that has captured the captured image IM.

動物認識部212は、上述の具体的な方法に限られず、撮像画像IMに基づいて動物Aを認識することが可能なその他の方法を用いてもよい。共通する撮像範囲において同時期に複数の撮像装置3が撮像した複数の撮像画像IM中に動物Aが認識された場合には、退去位置特定部213は、該複数の撮像装置3の位置に基づいて、動物Aの位置を算出してもよい。例えば退去位置特定部213は、複数の撮像装置3の位置の中心点(重心等)を、動物Aの位置として取得する。 The animal recognition unit 212 is not limited to the specific method described above, and may use another method capable of recognizing the animal A based on the captured image IM. When the animal A is recognized in the plurality of captured images IM captured by the plurality of image capturing devices 3 at the same time in the common image capturing range, the retreat position specifying unit 213 determines the retreat position specifying unit 213 based on the positions of the plurality of image capturing devices 3. Then, the position of the animal A may be calculated. For example, the evacuation position specifying unit 213 acquires the center point (center of gravity or the like) of the positions of the plurality of imaging devices 3 as the position of the animal A.

退去位置特定部213は、動物認識部212が出力した認識結果が撮像画像中で動物Aを認識したことを示す場合に、動物認識部212によって認識された動物Aの位置に基づいて動物Aを向かわせる退去位置Pを特定する。退去位置Pは、例えば緯度及び経度によって表される。退去位置特定部213は、例えば、以下の第1の方法又は第2の方法によって、退去位置Pを特定する。 When the recognition result output by the animal recognition unit 212 indicates that the animal A has been recognized in the captured image, the exit position identification unit 213 identifies the animal A based on the position of the animal A recognized by the animal recognition unit 212. The retreat position P to be moved to is specified. The exit position P is represented by latitude and longitude, for example. The evacuation position identification unit 213 identifies the evacuation position P by the following first method or second method, for example.

図4は、退去位置特定部213が退去位置Pを特定する第1の方法を示す模式図である。第1の方法において、退去位置特定部213は、動物認識部212によって最初に認識された動物Aの位置を、動物Aが領域Rに侵入した位置として取得する。そして退去位置特定部213は、動物Aが領域Rに侵入した位置を、退去位置Pとして特定する。 FIG. 4 is a schematic diagram showing a first method for the retreat position identification unit 213 to identify the retreat position P. In the first method, the retreat position specifying unit 213 acquires the position of the animal A first recognized by the animal recognizing unit 212 as the position where the animal A has entered the region R. Then, the retreat position identification unit 213 identifies the position where the animal A has entered the region R as the retreat position P.

第1の方法によれば、退去位置特定部213は、動物Aがもともと領域Rに侵入した位置を退去位置Pに設定するため、川や崖等の動物Aが侵入できない場所、すなわち動物Aが退去することが困難な場所を退去位置Pに設定することがない。そのため、ドローン1は、動物Aが出て行きやすい退去位置Pへ動物Aを誘導し、速やかに追い払うことができる。 According to the first method, since the retreat position specifying unit 213 sets the position where the animal A originally invades the area R as the retreat position P, the place where the animal A cannot enter such as a river or a cliff, that is, the animal A A place where it is difficult to move out is not set as the move-out position P. Therefore, the drone 1 can guide the animal A to the retreat position P where the animal A can easily go out and swiftly drive it away.

図5は、退去位置特定部213が退去位置Pを特定する第2の方法を示す模式図である。第2の方法において、候補位置記憶部222は、退去位置Pの候補である複数の候補位置P1を、領域Rと関連付けて予め記憶している。候補位置P1は、例えば動物Aが出て行きやすい獣道に設定され、農地等の荒らされたくない場所の近傍には設定されない。 FIG. 5 is a schematic diagram showing a second method in which the retreat position identifying unit 213 identifies the retreat position P. In the second method, the candidate position storage unit 222 stores in advance a plurality of candidate positions P1 that are candidates for the exit position P in association with the region R. The candidate position P1 is set, for example, in a beast road where the animal A is easy to go out, and is not set in the vicinity of a place such as an agricultural land that is not desired to be destroyed.

退去位置特定部213は、候補位置記憶部222から、撮像画像が撮像された領域Rに関連付けられた複数の候補位置P1を取得する。そして退去位置特定部213は、複数の候補位置P1のうち、動物認識部212によって最初に認識された動物Aの位置に最も近い1つの候補位置P1を、退去位置Pとして特定する。あるいは退去位置特定部213は、その他の条件(動物Aが認識された日時、動物Aの種類等)によって複数の候補位置P1の中から退去位置Pを選択してもよい。 The exit position identification unit 213 acquires from the candidate position storage unit 222 a plurality of candidate positions P1 associated with the region R in which the captured image is captured. Then, the retreat position identification unit 213 identifies, as the retreat position P, one candidate position P1 closest to the position of the animal A first recognized by the animal recognition unit 212 among the plurality of candidate positions P1. Alternatively, the evacuation position specifying unit 213 may select the evacuation position P from the plurality of candidate positions P1 according to other conditions (the date and time when the animal A was recognized, the type of the animal A, etc.).

第2の方法によれば、退去位置特定部213は、予め定義した複数の候補位置P1のいずれかを退去位置Pに設定するため、川や崖等の動物Aが侵入できない場所、すなわち動物Aが退去することが困難な場所を退去位置Pに設定することがない。そのため、ドローン1は、動物Aが出て行きやすい退去位置Pへ動物Aを誘導し、速やかに追い払うことができる。また、候補位置P1を農地等の荒らされたくない場所の近傍に設定しないことによって、ドローン1が動物Aを誘導している際に発生し得る被害を抑制することができる。 According to the second method, the retreat position specifying unit 213 sets any of the plurality of pre-defined candidate positions P1 as the retreat position P, so that the place where the animal A such as a river or a cliff cannot enter, that is, the animal A Does not set a location where it is difficult for the person to leave to the exit position P. Therefore, the drone 1 can guide the animal A to the retreat position P where the animal A can easily go out and swiftly drive it away. In addition, by not setting the candidate position P1 near a place that is not desired to be destroyed, such as farmland, damage that can occur when the drone 1 guides the animal A can be suppressed.

さらに第2の方法において、退去位置特定部213は、ドローン1が動物Aを誘導している最中に、複数の候補位置P1及び動物Aの位置に基づいて退去位置Pを変更してもよい。この場合に、例えば動物認識部212は、領域Rに配置された撮像装置3又はドローン1の撮像部13が所定の時間間隔で撮像した撮像画像において動物Aを認識することによって、動物Aの現在位置を取得する。 Further, in the second method, the retreat position specifying unit 213 may change the retreat position P based on the positions of the plurality of candidate positions P1 and the animal A while the drone 1 is guiding the animal A. .. In this case, for example, the animal recognition unit 212 recognizes the animal A in the captured images captured by the imaging device 3 or the imaging unit 13 of the drone 1 arranged in the region R at a predetermined time interval, so that the current state of the animal A is detected. Get the position.

そして退去位置特定部213は、複数の候補位置P1のうち、動物Aの現在位置に最も近い1つの候補位置P1を、退去位置Pとして特定する。このような構成により、ドローン1が動物Aを誘導している最中に退去位置Pから離れてしまった場合に、退去位置特定部213は、より近い候補位置P1を退去位置Pに変更し、ドローン1が動物Aを退去位置Pへ誘導しやすくできる。 Then, the retreat position identification unit 213 identifies one of the plurality of candidate positions P1 that is closest to the current position of the animal A as the retreat position P. With such a configuration, when the drone 1 moves away from the retreat position P while guiding the animal A, the retreat position specifying unit 213 changes the closer candidate position P1 to the retreat position P, The drone 1 can easily guide the animal A to the exit position P.

送信部214は、退去位置特定部213が特定した退去位置Pに向かって動物Aを誘導するように飛行するための飛行指示を、ドローン1へ送信する。飛行指示は、例えば動物認識部212が出力した動物Aの位置と、退去位置特定部213が特定した退去位置Pと、誘導方法(動物Aを追うこと又は動物Aを引き付けること)とを示す。送信部214は、複数のドローン1へ異なる飛行指示を送信してもよい。 The transmitting unit 214 transmits to the drone 1 a flight instruction for flying so as to guide the animal A toward the retreat position P identified by the retreat position identifying unit 213. The flight instruction indicates, for example, the position of the animal A output by the animal recognition unit 212, the retreat position P identified by the retreat position identifying unit 213, and the guidance method (following the animal A or attracting the animal A). The transmission unit 214 may transmit different flight instructions to the plurality of drones 1.

ドローン1において、受信部111は、制御サーバ2が送信した飛行指示を受信する。飛行制御部112は、受信部111が受信した飛行指示が示す動物Aの位置及び退去位置Pの関係に基づいて、動物Aを退去位置Pに向かって誘導するようにドローン1を飛行させる制御を行う。 In the drone 1, the receiving unit 111 receives the flight instruction transmitted by the control server 2. The flight controller 112 controls the flight of the drone 1 so as to guide the animal A toward the exit position P based on the relationship between the position of the animal A and the exit position P indicated by the flight instruction received by the receiver 111. To do.

ドローン1は、飛行指示が示す誘導方法に従って、動物Aを追うように飛行すること、又は動物Aを引き付けるように飛行することによって、動物Aを退去位置Pに向かって誘導する。図6(a)は、動物Aを追うように飛行する場合のドローン1の飛行経路を示す模式図である。この場合に、ドローン1は、ドローン1と退去位置Pとの間に動物Aがいる状態で、動物Aに近付くように飛行する。 The drone 1 guides the animal A toward the retreat position P by following the animal A or by flying so as to attract the animal A according to the guide method indicated by the flight instruction. FIG. 6A is a schematic diagram showing the flight path of the drone 1 when flying to follow the animal A. In this case, the drone 1 flies so as to approach the animal A while the animal A is between the drone 1 and the retreat position P.

図6(b)は、動物Aを引き付けるように飛行する場合のドローン1の飛行経路を示す模式図である。この場合に、ドローン1は、退去位置Pと動物Aとの間をドローン1が飛行している状態で、動物Aから離れるように飛行する。 FIG. 6B is a schematic diagram showing the flight path of the drone 1 when flying so as to attract the animal A. In this case, the drone 1 flies away from the animal A while the drone 1 is flying between the retreat position P and the animal A.

飛行制御部112がドローン1を飛行させている最中に、発生部14は、動物Aを退去位置Pに向かって誘導するために、動物Aが忌避する又は動物Aを誘引することが可能な、物質、電気、音及び光のうち少なくとも1つを発生させる。 While the flight control unit 112 is flying the drone 1, the generating unit 14 can avoid the animal A or attract the animal A in order to guide the animal A toward the retreat position P. , At least one of a substance, electricity, sound and light.

発生部14は、ドローン1の位置と、動物Aの位置と、退去位置Pとの関係に基づいて、動物Aが忌避する物質、電気、音及び光のうち少なくとも1つ、又は動物Aを誘引する物質、電気、音又は光のうち少なくとも1つを発生させてもよい。すなわち、図6(a)のようにドローン1と退去位置Pとの間に動物Aがいる場合に、発生部14は動物Aが忌避する物質、電気、音又は光を発生させる。図6(b)のようにドローン1が退去位置Pと動物Aとの間を飛行している場合に、発生部14は動物Aを誘引する物質、電気、音又は光を発生させる。このように発生部14が、動物Aが忌避する又は動物Aを誘引する物質、電気、音又は光を発生させることによって、ドローン1は動物Aを領域Rから効率的に追い払うことができる。 Based on the relationship between the position of the drone 1, the position of the animal A, and the retreat position P, the generation unit 14 attracts at least one of the substance, electricity, sound, and light that the animal A repels, or the animal A. At least one of a substance, electricity, sound, or light may be generated. That is, when the animal A is between the drone 1 and the retreat position P as shown in FIG. 6A, the generating unit 14 generates a substance, electricity, sound or light that the animal A repels. When the drone 1 is flying between the retreat position P and the animal A as shown in FIG. 6B, the generating unit 14 generates a substance, electricity, sound or light that attracts the animal A. In this way, the generation unit 14 generates a substance, electricity, sound, or light that the animal A repels or attracts the animal A, so that the drone 1 can effectively dispel the animal A from the region R.

ドローン1が動物Aを退去位置Pに向かって誘導するのと並行して、制御サーバ2の送信部214は、通信端末4に所定の通知を送信する。例えば送信部214は、動物認識部212が撮像画像中で動物Aを認識した場合に、通信端末4に通知を送信してもよい。 In parallel with the drone 1 guiding the animal A toward the exit position P, the transmission unit 214 of the control server 2 transmits a predetermined notification to the communication terminal 4. For example, the transmission unit 214 may transmit a notification to the communication terminal 4 when the animal recognition unit 212 recognizes the animal A in the captured image.

また、送信部214は、ドローン1が領域Rから動物Aを追い払った場合に、通信端末4に通知を送信してもよい。また、送信部214は、動物認識部212が撮像画像中で動物Aを認識した時点から所定時間が経過してもドローン1が領域Rから動物Aを追い払っていない場合に、通信端末4に通知を送信してもよい。この場合に、動物認識部212は、領域Rに配置された撮像装置3又はドローン1の撮像部13が所定の時間間隔で撮像した撮像画像において動物Aを認識できるか否かに基づいて、領域Rから動物Aが追い払われたか否かを判定する。 Further, the transmission unit 214 may transmit a notification to the communication terminal 4 when the drone 1 drives away the animal A from the area R. Further, the transmission unit 214 notifies the communication terminal 4 when the drone 1 has not driven away the animal A from the region R even after a predetermined time has elapsed since the animal recognition unit 212 recognized the animal A in the captured image. May be sent. In this case, the animal recognition unit 212 determines whether or not the animal A can be recognized in the captured images captured by the imaging device 3 or the imaging unit 13 of the drone 1 arranged in the region R at predetermined time intervals. It is determined from R whether the animal A has been driven away.

通信端末4は、制御サーバ2から受信した通知に従って、スピーカから所定の音を発生させ、あるいは表示部上にメッセージを表示する。これにより、通信端末4のユーザは、動物Aが領域Rに侵入したことや、動物Aが領域Rから追い払われたこと又は追い払われていないことを容易に知ることができる。 According to the notification received from the control server 2, the communication terminal 4 causes the speaker to generate a predetermined sound or displays a message on the display unit. Accordingly, the user of the communication terminal 4 can easily know that the animal A has entered the area R, that the animal A has been or has been driven away from the area R.

さらに送信部214は、ドローン1による動物Aの誘導状況(例えばドローン1及び動物Aの現在位置)を示す情報や、ドローン1の発生部14による物質、電気、音又は光の発生状況(例えば発生時刻や、物質及び電気の残量)を示す情報を、通信端末4に送信してもよい。通信端末4は、制御サーバ2から受信した情報を、表示部上に表示する。これにより、通信端末4のユーザは、ドローン1の状況を随時知ることができる。 Further, the transmission unit 214 transmits information indicating the guidance situation of the animal A by the drone 1 (for example, the current positions of the drone 1 and the animal A) and the generation situation of the substance, electricity, sound or light by the generation unit 14 of the drone 1 (for example, generation). Information indicating the time and the remaining amount of substance and electricity may be transmitted to the communication terminal 4. The communication terminal 4 displays the information received from the control server 2 on the display unit. Thereby, the user of the communication terminal 4 can know the situation of the drone 1 at any time.

図7は、本実施形態に係る無人飛行装置制御方法のシーケンス図である。制御サーバ2において、画像取得部211は、撮像装置3が送信した撮像画像を受信して取得する(S11)。画像取得部211は、撮像装置3が送信した撮像画像に代えて又は加えて、ドローン1の撮像部13が撮像した撮像画像を受信して取得してもよい。動物認識部212は、画像取得部211が取得した撮像画像に基づいて、領域Rの中の排除対象の動物Aを認識する(S12)。 FIG. 7 is a sequence diagram of the unmanned flight device control method according to the present embodiment. In the control server 2, the image acquisition unit 211 receives and acquires the captured image transmitted by the imaging device 3 (S11). The image acquisition unit 211 may receive and acquire a captured image captured by the imaging unit 13 of the drone 1, instead of or in addition to the captured image transmitted by the imaging device 3. The animal recognition unit 212 recognizes the exclusion target animal A in the region R based on the captured image acquired by the image acquisition unit 211 (S12).

退去位置特定部213は、動物認識部212が出力した認識結果が撮像画像中で動物Aを認識したことを示す場合に、動物認識部212によって認識された動物Aの位置に基づいて動物Aを向かわせる退去位置Pを特定する(S13)。送信部214は、退去位置特定部213が特定した退去位置Pに向かって動物Aを誘導するように飛行するための飛行指示を、ドローン1へ送信する(S14)。 When the recognition result output by the animal recognition unit 212 indicates that the animal A has been recognized in the captured image, the exit position identification unit 213 identifies the animal A based on the position of the animal A recognized by the animal recognition unit 212. The retreat position P to be moved to is specified (S13). The transmitter 214 transmits to the drone 1 a flight instruction for flying to guide the animal A toward the retreat position P identified by the retreat position identifying unit 213 (S14).

ドローン1において、受信部111は、制御サーバ2が送信した飛行指示を受信する。飛行制御部112は、受信部111が受信した飛行指示が示す動物Aの位置及び退去位置Pの関係に基づいて、動物Aを退去位置Pに向かって誘導するようにドローン1を飛行させる制御を行う(S15)。 In the drone 1, the receiving unit 111 receives the flight instruction transmitted by the control server 2. The flight controller 112 controls the flight of the drone 1 so as to guide the animal A toward the exit position P based on the relationship between the position of the animal A and the exit position P indicated by the flight instruction received by the receiver 111. Perform (S15).

飛行制御部112がドローン1を飛行させている最中に、発生部14は、動物Aを退去位置Pに向かって誘導するために、動物Aが忌避する又は動物Aを誘引することが可能な、物質、電気、音及び光のうち少なくとも1つを発生させる(S16)。 While the flight control unit 112 is flying the drone 1, the generating unit 14 can avoid the animal A or attract the animal A in order to guide the animal A toward the retreat position P. , At least one of substance, electricity, sound and light is generated (S16).

[実施形態の効果]
本実施形態に係る無人飛行システムSによれば、ドローン1は、動物Aが領域Rに侵入した退去位置P、又は予め定義された候補位置P1の中から選択した退去位置Pに向かって動物Aを誘導するため、動物Aが領域Rから出て行きやすい。そのため、ドローン1は、動物Aが領域R内で動き回ることを抑制し、動物Aを領域Rから速やかに追い払うことができる。その結果、ドローン1が害獣を追い払う間に敷地が荒らされにくくすることができる。
[Effect of Embodiment]
According to the unmanned flight system S according to the present embodiment, the drone 1 directs the animal A toward the retreat position P where the animal A enters the region R or the retreat position P selected from the predefined candidate positions P1. The animal A easily exits from the region R in order to guide the animal. Therefore, the drone 1 can prevent the animal A from moving around in the region R, and can quickly dispel the animal A from the region R. As a result, the site can be made less likely to be damaged while the drone 1 drives away the harmful beast.

[第1の変形例]
図2に示す無人飛行システムSでは、制御サーバ2が動物の認識及び退去位置の特定を行っているが、ドローン1が動物の認識及び退去位置の特定を行い、自身の飛行制御を行ってもよい。図8は、本変形例に係る無人飛行システムSのブロック図である。本変形例に係る無人飛行システムSは、図2に示す無人飛行システムSと比較して、制御サーバ2を含んでいないという点で異なる。
[First Modification]
In the unmanned flight system S shown in FIG. 2, the control server 2 recognizes the animal and specifies the retreat position, but even if the drone 1 recognizes the animal and specifies the retreat position and performs flight control of itself. Good. FIG. 8 is a block diagram of an unmanned flight system S according to this modification. The unmanned flight system S according to this modification differs from the unmanned flight system S shown in FIG. 2 in that the control server 2 is not included.

本変形例に係るドローン1の制御部11は、上述の画像取得部211、動物認識部212、退去位置特定部213、送信部214及び飛行制御部112として機能する。本変形例に係るドローン1の記憶部12は、上述の認識情報記憶部221及び候補位置記憶部222を有する。 The control unit 11 of the drone 1 according to the present modified example functions as the image acquisition unit 211, the animal recognition unit 212, the exit position identification unit 213, the transmission unit 214, and the flight control unit 112 described above. The storage unit 12 of the drone 1 according to this modification includes the above-described recognition information storage unit 221 and candidate position storage unit 222.

本変形例によれば、ドローン1は、制御サーバ2と通信することなく動物の認識及び退去位置の特定を行い、自身の飛行制御を行うため、山奥のように通信環境を整備しづらい環境においても稼働できる。 According to this modification, the drone 1 recognizes the animal and specifies the exit position without communicating with the control server 2 and controls its own flight. Therefore, in an environment where it is difficult to maintain a communication environment such as in the mountains. Can also work.

[第2の変形例]
動物Aが敷地に侵入した場合に、図4に示す方法ではドローン1は動物Aが敷地に侵入した位置まで追い払うが、ドローン1は敷地から離れた位置まで動物Aを追い払ってもよい。図9は、本変形例に係るドローン1が動物Aを退去位置Pに向かって誘導する方法の模式図である。本変形例において、領域Rは、外側領域R1(第1領域)と、外側領域R1よりも内側の内側領域R2(第2領域)とを含む。内側領域R2は、ドローン1が動物Aを追い払うための飛行を開始する条件とする領域である。外側領域R1は、ドローン1が動物Aの退去位置Pを設定するための領域(すなわち、ドローン1が動物Aを追い払うための飛行を終了する条件とする)領域である。外側領域R1及び内側領域R2のそれぞれの外周に沿った複数の位置に、複数の撮像装置3が配置されている。
[Second Modification]
When the animal A invades the site, the drone 1 drives away the animal A to the site in the method shown in FIG. 4, but the drone 1 may drive the animal A away from the site. FIG. 9 is a schematic diagram of a method in which the drone 1 according to the present modification guides the animal A toward the retreat position P. In this modification, the region R includes an outer region R1 (first region) and an inner region R2 (second region) inside the outer region R1. The inner area R2 is an area which is a condition under which the drone 1 starts a flight for driving away the animal A. The outer region R1 is a region for the drone 1 to set the retreat position P of the animal A (that is, a condition for the drone 1 to finish the flight for driving away the animal A). A plurality of imaging devices 3 are arranged at a plurality of positions along the outer circumferences of the outer region R1 and the inner region R2.

まず動物認識部212は、外側領域R1に沿って配置された撮像装置3又は外側領域R1付近を飛行するドローン1の撮像部13が撮像した撮像画像の中で、動物Aを認識する。動物認識部212が動物Aを認識した場合に、退去位置特定部213は、動物Aが外側領域R1に侵入した位置を、退去位置Pとして特定する。この時点では、送信部214は飛行指示をドローン1に送信しない。 First, the animal recognition unit 212 recognizes the animal A in the captured image captured by the image capturing device 3 arranged along the outer region R1 or the image capturing unit 13 of the drone 1 flying near the outer region R1. When the animal recognition unit 212 recognizes the animal A, the retreat position specifying unit 213 specifies the position where the animal A has entered the outer region R1 as the retreat position P. At this point, the transmission unit 214 does not transmit the flight instruction to the drone 1.

次に動物認識部212は、内側領域R2に沿って配置された撮像装置3又は内側領域R2付近を飛行するドローン1の撮像部13が撮像した撮像画像の中で、動物Aを認識する。動物認識部212が動物Aを認識した場合に、送信部214は、退去位置特定部213が特定した退去位置Pに向かって動物Aを誘導するように飛行するための飛行指示を、ドローン1へ送信する。すなわち、送信部214は、動物Aが内側領域R2に侵入したことを条件として、動物Aが外側領域R1に侵入した退去位置Pに向かって動物Aを誘導するようにドローン1に飛行開始させる。 Next, the animal recognition unit 212 recognizes the animal A in the captured image captured by the image capturing device 3 arranged along the inner region R2 or the image capturing unit 13 of the drone 1 flying near the inner region R2. When the animal recognition unit 212 recognizes the animal A, the transmission unit 214 gives the drone 1 a flight instruction for flying to guide the animal A toward the retreat position P identified by the retreat position identification unit 213. Send. That is, the transmission unit 214 causes the drone 1 to start flying so as to guide the animal A toward the retreat position P where the animal A has entered the outer region R1 on condition that the animal A has entered the inner region R2.

そしてドローン1において、受信部111は、制御サーバ2が送信した飛行指示を受信する。飛行制御部112は、受信部111が受信した飛行指示が示す動物Aの位置及び退去位置Pの関係に基づいて、動物Aを退去位置Pに向かって誘導するようにドローン1を飛行させる制御を行う。 Then, in the drone 1, the receiving unit 111 receives the flight instruction transmitted by the control server 2. The flight controller 112 controls the flight of the drone 1 so as to guide the animal A toward the exit position P based on the relationship between the position of the animal A and the exit position P indicated by the flight instruction received by the receiver 111. To do.

このような構成により、ドローン1は、内側領域R2に侵入した動物Aを、内側領域R2より外側の外側領域R1から出るまで誘導する。そのため、ドローン1は動物Aを内側領域R2から離れた位置まで追い払うことができ、動物が再び内側領域R2に侵入することを抑制できる。 With such a configuration, the drone 1 guides the animal A that has entered the inner region R2 until it exits from the outer region R1 outside the inner region R2. Therefore, the drone 1 can drive the animal A away from the inner region R2 and prevent the animal from entering the inner region R2 again.

(第2の実施形態)
本実施形態に係る無人飛行システムSでは、複数のドローン1が協同して動物Aを領域Rから追い払う。以下では第1の実施形態と異なる点を主に説明する。図10は、本実施形態に係る無人飛行システムSのブロック図である。本実施形態に係る無人飛行システムSは、図2に示す無人飛行システムSと比較して、制御サーバ2を含んでおらず、2種類のドローン1である主ドローン1A(第1無人飛行装置)及び副ドローン1B(第2無人飛行装置)を含んでいるという点で異なる。無人飛行システムSは、複数の副ドローン1Bを含んでもよい。
(Second embodiment)
In the unmanned flight system S according to the present embodiment, the plurality of drones 1 cooperate to drive the animal A away from the area R. Below, the points different from the first embodiment will be mainly described. FIG. 10 is a block diagram of the unmanned flight system S according to this embodiment. The unmanned flight system S according to the present embodiment does not include the control server 2 as compared with the unmanned flight system S shown in FIG. 2 and is a main drone 1A that is two types of drones 1 (first unmanned flight device). And a sub drone 1B (second unmanned aerial vehicle). The unmanned flight system S may include a plurality of sub drones 1B.

主ドローン1Aの制御部11は、第1の実施形態において説明した画像取得部211、動物認識部212、退去位置特定部213及び送信部214として機能する。主ドローン1Aの記憶部12は、第1の実施形態において説明した認識情報記憶部221及び候補位置記憶部222を有する。副ドローン1Bの制御部11は、第1の実施形態において説明した受信部111及び飛行制御部112として機能する。 The control unit 11 of the main drone 1A functions as the image acquisition unit 211, the animal recognition unit 212, the exit position identification unit 213, and the transmission unit 214 described in the first embodiment. The storage unit 12 of the main drone 1A has the recognition information storage unit 221 and the candidate position storage unit 222 described in the first embodiment. The control unit 11 of the sub drone 1B functions as the reception unit 111 and the flight control unit 112 described in the first embodiment.

図11は、本実施形態に係る主ドローン1A及び副ドローン1Bが動物Aを退去位置Pに向かって誘導する方法の模式図である。まず主ドローン1Aにおいて、撮像部13は、主ドローン1Aが領域R内を飛行中に所定の時間間隔で繰り返し撮像する。画像取得部211は、撮像部13が撮像した撮像画像を取得する。主ドローン1Aは、飛行しながら撮像部13を用いて撮像するため、動物Aの位置を正確に捕捉しやすい。画像取得部211は、領域Rの外周に沿って配置された撮像装置3が撮像した撮像画像を取得してもよい。 FIG. 11 is a schematic diagram of a method in which the main drone 1A and the sub drone 1B according to the present embodiment guide the animal A toward the retreat position P. First, in the main drone 1A, the imaging unit 13 repeatedly captures images at predetermined time intervals while the main drone 1A is flying in the region R. The image acquisition unit 211 acquires the captured image captured by the imaging unit 13. Since the main drone 1A captures an image using the imaging unit 13 while flying, it is easy to accurately capture the position of the animal A. The image acquisition unit 211 may acquire a captured image captured by the image capturing device 3 arranged along the outer periphery of the region R.

動物認識部212は、第1の実施形態において説明した方法を用いて、画像取得部211が取得した撮像画像に基づいて、領域Rの中の排除対象の動物Aを認識する。撮像画像中に複数の動物Aを認識した場合に、動物認識部212は、いずれか1頭(例えば主ドローン1Aに最も近い個体)を排除対象の動物A(対象動物)として決定する。動物認識部212は、撮像画像中で動物Aを認識したか否かを示す認識結果を、認識した動物Aの位置と関連付けて出力する。動物Aの位置は、例えば撮像画像を撮像した主ドローン1Aの位置である。 The animal recognition unit 212 uses the method described in the first embodiment to recognize the exclusion target animal A in the region R based on the captured image acquired by the image acquisition unit 211. When a plurality of animals A are recognized in the captured image, the animal recognition unit 212 determines any one (for example, an individual closest to the main drone 1A) as the exclusion target animal A (target animal). The animal recognition unit 212 outputs a recognition result indicating whether or not the animal A is recognized in the captured image in association with the recognized position of the animal A. The position of the animal A is, for example, the position of the main drone 1A capturing the captured image.

退去位置特定部213は、動物認識部212が出力した認識結果が撮像画像中で排除対象の動物Aを認識したことを示す場合に、第1の実施形態において説明した方法を用いて、動物Aを向かわせる退去位置Pを特定する。 If the recognition result output by the animal recognition unit 212 indicates that the exclusion target animal A has been recognized in the captured image, the exit position identification unit 213 uses the method described in the first embodiment, and The withdrawal position P to which the user is directed is specified.

送信部214は、退去位置特定部213が特定した退去位置Pに向かって動物Aを誘導するように飛行するための飛行指示を、副ドローン1Bへ送信する。すなわち、送信部214は、他のドローンである副ドローン1Bの飛行を制御する飛行制御部である。飛行指示は、例えば動物認識部212が出力した動物Aの位置と、退去位置特定部213が特定した退去位置Pと、誘導方法(動物Aを追うこと又は動物Aを引き付けること)とを示す。送信部214は、複数の副ドローン1Bへ異なる飛行指示を送信してもよい。このように主ドローン1Aは、制御サーバ2と通信することなく動物の認識及び退去位置の特定を行い、飛行指示を副ドローン1Bへ直接送信するため、山奥のように通信環境を整備しづらい環境においても稼働できる。 The transmitting unit 214 transmits, to the sub drone 1B, a flight instruction for flying so as to guide the animal A toward the retreat position P identified by the retreat position identifying unit 213. That is, the transmission unit 214 is a flight control unit that controls the flight of the sub drone 1B that is another drone. The flight instruction indicates, for example, the position of the animal A output by the animal recognition unit 212, the retreat position P identified by the retreat position identifying unit 213, and the guidance method (following the animal A or attracting the animal A). The transmission unit 214 may transmit different flight instructions to the plurality of sub drones 1B. In this way, the main drone 1A recognizes the animal and specifies the exit position without communicating with the control server 2 and directly transmits the flight instruction to the sub drone 1B. Therefore, it is difficult to maintain the communication environment like in the mountains. Can also be used in.

副ドローン1Bにおいて、受信部111は、主ドローン1Aが送信した飛行指示を受信する。飛行制御部112は、受信部111が受信した飛行指示が示す動物Aの位置及び退去位置Pの関係に基づいて、動物Aを退去位置Pに向かって誘導するように副ドローン1Bを飛行させる制御を行う。 In the sub drone 1B, the receiving unit 111 receives the flight instruction transmitted by the main drone 1A. The flight control unit 112 controls the sub drone 1B to fly so as to guide the animal A toward the evacuation position P based on the relationship between the position of the animal A and the evacuation position P indicated by the flight instruction received by the reception unit 111. I do.

副ドローン1Bは、飛行指示が示す誘導方法に従って、動物Aを追うように飛行すること、又は動物Aを引き付けるように飛行することによって、動物Aを退去位置Pに向かって誘導する。 The sub-drone 1B guides the animal A toward the retreat position P by following the animal A or by flying so as to attract the animal A according to the guide method indicated by the flight instruction.

副ドローン1Bの飛行制御部112が副ドローン1Bを飛行させている最中に、副ドローン1Bの発生部14は、動物Aを退去位置Pに向かって誘導するために、動物Aが忌避する又は動物Aを誘引することが可能な、物質、電気、音及び光のうち少なくとも1つを発生させる。 While the flight control unit 112 of the sub-drone 1B is flying the sub-drone 1B, the generating unit 14 of the sub-drone 1B guides the animal A toward the retreat position P so that the animal A repels or Generates at least one of a substance, electricity, sound and light capable of attracting the animal A.

図11に示すように、動物Aを追う飛行指示を受けた副ドローン1Bは、副ドローン1Bと退去位置Pとの間に動物Aがいる状態で、動物Aに近付くように飛行する。動物Aを引き付ける飛行指示を受けた副ドローン1Bは、退去位置Pと動物Aとの間を副ドローン1Bが飛行している状態で、動物Aから離れるように飛行する。このように複数の副ドローン1Bが動物Aを挟むように飛行することによって、動物Aを退去位置Pに向かって効率的に誘導できる。 As illustrated in FIG. 11, the sub drone 1B that has received the flight instruction to follow the animal A flies so as to approach the animal A while the animal A is between the sub drone 1B and the retreat position P. The sub-drone 1B that has received the flight instruction to attract the animal A flies away from the animal A while the sub-drone 1B is flying between the retreat position P and the animal A. In this way, the plurality of sub drones 1B fly so as to sandwich the animal A, whereby the animal A can be efficiently guided toward the retreat position P.

図12は、本実施形態に係る無人飛行装置制御方法のシーケンス図である。主ドローン1Aにおいて、画像取得部211は、撮像部13が撮像した撮像画像を取得する(S21)。動物認識部212は、画像取得部211が取得した撮像画像に基づいて、領域Rの中の排除対象の動物Aを認識する(S22)。 FIG. 12 is a sequence diagram of the unmanned flight device control method according to the present embodiment. In the main drone 1A, the image acquisition unit 211 acquires the captured image captured by the imaging unit 13 (S21). The animal recognition unit 212 recognizes the exclusion target animal A in the region R based on the captured image acquired by the image acquisition unit 211 (S22).

退去位置特定部213は、動物認識部212が出力した認識結果が撮像画像中で動物Aを認識したことを示す場合に、動物認識部212によって認識された動物Aの位置に基づいて動物Aを向かわせる退去位置Pを特定する(S23)。送信部214は、退去位置特定部213が特定した退去位置Pに向かって動物Aを誘導するように飛行するための飛行指示を、副ドローン1Bへ送信する(S24)。 When the recognition result output by the animal recognition unit 212 indicates that the animal A has been recognized in the captured image, the exit position identification unit 213 identifies the animal A based on the position of the animal A recognized by the animal recognition unit 212. The retreat position P to be moved to is specified (S23). The transmission unit 214 transmits, to the sub drone 1B, a flight instruction for flying to guide the animal A toward the retreat position P identified by the retreat position identification unit 213 (S24).

副ドローン1Bにおいて、受信部111は、主ドローン1Aが送信した飛行指示を受信する。飛行制御部112は、受信部111が受信した飛行指示が示す動物Aの位置及び退去位置Pの関係に基づいて、動物Aを退去位置Pに向かって誘導するように副ドローン1Bを飛行させる制御を行う(S25)。 In the sub drone 1B, the receiving unit 111 receives the flight instruction transmitted by the main drone 1A. The flight control unit 112 controls the sub drone 1B to fly so as to guide the animal A toward the evacuation position P based on the relationship between the position of the animal A and the evacuation position P indicated by the flight instruction received by the reception unit 111. Is performed (S25).

副ドローン1Bの飛行制御部112が副ドローン1Bを飛行させている最中に、副ドローン1Bの発生部14は、動物Aを退去位置Pに向かって誘導するために、動物Aが忌避する又は動物Aを誘引することが可能な、物質、電気、音及び光のうち少なくとも1つを発生させる(S26)。 While the flight control unit 112 of the sub-drone 1B is flying the sub-drone 1B, the generating unit 14 of the sub-drone 1B guides the animal A toward the retreat position P so that the animal A repels or At least one of a substance, electricity, sound, and light capable of attracting the animal A is generated (S26).

[実施形態の効果]
本実施形態に係る無人飛行システムSによれば、主ドローン1Aが動物Aを捕捉しながら、副ドローン1Bが主ドローン1Aから受信した飛行指示に従って動物Aを退去位置Pへ誘導する。そのため、主ドローン1A及び副ドローン1Bは、動物Aを退去位置Pへ効率的に誘導できる。
[Effect of Embodiment]
According to the unmanned flight system S according to the present embodiment, while the main drone 1A captures the animal A, the sub drone 1B guides the animal A to the retreat position P according to the flight instruction received from the main drone 1A. Therefore, the main drone 1A and the sub drone 1B can efficiently guide the animal A to the retreat position P.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist thereof. is there. For example, the specific embodiment of the distribution/integration of the device is not limited to the above-described embodiment, and all or a part thereof may be functionally or physically distributed/integrated in arbitrary units to be configured. You can Further, a new embodiment that occurs due to an arbitrary combination of a plurality of embodiments is also included in the embodiment of the present invention. The effect of the new embodiment produced by the combination has the effect of the original embodiment.

ドローン1及び制御サーバ2のプロセッサは、図7、12に示す無人飛行装置制御方法に含まれる各ステップ(工程)の主体となる。すなわち、ドローン1及び制御サーバ2のプロセッサは、図7、12に示す無人飛行装置制御方法を実行するためのプログラムを記憶部から読み出し、該プログラムを実行して無人飛行システムSの各部を制御することによって、図7、12に示す無人飛行装置制御方法を実行する。図7、12に示す無人飛行装置制御方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。 The drone 1 and the processor of the control server 2 are the main components of the steps (processes) included in the unmanned aerial vehicle control method shown in FIGS. That is, the processors of the drone 1 and the control server 2 read a program for executing the unmanned flight device control method shown in FIGS. 7 and 12 from the storage unit and execute the program to control each unit of the unmanned flight system S. In this way, the unmanned aerial vehicle control method shown in FIGS. The steps included in the unmanned flight device control method shown in FIGS. 7 and 12 may be partially omitted, the order between the steps may be changed, and a plurality of steps may be performed in parallel.

S 無人飛行システム
1 ドローン
1A 主ドローン
1B 副ドローン
11 制御部
111 受信部
112 飛行制御部
14 発生部
2 制御サーバ
21 制御部
211 画像取得部
212 動物認識部
213 退去位置特定部
214 送信部
22 記憶部
221 認識情報記憶部
222 候補位置記憶部
A 動物
IM 撮像画像
P 退去位置
P1 候補位置
R 領域
R1 外側領域
R2 内側領域
S Unmanned Flight System 1 Drone 1A Main Drone 1B Sub Drone 11 Control Unit 111 Reception Unit 112 Flight Control Unit 14 Generation Unit 2 Control Server 21 Control Unit 211 Image Acquisition Unit 212 Animal Recognition Unit 213 Evacuation Position Specification Unit 214 Transmission Unit 22 Storage Unit 221 recognition information storage unit 222 candidate position storage unit A animal IM captured image P exit position P1 candidate position R region R1 outside region R2 inside region

Claims (13)

無人飛行装置であって、
所定領域の中を撮像した撮像画像を取得する画像取得部と、
前記撮像画像に基づいて、前記所定領域の中の動物を認識する動物認識部と、
前記所定領域に関連付けられた退去位置を特定する退去位置特定部と、
前記動物を前記退去位置に向かって誘導するように前記無人飛行装置又は他の無人飛行装置を飛行させる飛行制御部と、
を有する無人飛行装置。
An unmanned aerial vehicle,
An image acquisition unit that acquires a captured image obtained by imaging the inside of a predetermined area,
An animal recognition unit that recognizes an animal in the predetermined area based on the captured image,
An evacuation position specifying unit that specifies an evacuation position associated with the predetermined area,
A flight controller for flying the unmanned aerial vehicle or other unmanned aerial vehicle so as to guide the animal toward the retreat position;
Unmanned aerial vehicle with.
前記動物認識部は、前記撮像画像を記憶部に予め記憶された特徴量と比較することによって、前記撮像画像中の前記動物を認識する、請求項1に記載の無人飛行装置。 The unmanned flight device according to claim 1, wherein the animal recognition unit recognizes the animal in the captured image by comparing the captured image with a characteristic amount stored in advance in a storage unit. 前記動物認識部は、前記撮像画像を入力することにより前記撮像画像中で前記動物を認識したか否かを示す情報を出力する機械学習モデルに前記撮像画像を入力することで、前記撮像画像中の前記動物を認識する、請求項1に記載の無人飛行装置。 In the captured image, the animal recognition unit inputs the captured image to a machine learning model that outputs information indicating whether the animal is recognized in the captured image by inputting the captured image. The unmanned aerial vehicle of claim 1, wherein the unmanned aerial vehicle recognizes the animal. 前記無人飛行装置の位置と、前記動物の位置と、前記退去位置との関係に基づいて、前記動物が忌避する物質、電気、音及び光のうち少なくとも1つ、又は前記動物を誘引する物質、電気、音及び光のうち少なくとも1つを発生させる発生部をさらに有する、請求項1から3のいずれか一項に記載の無人飛行装置。 Based on the relationship between the position of the unmanned aerial vehicle, the position of the animal, and the evacuation position, at least one of a substance repelled by the animal, electricity, sound and light, or a substance that attracts the animal, The unmanned flight device according to any one of claims 1 to 3, further comprising a generator that generates at least one of electricity, sound, and light. 前記退去位置特定部は、前記動物が前記所定領域に侵入した位置を前記退去位置として特定する、請求項1から4のいずれか一項に記載の無人飛行装置。 The unmanned flight device according to any one of claims 1 to 4, wherein the retreat position identification unit identifies a position at which the animal has entered the predetermined area as the retreat position. 前記退去位置特定部は、前記動物が前記所定領域のうち第1領域に侵入した位置を前記退去位置として特定し、
前記飛行制御部は、前記動物が前記所定領域のうち前記第1領域よりも内側の第2領域に侵入したことを条件として、前記動物を前記退去位置に向かって誘導するように前記無人飛行装置又は前記他の無人飛行装置を飛行させる、請求項5に記載の無人飛行装置。
The retreat position specifying unit specifies a position where the animal has entered the first region of the predetermined region as the retreat position,
The flight control unit is configured to guide the animal toward the retreat position on the condition that the animal has invaded a second area inside the first area of the predetermined area. Alternatively, the unmanned aerial vehicle according to claim 5, which causes the other unmanned aerial vehicle to fly.
前記所定領域に関連付けられた複数の候補位置を予め記憶する記憶部をさらに有し、
前記退去位置特定部は、前記動物の位置に基づいて、前記複数の候補位置のうちいずれか1つの候補位置を前記退去位置として特定する、請求項1から5のいずれか一項に記載の無人飛行装置。
A storage unit that stores in advance a plurality of candidate positions associated with the predetermined area,
The unmanned person according to any one of claims 1 to 5, wherein the exit position identification unit identifies any one of the plurality of candidate positions as the exit position based on the position of the animal. Flight equipment.
前記退去位置特定部は、前記複数の候補位置のうち前記動物の位置に最も近い候補位置を前記退去位置として特定する、請求項7に記載の無人飛行装置。 The unmanned flight device according to claim 7, wherein the retreat position identification unit identifies a candidate position closest to the position of the animal among the plurality of candidate positions as the retreat position. 前記退去位置特定部は、前記無人飛行装置又は前記他の無人飛行装置が前記動物を前記退去位置に向かって誘導するように飛行している最中に、前記退去位置を、前記動物の位置に基づいて、前記複数の候補位置のうちいずれか1つの候補位置に変更する、請求項7又は8に記載の無人飛行装置。 The retreat position specifying unit, while the unmanned flight device or the other unmanned flight device is flying to guide the animal toward the retreat position, the retreat position, the position of the animal The unmanned aerial vehicle according to claim 7 or 8, which changes to any one of the plurality of candidate positions based on the plurality of candidate positions. 第1無人飛行装置と、第2無人飛行装置とを含み、
前記第1無人飛行装置は、
所定領域の中を撮像した撮像画像を取得する画像取得部と、
前記撮像画像に基づいて、前記所定領域の中の動物を認識する動物認識部と、
前記所定領域に関連付けられた退去位置を特定する退去位置特定部と、
前記動物を前記退去位置に向かって誘導するように飛行するための指示を送信する送信部と、
を有し、
前記第2無人飛行装置は、
前記第1無人飛行装置から前記指示を受信する受信部と、
前記受信部が受信した前記指示に従って前記第2無人飛行装置を飛行させる飛行制御部と、
を有する、無人飛行システム。
A first unmanned aerial vehicle and a second unmanned aerial vehicle,
The first unmanned aerial vehicle is
An image acquisition unit that acquires a captured image obtained by imaging the inside of a predetermined area,
An animal recognition unit that recognizes an animal in the predetermined area based on the captured image,
An evacuation position specifying unit that specifies an evacuation position associated with the predetermined area,
A transmitting unit for transmitting an instruction to fly the animal so as to guide the animal toward the evacuation position;
Have
The second unmanned aerial vehicle is
A receiver for receiving the instruction from the first unmanned aerial vehicle,
A flight control unit for flying the second unmanned aerial vehicle according to the instruction received by the receiving unit;
Having an unmanned flight system.
前記第1無人飛行装置の前記動物認識部は、複数の前記動物を認識した場合に、複数の前記動物のうちいずれか1頭を対象動物として決定し、
前記第1無人飛行装置の前記送信部は、前記対象動物の位置を含む前記指示を送信し、
前記第2無人飛行装置の前記受信部は、前記第1無人飛行装置から前記対象動物の位置を含む前記指示を受信し、
前記第2無人飛行装置の前記飛行制御部は、前記対象動物の位置と前記退去位置との関係に基づいて、前記対象動物を前記退去位置に向かって誘導するように前記第2無人飛行装置を飛行させる、請求項10に記載の無人飛行システム。
The animal recognition unit of the first unmanned flying device, when recognizing a plurality of the animals, determines any one of the plurality of animals as a target animal,
The transmitter of the first unmanned aerial vehicle transmits the instruction including the position of the target animal,
The receiving unit of the second unmanned aerial vehicle receives the instruction including the position of the target animal from the first unmanned aerial vehicle,
The flight control unit of the second unmanned aerial vehicle controls the second unmanned aerial vehicle so as to guide the target animal toward the evacuation position based on the relationship between the position of the target animal and the evacuation position. The unmanned flight system of claim 10, which is caused to fly.
少なくとも2つの前記第2無人飛行装置を含み、
前記第1無人飛行装置の前記送信部は、1つの前記第2無人飛行装置に、前記動物を追うように飛行するための前記指示を送信するとともに、別の前記第2無人飛行装置に、前記動物を引き付けるように飛行するための前記指示を送信する、請求項10又は11に記載の無人飛行システム。
Including at least two of the second unmanned aerial vehicles,
The transmitter of the first unmanned aerial vehicle transmits the instruction to fly to follow the animal to one of the second unmanned aerial vehicles, and the second unmanned aerial vehicle to the second unmanned aerial vehicle. 12. An unmanned flight system according to claim 10 or 11, which transmits the instructions for flying to attract animals.
情報処理装置と、無人飛行装置とを含み、
前記情報処理装置は、
所定領域の中を撮像した撮像画像を取得する画像取得部と、
前記撮像画像に基づいて、前記所定領域の中の動物を認識する動物認識部と、
前記所定領域に関連付けられた退去位置を特定する退去位置特定部と、
前記動物を前記退去位置に向かって誘導するように飛行するための指示を送信する送信部と、
を有し、
前記無人飛行装置は、
前記情報処理装置から前記指示を受信する受信部と、
前記受信部が受信した前記指示に従って前記無人飛行装置を飛行させる飛行制御部と、
を有する、無人飛行装置制御システム。
Including an information processing device and an unmanned flight device,
The information processing device,
An image acquisition unit that acquires a captured image obtained by imaging the inside of a predetermined area,
An animal recognition unit that recognizes an animal in the predetermined area based on the captured image,
An evacuation position specifying unit that specifies an evacuation position associated with the predetermined area,
A transmitting unit for transmitting an instruction to fly the animal so as to guide the animal toward the evacuation position;
Have
The unmanned aerial vehicle is
A receiver for receiving the instruction from the information processing device,
A flight controller for flying the unmanned aerial vehicle according to the instruction received by the receiver;
An unmanned aerial vehicle control system.
JP2018232518A 2018-12-12 2018-12-12 Unmanned aerial vehicle, unmanned aerial vehicle system and unmanned aerial vehicle control system Active JP6704979B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018232518A JP6704979B1 (en) 2018-12-12 2018-12-12 Unmanned aerial vehicle, unmanned aerial vehicle system and unmanned aerial vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018232518A JP6704979B1 (en) 2018-12-12 2018-12-12 Unmanned aerial vehicle, unmanned aerial vehicle system and unmanned aerial vehicle control system

Publications (2)

Publication Number Publication Date
JP6704979B1 JP6704979B1 (en) 2020-06-03
JP2020092643A true JP2020092643A (en) 2020-06-18

Family

ID=70858092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018232518A Active JP6704979B1 (en) 2018-12-12 2018-12-12 Unmanned aerial vehicle, unmanned aerial vehicle system and unmanned aerial vehicle control system

Country Status (1)

Country Link
JP (1) JP6704979B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372505B1 (en) * 2021-08-19 2022-03-08 최진호 Air drone device for tracking and observing wild animal
WO2023059257A1 (en) * 2021-10-08 2023-04-13 Flox Ab Repellence system and repellence method for repelling animals
WO2024055066A1 (en) * 2022-09-13 2024-03-21 Stoneleigh Pastoral Pty Ltd Transmitter system and method for controlling animals

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115299428A (en) * 2022-08-04 2022-11-08 国网江苏省电力有限公司南通供电分公司 Intelligent bird system that drives of thing networking based on degree of depth study
JP7445909B1 (en) 2023-08-21 2024-03-08 株式会社ヤマサ Pest control systems and pest control programs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170054808A (en) * 2015-11-10 2017-05-18 경희대학교 산학협력단 The system of exterminating harmful animals and the method of using them
JP2018050503A (en) * 2016-09-27 2018-04-05 正秀 小林 System and method for repelling or exterminating harmful animal
JP2018157767A (en) * 2017-03-22 2018-10-11 国立研究開発法人国立環境研究所 Warning method
JP2018174757A (en) * 2017-04-07 2018-11-15 福岡金網工業株式会社 Management system for capturing and pasturing wild animal for gibier by drone

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170054808A (en) * 2015-11-10 2017-05-18 경희대학교 산학협력단 The system of exterminating harmful animals and the method of using them
JP2018050503A (en) * 2016-09-27 2018-04-05 正秀 小林 System and method for repelling or exterminating harmful animal
JP2018157767A (en) * 2017-03-22 2018-10-11 国立研究開発法人国立環境研究所 Warning method
JP2018174757A (en) * 2017-04-07 2018-11-15 福岡金網工業株式会社 Management system for capturing and pasturing wild animal for gibier by drone

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372505B1 (en) * 2021-08-19 2022-03-08 최진호 Air drone device for tracking and observing wild animal
WO2023059257A1 (en) * 2021-10-08 2023-04-13 Flox Ab Repellence system and repellence method for repelling animals
WO2024055066A1 (en) * 2022-09-13 2024-03-21 Stoneleigh Pastoral Pty Ltd Transmitter system and method for controlling animals

Also Published As

Publication number Publication date
JP6704979B1 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
JP6704979B1 (en) Unmanned aerial vehicle, unmanned aerial vehicle system and unmanned aerial vehicle control system
US10922984B1 (en) Drone marker and landing zone verification
JP6821529B2 (en) Management equipment, programs and management methods
US10440936B2 (en) Livestock registration system and registration method for livestock
US10121117B1 (en) Drone location signature filters
KR101982686B1 (en) Method for registration and identity verification of using companion animal’s muzzle pattern
US9922049B2 (en) Information processing device, method of processing information, and program for processing information
WO2017071084A1 (en) Alarm method and device
US11576367B2 (en) System and methods for automated wildlife detection, monitoring and control
CN109933083B (en) Grazing method, device and system based on unmanned aerial vehicle
US20200226360A1 (en) System and method for automatically detecting and classifying an animal in an image
JP7111175B2 (en) Object recognition system, recognition device, object recognition method, and object recognition program
WO2018161217A1 (en) A transductive and/or adaptive max margin zero-shot learning method and system
CN111476179A (en) Behavior prediction method for key target, AI tracking camera and storage medium
EP3462734A1 (en) Systems and methods for directly accessing video data streams and data between devices in a video surveillance system
US20220067377A1 (en) Device for managing environment of breeding farm
KR20200139616A (en) Apparatus and method for detecting abnormal objects
KR20200009530A (en) System and method for detecting abnormal object
Prabhakaran et al. Autonomous intelligent UAV system for criminal pursuita proof of concept
JP2022132327A (en) Birds-and-beasts threatening system and birds-and-beasts threatening method
Salmon et al. Mobile Bot Swarms: They're closer than you might think!
KR102300348B1 (en) Drone for sharing field situation based on real-time image analysis, and control method thereof
JP7300958B2 (en) IMAGING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM
US20210092277A1 (en) Apparatus and method for detecting unmanned aerial vehicle
CN111291597B (en) Crowd situation analysis method, device, equipment and system based on image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200513

R150 Certificate of patent or registration of utility model

Ref document number: 6704979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250