JP7155062B2 - Surveillance system and flying robot - Google Patents

Surveillance system and flying robot Download PDF

Info

Publication number
JP7155062B2
JP7155062B2 JP2019064232A JP2019064232A JP7155062B2 JP 7155062 B2 JP7155062 B2 JP 7155062B2 JP 2019064232 A JP2019064232 A JP 2019064232A JP 2019064232 A JP2019064232 A JP 2019064232A JP 7155062 B2 JP7155062 B2 JP 7155062B2
Authority
JP
Japan
Prior art keywords
captured
target animal
image
flying robot
animal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019064232A
Other languages
Japanese (ja)
Other versions
JP2020162438A (en
Inventor
侑大 岩永
幸一 尾坐
憲 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019064232A priority Critical patent/JP7155062B2/en
Publication of JP2020162438A publication Critical patent/JP2020162438A/en
Application granted granted Critical
Publication of JP7155062B2 publication Critical patent/JP7155062B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Catching Or Destruction (AREA)
  • Burglar Alarm Systems (AREA)

Description

監視区域に侵入した侵入物体を監視する監視システム及び飛行ロボットに関する。 The present invention relates to a monitoring system and a flying robot that monitor an intruding object that has entered a monitoring area.

近年、野生の鹿又は熊等の野生動物が、圃場に侵入し、当該圃場で栽培されている農作物を荒らすといった農作物被害が増加している。このような農作物被害の対策のため、野生動物が圃場に侵入しないような囲いを設置したり、圃場に侵入した野生動物を圃場の外に追い出すような装置を設置したりする対策が行われている。 In recent years, there has been an increase in crop damage such as wild animals such as wild deer and bears invading fields and destroying crops grown in the fields. As a countermeasure against such damage to crops, measures have been taken such as installing fences to prevent wild animals from entering fields and installing devices to drive out wild animals that have invaded fields from the fields. there is

例えば、特許文献1には、ドローン等の無人飛行ロボットが、予め定められた航路を自動飛行しながら忌避剤を散布することによって、野生動物を圃場から特定の場所に追い込み捕獲する技術が記載されている。 For example, Patent Literature 1 describes a technology in which an unmanned flying robot such as a drone sprays a repellent while automatically flying along a predetermined route, thereby chasing and capturing wild animals from a field to a specific location. ing.

また、特許文献2には、無人飛行ロボットが光学カメラ等の撮像装置を搭載して、駐車場内の物体を示す画像を含む撮像画像を順次取得することで、駐車場内を監視する技術が記載されている。 Further, Patent Document 2 describes a technique for monitoring the inside of a parking lot by having an unmanned flying robot equipped with an imaging device such as an optical camera and sequentially acquiring captured images including images showing objects in the parking lot. ing.

特開2018-99044号公報JP 2018-99044 A 特開2014-119827号公報JP 2014-119827 A

飛行ロボットが野生動物を圃場等の監視区域の外へ追い出す従来のシステムでは、野生動物が飛行ロボットに馴れた場合、野生動物の方に飛行ロボットを以前よりも接近させなければ、野生動物は飛行ロボットから逃げずに監視区域に留まってしまう場合があった。 In a conventional system in which a flying robot drives wild animals out of a monitoring area such as a farm field, if the wild animals become accustomed to the flying robots, the wild animals must be brought closer to the flying robots than before. There were cases where the robot stayed in the surveillance area without escaping.

野生動物による農作物被害の対策のため、撮像画像を順次取得しながら飛行する飛行ロボットが用いられる場合、飛行ロボットが野生動物に接近すると、野生動物の急な動きによって、野生動物が撮像画像に含まれない位置に逃げてしまうことがあった。人や自動車等の追跡においては、速度変化等により撮影画像に含まれなくなっても直前の移動方向等から予測して継続して追跡が可能な場合がある。しかし、野生動物は一見規則性がないと思われる特有の動きをする場合があり、飛行ロボットは、野生動物の動きを予測できず、野生動物の姿を捉えられなくなってしまうという問題が発生していた。また、上述のように野生動物の動きが不規則であることが多いため、飛行ロボットは、一旦、野生動物を捉えておくことに失敗すると、その後、野生動物の追跡が困難になってしまい、野生動物を見失ってしまうこともあった。 When a flying robot that flies while sequentially acquiring captured images is used to prevent crop damage caused by wild animals, when the flying robot approaches a wild animal, the sudden movement of the wild animal causes the wild animal to be included in the captured image. Sometimes I ran away to a position where I couldn't. In tracking a person or a car, even if it is not included in a photographed image due to a change in speed or the like, there are cases in which it is possible to continue tracking by predicting from the previous movement direction or the like. However, wild animals sometimes make unique movements that seem to have no regularity at first glance. was In addition, since the movement of wild animals is often irregular as described above, once a flying robot fails to capture a wild animal, it becomes difficult to track the wild animal. I even lost track of wild animals.

本発明は、このような課題を解決すべくなされたものであり、順次取得された撮像画像によって野生動物等の侵入物体を捉えて追跡している場合において、追跡に失敗しても、追跡失敗前の撮像画像に基づいて侵入物体の移動方向を推定することで侵入物体の追跡の継続を可能とする監視システム及び飛行ロボットを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve such problems. It is an object of the present invention to provide a monitoring system and a flying robot that enable continuous tracking of an intruding object by estimating the moving direction of the intruding object based on the previous captured image.

また、本発明の監視システム及び飛行ロボットは、上述のように推定した移動方向と実際に侵入物体が移動した方向とに基づいて、侵入物体の移動方向の推定精度を向上させ、侵入物体特有の動きに対応して、侵入物体を追跡することを可能にする。 Further, the monitoring system and flying robot of the present invention improve the accuracy of estimating the direction of movement of the intruding object based on the direction of movement estimated as described above and the direction in which the intruding object actually moved, and Responsive to movement, it enables tracking of intruding objects.

本発明に係る監視システムは、監視区域に侵入した侵入物体を検知する検知センサと、撮像画像を順次取得する画像取得部を有し、検知センサが侵入物体を検知すると自律的に飛行する飛行ロボットと、を備えた監視システムであって、検知センサは、侵入物体の検知に応じて、侵入物体の侵入位置を示す侵入位置情報を出力し、飛行ロボットは、飛行ロボットの飛行を制御する飛行制御部と、侵入位置情報を取得する位置取得部と、侵入位置情報によって示される侵入位置付近を飛行中に取得された撮像画像において対象動物を捉えたか否かを判定する画像認識部と、撮像画像に対象動物を捉えたと判定した場合、以降において取得された撮像画像に対象動物を捉えられる位置に飛行するように飛行制御部に指示するメイン制御部、とを有し、画像認識部は、撮像画像に対象動物を捉えた後に、撮像画像に対象動物を捉えていないと判定すると、対象動物を捉えられなくなる直前の撮像画像における対象動物を示す対象画像に基づいて、対象動物の移動方向を推定し、メイン制御部は、画像取得部の撮像方向が推定された移動方向に変更されるように、飛行ロボットの向きを変更することを飛行制御部に指示する。 A surveillance system according to the present invention includes a detection sensor that detects an intruding object that has entered a surveillance area and an image acquisition unit that sequentially acquires captured images, and a flying robot that autonomously flies when the detection sensor detects an intruding object. and wherein the detection sensor outputs intrusion position information indicating the intrusion position of the intruding object in response to detection of the intruding object, and the flying robot performs flight control for controlling the flight of the flying robot. a position acquisition unit that acquires intrusion position information; an image recognition unit that determines whether or not a target animal is captured in a captured image acquired during flight in the vicinity of the intrusion position indicated by the intrusion position information; a main control unit that instructs the flight control unit to fly to a position where the target animal can be captured in the captured image acquired thereafter when it is determined that the target animal is captured in the image recognition unit; After capturing the target animal in the image, if it is determined that the target animal is not captured in the captured image, the moving direction of the target animal is estimated based on the target image showing the target animal in the captured image immediately before the target animal is no longer captured. Then, the main control unit instructs the flight control unit to change the direction of the flying robot so that the imaging direction of the image acquisition unit is changed to the estimated movement direction.

また、本発明に係る監視システムにおいて、画像認識部は、動物を示す動物画像と当該動物の種別及び向きを示す情報とを教師データとして用いた機械学習によって生成された学習モデルによって、撮像画像に対象動物が捉えられなくなる直前の撮像画像に捉えられている対象動物を示す対象画像から推定される対象動物の種別及び向きを推定し、推定した向きを、対象動物の移動方向とすることが好ましい。 Further, in the monitoring system according to the present invention, the image recognition unit uses a learning model generated by machine learning using an animal image representing an animal and information representing the type and orientation of the animal as teacher data to convert the captured image into It is preferable to estimate the type and direction of the target animal estimated from the target image showing the target animal captured in the captured image immediately before the target animal is no longer captured, and set the estimated direction as the moving direction of the target animal. .

また、本発明に係る監視システムにおいて、飛行ロボットは、記憶部を更に有し、画像認識部は、メイン制御部による指示によって撮像方向が変更された後の撮像画像に対象動物を捉えたか否かを判定した結果を検知確率情報として記憶部に記憶し、メイン制御部は、撮像方向が変更された後の撮像画像に対象動物を捉えていないと判定された場合、撮像方向が他の方向に変更されるように、飛行ロボットの向きを変更することを飛行制御部に再指示し、検知確率情報に基づいて、対象動物の移動方向を推定し、撮像方向を決定することが好ましい。 Further, in the monitoring system according to the present invention, the flying robot further has a storage unit, and the image recognition unit determines whether or not the target animal has been captured in the captured image after the imaging direction has been changed according to the instruction from the main control unit. is stored in the storage unit as detection probability information, and when it is determined that the target animal is not captured in the captured image after the imaging direction is changed, the main control unit changes the imaging direction to another direction. It is preferable to re-instruct the flight control unit to change the direction of the flying robot so as to change the orientation, estimate the moving direction of the target animal based on the detection probability information, and determine the imaging direction.

また、本発明に係る監視システムにおいて、飛行ロボットは、監視区域に侵入物体を監視区域の外に追い出すための出口位置に向かって自律的に飛行可能であり、画像認識部は、監視区域に侵入した対象動物が複数である場合、複数の対象動物のうち、出口位置との距離が最長である対象動物を追い出し対象として特定することが好ましい。 Further, in the surveillance system according to the present invention, the flying robot can autonomously fly toward an exit position for expelling an intruding object out of the surveillance area, and the image recognition unit is capable of intruding into the surveillance area. If there are a plurality of target animals, it is preferable to specify the target animal that is the longest from the exit position as the target to be kicked out.

また、本発明に係る監視システムにおいて、飛行ロボットは、監視区域に侵入物体を監視区域の外に追い出すための出口位置に向かって自律的に飛行可能であり、画像認識部は、監視区域に侵入した対象動物が複数である場合、複数の対象動物のそれぞれの移動方向を推定し、推定された各対象動物の移動方向のうち、出口位置への方向となす角度が最大である対象動物を追い出し対象として特定することが好ましい。 Further, in the surveillance system according to the present invention, the flying robot can autonomously fly toward an exit position for expelling an intruding object out of the surveillance area, and the image recognition unit is capable of intruding into the surveillance area. If there are multiple target animals, the direction of movement of each of the target animals is estimated, and the target animal that forms the largest angle with the direction to the exit position among the estimated moving directions of each target animal is ejected. It is preferable to specify it as a target.

また、本発明に係る監視システムにおいて、画像認識部は、推定された移動方向を状態とし、撮像方向の特定方向を行動とした場合における、行動に対する価値を定めた行動価値関数に基づいて、対象動物の移動方向を推定し、飛行ロボットは、推定された移動方向において、飛行ロボットの向きを変更することにより撮像画像に対象動物が捉えられるようになった撮像方向を変更した方向に基づいて各行動に報酬を設定して、行動価値関数を更新する更新部を更に有することが好ましい。 Further, in the monitoring system according to the present invention, the image recognition unit uses the estimated moving direction as the state and the specific direction of the imaging direction as the action, based on the action value function that defines the value for the action, the object The moving direction of the animal is estimated, and the flying robot changes the orientation of the flying robot in the estimated moving direction so that the target animal can be captured in the captured image. It is preferable to further include an updating unit that sets a reward for the action and updates the action-value function.

本発明に係る飛行ロボットは、撮像画像を順次取得する画像取得部を有し、自律的に飛行可能な飛行ロボットであって、飛行ロボットの飛行を制御する飛行制御部と、飛行中に取得された撮像画像において対象動物を捉えたか否かを判定する画像認識部と、撮像画像に対象動物を捉えたと判定された場合、以降において取得された撮像画像に対象動物を捉えられる位置に向かう飛行を飛行制御部に指示するメイン制御部と、を有し、画像認識部は、撮像画像に対象動物を捉えた後に、撮像画像に対象動物を捉えていないと判定すると、対象動物を捉えられなくなる直前の撮像画像における対象動物を示す対象画像に基づいて、対象動物の移動方向を推定し、メイン制御部は、画像取得部の撮像方向が推定された移動方向に変更されるように、飛行ロボットの向きを変更することを飛行制御部に指示する。 A flying robot according to the present invention has an image acquisition unit that sequentially acquires captured images and is capable of flying autonomously. An image recognition unit that determines whether or not the target animal has been captured in the captured image, and if it is determined that the target animal has been captured in the captured image, flight toward a position where the target animal can be captured in the captured image acquired thereafter. a main control unit that instructs the flight control unit, and the image recognition unit determines that the target animal is not captured in the captured image after capturing the target animal in the captured image, immediately before the target animal cannot be captured. based on the target image showing the target animal in the captured image of , the main control unit controls the flying robot so that the imaging direction of the image acquisition unit is changed to the estimated moving direction. Instruct the flight controller to change orientation.

本発明に係る監視システム及び飛行ロボットは、順次取得された撮像画像によって侵入物体を捉えて追跡している場合において、追跡に失敗しても、追跡失敗前の撮像画像に基づいて侵入物体の移動方向を推定することで侵入物体の追跡の継続を可能とする。 In the monitoring system and flying robot according to the present invention, when an intruding object is captured and tracked by captured images sequentially acquired, even if tracking fails, the intruding object moves based on the captured images before the tracking failure. Estimating the direction allows continued tracking of the intruding object.

監視システムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of a monitoring system. 飛行ロボットの斜視図の一例を示す図である。It is a figure which shows an example of the perspective view of a flying robot. メイン処理のフローチャートの一例を示す図である。FIG. 7 is a diagram showing an example of a flowchart of main processing; 追い出し飛行の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of a drive-out flight. 分類クラスの一例を説明するための模式図である。FIG. 4 is a schematic diagram for explaining an example of classification classes; 向きの変更の動作の一例を示す模式図である。FIG. 11 is a schematic diagram showing an example of an orientation change operation;

以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Various embodiments of the present invention will now be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments, but extends to the invention described in the claims and equivalents thereof.

(監視システム1)
図1は、監視システム1の概略構成の一例を示す図である。監視システム1は、検知センサ2、コントローラ3、及び飛行ロボット4を備える。コントローラ3は、所定の通信ネットワーク5(5a,5b)を介して検知センサ2及び飛行ロボット4と接続する。所定の通信ネットワーク5(5a,5b)は、IP(Internet Protocol)網、一般公衆回線網、移動通信電話網等である。
(Monitoring system 1)
FIG. 1 is a diagram showing an example of a schematic configuration of a monitoring system 1. As shown in FIG. A monitoring system 1 comprises a detection sensor 2 , a controller 3 and a flying robot 4 . The controller 3 connects with the detection sensor 2 and the flying robot 4 via a predetermined communication network 5 (5a, 5b). The predetermined communication network 5 (5a, 5b) is an IP (Internet Protocol) network, a general public line network, a mobile communication telephone network, or the like.

(検知センサ2)
検知センサ2は、監視区域内又は監視区域周辺に配置される。検知センサ2は、例えば、レーザセンサである。検知センサ2は、マイクロ波センサ、超音波センサ、又は画像センサ等でもよい。監視システム1は、複数の検知センサ2を備えてもよい。例えば、複数の検知センサ2は、監視区域内及び監視区域周辺のそれぞれに配置されてもよい。また、複数の検知センサ2は、監視区域内及び監視区域周辺の少なくとも一方に配置されてもよい。さらに、検知センサ2は、飛行ロボット4に搭載されていてもよく、飛行ロボット4が監視区域を巡回飛行中に、飛行ロボット4に搭載された画像センサ等の検知センサ2で監視区域内に侵入物体が侵入したか否かを判定するようにしてもよい。
(Detection sensor 2)
The detection sensors 2 are arranged in or around the monitored area. The detection sensor 2 is, for example, a laser sensor. The detection sensor 2 may be a microwave sensor, an ultrasonic sensor, an image sensor, or the like. The monitoring system 1 may comprise multiple detection sensors 2 . For example, multiple detection sensors 2 may be placed in and around the monitored area, respectively. Also, the plurality of detection sensors 2 may be arranged in at least one of the monitored area and the periphery of the monitored area. Furthermore, the detection sensor 2 may be mounted on the flying robot 4, and while the flying robot 4 is patrolling the monitoring area, the detection sensor 2, such as an image sensor mounted on the flying robot 4, may enter the monitoring area. It may be determined whether or not an object has entered.

検知センサ2は、監視区域に侵入した侵入物体が対象動物の可能性があると判定した場合、所定の通信ネットワーク5aを介して、検知信号をコントローラ3に送信する。対象動物は、監視システム1が監視する対象の動物であり、例えば、野生の鹿、猪、及び熊等である。対象動物の判定に、侵入物体の大きさ及び速度の少なくとも一方が用いられる。対象動物の判定に、大きさ及び速度以外の指標(例えば、移動パターン等)が用いられてもよい。検知信号は、侵入物体の侵入位置データを含む。侵入物体の侵入位置データは、侵入物体が対象動物と判定された際の侵入物体が位置する3次元座標又は平面2次元座標を示すデータである。 The detection sensor 2 transmits a detection signal to the controller 3 via the predetermined communication network 5a when it determines that the intruding object that has entered the monitoring area may be the target animal. The target animal is an animal to be monitored by the monitoring system 1, such as wild deer, wild boar, and bear. At least one of the size and speed of the intruding object is used to determine the target animal. Indices other than size and speed (for example, movement patterns, etc.) may be used to determine the target animal. The detection signal includes intrusion position data of the intruding object. The intruding position data of the intruding object is data indicating the three-dimensional coordinates or two-dimensional coordinates of the position of the intruding object when the intruding object is determined to be the target animal.

例えば、検知センサ2がレーザセンサである場合、検知センサ2のレーザ照射部分は、監視区域内の予め設定された検知範囲に対して、探査信号(レーザ光)を所定周期で放射状に送信し、検知範囲内の侵入物体等に反射して戻ってきた探査信号を受信する。レーザ照射部分は、接地面と平行面上において検知角度の範囲内で回転するレーザ送受信センサを備える。検知角度は、180度でも、360度でもよい。レーザ照射部分は、垂直視野角の所定範囲を測定できるように複数個のレーザ送受信センサを備えてもよい。例えば、レーザ照射部分が垂直視野角約15度の範囲内において12個のレーザ送受信センサを備える場合、レーザ照射部分が検知角度だけ回転することにより、12本の探査信号(レーザ光)が同時に照射され、検知範囲且つ垂直視野角約15度の範囲内の物体から反射された探査信号が受信される。 For example, when the detection sensor 2 is a laser sensor, the laser irradiation part of the detection sensor 2 radially transmits a search signal (laser light) at a predetermined cycle to a preset detection range within the monitoring area, It receives the search signal that has been reflected back by an intruding object or the like within the detection range. The laser irradiation part has a laser transmitting/receiving sensor that rotates within a detection angle on a plane parallel to the ground plane. The detection angle may be 180 degrees or 360 degrees. The laser irradiation portion may include a plurality of laser transmitting/receiving sensors so as to measure a predetermined range of vertical viewing angles. For example, if the laser irradiation part has 12 laser transmitting/receiving sensors within a vertical viewing angle of about 15 degrees, 12 search signals (laser beams) are simultaneously irradiated by rotating the laser irradiation part by the detection angle. and receive probe signals reflected from objects within the detection range and within a vertical viewing angle of approximately 15 degrees.

検知センサ2は、探査信号の送信及び受信の時間差に基づいて、物体までの距離を算出する。検知センサ2は、検知センサ2の位置、探査信号を送信した方向及び算出した距離に基づいて、各探査信号に対応する反射位置の3次元座標を算出する。そして、検知センサ2は、算出した3次元座標が地表面等の固定地物の三次元座標と異なる場合、当該三次元座標のうち互いに特定の距離範囲内である座標を同一の侵入物体によるものと推定し、侵入物体の大きさ(例えば、侵入物体の長さ等)を算出する。また、検知センサ2は、算出した各三次元座標及び各三次元座標に対応する探査信号の送信時刻に基づいて、侵入物体が移動していると推定される場合、その移動速度を算出する。 The detection sensor 2 calculates the distance to the object based on the time difference between the transmission and reception of the search signal. The detection sensor 2 calculates the three-dimensional coordinates of the reflection position corresponding to each search signal based on the position of the detection sensor 2, the direction in which the search signal was transmitted, and the calculated distance. Then, when the calculated three-dimensional coordinates are different from the three-dimensional coordinates of a fixed feature such as the ground surface, the detection sensor 2 detects coordinates within a specific distance range from each other among the three-dimensional coordinates as those of the same intruding object. and calculate the size of the intruding object (for example, the length of the intruding object). Further, when the intruding object is estimated to be moving based on the calculated three-dimensional coordinates and the transmission time of the search signal corresponding to each three-dimensional coordinate, the detection sensor 2 calculates the moving speed.

検知センサ2は、算出した侵入物体の大きさ及び移動速度の少なくとも一方に基づいて、侵入物体が対象動物の可能性があると判定した場合、所定の通信ネットワーク5aを介してコントローラ3に検知信号を送信する。検知信号に含まれる侵入物体の侵入位置データは、例えば、侵入物体であると推定された三次元座標を示すデータである。侵入物体の大きさ及び移動速度の算出処理は、後述するコントローラ3によって実行されてもよい。この場合、検知センサ2は、算出した3次元座標を送信時刻に対応付けて、所定のネットワークを介してコントローラ3に送信する。また、検知センサ2は、飛行ロボット4によって備えられてもよい。この場合、飛行ロボット4が監視区域内において予め設定された飛行経路を自動飛行している間、飛行ロボット4に備えられた検知センサ2は、探査信号を照射して侵入物体を検知する。 When the detection sensor 2 determines that the intruding object may be the target animal based on at least one of the calculated size and moving speed of the intruding object, the detection sensor 2 sends a detection signal to the controller 3 via the predetermined communication network 5a. to send. The intrusion position data of the intruding object included in the detection signal is, for example, data indicating the three-dimensional coordinates estimated to be the intruding object. The process of calculating the size and moving speed of the intruding object may be executed by the controller 3, which will be described later. In this case, the detection sensor 2 associates the calculated three-dimensional coordinates with the transmission time and transmits them to the controller 3 via a predetermined network. Alternatively, the detection sensor 2 may be provided by the flying robot 4 . In this case, while the flying robot 4 is automatically flying along a preset flight route within the surveillance area, the detection sensor 2 provided in the flying robot 4 detects an intruding object by emitting a search signal.

(コントローラ3)
コントローラ3は、監視区域内又は監視区域周辺に設置された監視センタ等に設けられる情報処理装置である。コントローラ3は、飛行ロボット4の格納場所の近辺に設置されてもよく、また、監視区域の遠方に設置されてもよい。コントローラ3は、検知センサ2と、有線又は無線による通信を行う通信回路(図示しない)を備えるとともに、飛行ロボット4と無線による通信を行う通信回路(図示しない)を備える。
(Controller 3)
The controller 3 is an information processing device installed in a monitoring center or the like installed in or around a monitored area. The controller 3 may be installed near the storage location of the flying robot 4, or may be installed far from the surveillance area. The controller 3 includes a communication circuit (not shown) for performing wired or wireless communication with the detection sensor 2 and a communication circuit (not shown) for performing wireless communication with the flying robot 4 .

コントローラ3は、図示しない制御記憶部を備える。制御記憶部は、飛行ロボット4の待機位置を示す待機位置データ、侵入物体を監視区域の外に追い出すための出口位置を示す出口位置データ、監視区域の境界を規定する境界ベクトルデータ等を記憶する。出口位置は、例えば、市街地側の出入り口ではなく、山側の出入り口を示す位置等である。境界ベクトルデータは、監視区域の境界上の複数の緯度及び経度を含む地点データ群である。地点データ群に含まれる複数の緯度及び経度によって示される各地点が順に線分で結ばれ、最後の地点と最初の地点とが線分で結ばれることで、監視区域を示す閉領域が規定される。地点データ群として、緯度及び経度と対応する標高値とが記憶されてもよい。飛行記憶部46は、飛行ロボット4の飛行可能空間データ又は障害物データを記憶してもよい。また、出口位置は、単に、侵入物体を監視区域の外に追い出す方向を示す情報であってもよい。例えば、方向を示す情報は、磁北からの角度情報等である。この場合、緯度及び経度情報により特定の方向の範囲が出口位置として記憶される。 The controller 3 has a control storage section (not shown). The control storage unit stores standby position data indicating the standby position of the flying robot 4, exit position data indicating the exit position for driving the intruding object out of the monitoring area, boundary vector data defining the boundary of the monitoring area, and the like. . The exit position is, for example, a position indicating a doorway on the mountain side instead of a doorway on the city side. Boundary vector data is a group of point data containing multiple latitudes and longitudes on the boundary of the monitored area. Each point indicated by a plurality of latitudes and longitudes included in the point data group is connected by a line segment in order, and the last point and the first point are connected by a line segment, thereby defining a closed area indicating a monitoring area. be. Latitudes, longitudes, and corresponding elevation values may be stored as point data groups. The flight storage unit 46 may store flightable space data or obstacle data for the flying robot 4 . Alternatively, the exit position may simply be information indicating the direction in which the intruding object is driven out of the monitored area. For example, the information indicating the direction is angle information from magnetic north. In this case, a specific directional range is stored as the exit position based on the latitude and longitude information.

コントローラ3は、検知センサ2から検知信号を受信すると、検知信号に含まれる侵入物体の侵入位置データを取得し、取得した位置データ及び飛行記憶部46から読み出した待機位置データに基づいて、飛行ロボット4の待機位置から侵入物体の侵入位置までの飛行経路を、公知の算出方法(例えば、特開2016-181177号公報を参照。)を用いて算出する。コントローラ3は、飛行指示を、所定の通信ネットワーク5bを介して飛行ロボット4に送信するとともに、侵入物体の侵入位置データ、出口位置データ、及び飛行経路を示す経路データを、所定の通信ネットワーク5bを介して飛行ロボット4に送信する。 Upon receiving the detection signal from the detection sensor 2, the controller 3 acquires the intrusion position data of the intruding object included in the detection signal, and based on the acquired position data and the standby position data read from the flight storage unit 46, the flying robot 4 is calculated using a known calculation method (see, for example, JP-A-2016-181177) from the standby position to the intrusion position of the intruding object. The controller 3 transmits flight instructions to the flying robot 4 via the predetermined communication network 5b, and transmits the entry position data of the intruding object, the exit position data, and the route data indicating the flight route through the predetermined communication network 5b. to the flying robot 4 via.

コントローラ3による飛行指示の作成処理は、飛行ロボット4によって実行されてもよい。この場合、飛行ロボット4の飛行記憶部46は、制御記憶部によって記憶された各種情報を記憶し、コントローラ3は、検知信号に含まれる侵入物体の侵入位置データを、飛行指示と共に飛行ロボット4に送信する。そして、飛行ロボット4のメイン制御部43は、飛行ロボット4の待機位置から侵入物体の侵入位置までの飛行経路を算出し、飛行記憶部46から読み出した出口位置データ、受信した侵入物体の侵入位置データ、及び算出した飛行経路を示す経路データに基づいて、飛行制御部44を制御する。 The process of creating flight instructions by the controller 3 may be executed by the flying robot 4 . In this case, the flight storage unit 46 of the flying robot 4 stores various information stored by the control storage unit, and the controller 3 sends the intrusion position data of the intruding object included in the detection signal to the flying robot 4 together with the flight instruction. Send. Then, the main control unit 43 of the flying robot 4 calculates the flight path from the standby position of the flying robot 4 to the entry position of the intruding object, and outputs the exit position data read from the flight storage unit 46 and the received entry position of the intruding object. The flight control unit 44 is controlled based on the data and the route data indicating the calculated flight route.

コントローラ3よる飛行指示の作成処理は、検知センサ2によって実行されてもよい。この場合、検知センサ2は、飛行記憶部46によって記憶された各種情報を記憶する。検知センサ2は、飛行ロボット4の待機位置から侵入物体の侵入位置までの飛行経路を算出し、侵入物体の侵入位置データ、出口位置データ、及び飛行経路を示す経路データを含む飛行指示を作成し、作成した飛行指示を、コントローラ3を介して又は直接無線通信によって飛行ロボット4に送信する。 The process of creating flight instructions by the controller 3 may be executed by the detection sensor 2 . In this case, the detection sensor 2 stores various information stored by the flight storage unit 46 . The detection sensor 2 calculates the flight path from the standby position of the flying robot 4 to the entry position of the intruding object, and creates flight instructions including entry position data of the intruding object, exit position data, and route data indicating the flight route. , the created flight instructions are sent to the flying robot 4 via the controller 3 or directly by wireless communication.

(飛行ロボット4)
飛行ロボット4は、自律的に飛行可能な無人の小型飛行体である。飛行ロボット4は、自律的に飛行可能であり且つユーザの無線コントローラ装置等による操作によって制御可能な準自律的飛行可能な小型飛行体でもよい。飛行ロボット4は、飛行手段として、複数の回転翼(ロータ)等を備えており、例えば、ドローン、マルチコプタ、UAV(Unmanned Aerial Vehicle)等である。
(flying robot 4)
The flying robot 4 is an unmanned small flying object capable of autonomous flight. The flying robot 4 may be a small flying object that can fly autonomously and that can be controlled by a user's operation using a wireless controller device or the like. The flying robot 4 has a plurality of rotors as a means of flight, and is, for example, a drone, a multicopter, or a UAV (Unmanned Aerial Vehicle).

飛行ロボット4は、図2に示すように、4枚のロータ(プロペラ)401(401a~401d)を一平面上に有する。各ロータ401は、バッテリ(二次電池:図示しない)により駆動されるモータ402(402a~402d)の回転に応じて回転する。一般的に、シングルロータ型のヘリコプタでは、メインロータによって発生する反トルクをテールロータが生み出すモーメントで相殺することによって方位角を保っている。一方、飛行ロボット4のようなクアッドロータ型のヘリコプタでは、本体403を中心として右前及び左後で異なる方向に回転するロータ401を用い且つ左前及び右後で異なる方向に回転するロータ401を用いることで反トルクの相殺を行っている。そして、各ロータ401の回転数(fa~fd)を制御することにより、様々な機体の移動や姿勢の調節を行うことができる。 As shown in FIG. 2, the flying robot 4 has four rotors (propellers) 401 (401a to 401d) on one plane. Each rotor 401 rotates according to rotation of a motor 402 (402a to 402d) driven by a battery (secondary battery: not shown). Generally, in a single-rotor helicopter, the azimuth angle is maintained by canceling out the reaction torque generated by the main rotor with the moment generated by the tail rotor. On the other hand, in a quad-rotor helicopter such as the flying robot 4, a rotor 401 that rotates in different directions on the front right and rear left about the main body 403 and rotates in different directions on the front left and rear right is used. is used to cancel the anti-torque. By controlling the number of rotations (fa to fd) of each rotor 401, it is possible to adjust various movements and attitudes of the body.

飛行ロボット4は、画像取得部41、画像認識部42、メイン制御部43、飛行制御部44、位置取得部45、飛行記憶部46、更新部47等を備え、これらは、本体403内に格納される。 The flying robot 4 includes an image acquisition unit 41 , an image recognition unit 42 , a main control unit 43 , a flight control unit 44 , a position acquisition unit 45 , a flight storage unit 46 , an update unit 47 and the like, which are stored in the main body 403 . be done.

画像取得部41は、熱画像を取得する熱画像カメラを備えた撮像装置である。熱画像カメラは、例えば、物体からの電磁放射の2種類の波長の放射エネルギーを検出し、2種類の放射エネルギー比によって求められた温度値に基づいて作成された撮像画像を出力する。画像取得部41は、可視光に基づく撮像画像を出力する可視光カメラ又は赤外線サーモグラフィカメラを備えた撮像装置でもよい。画像取得部41は、所定のフレーム周期で撮影された撮像画像を順次取得し、画像認識部42に撮像画像を渡す。画像取得部41の撮像方向は、飛行ロボット4の正面から前方を撮影する方向である。すなわち、画像取得部41の撮像方向は、飛行ロボット4の前進方向と略同一である。画像取得部41の撮像方向は、前進方向から鉛直下方に所定角だけ傾いた方向でもよい。 The image acquisition unit 41 is an imaging device equipped with a thermal imaging camera that acquires thermal images. A thermal imaging camera detects, for example, radiant energies of two wavelengths of electromagnetic radiation from an object, and outputs captured images created based on temperature values obtained from the ratio of the two radiant energies. The image acquisition unit 41 may be an imaging device including a visible light camera or an infrared thermography camera that outputs a captured image based on visible light. The image acquisition unit 41 sequentially acquires captured images captured at predetermined frame intervals, and passes the captured images to the image recognition unit 42 . The imaging direction of the image acquisition unit 41 is the direction in which the front of the flying robot 4 is captured from the front. That is, the imaging direction of the image acquisition unit 41 is substantially the same as the forward direction of the flying robot 4 . The imaging direction of the image acquisition unit 41 may be a direction tilted vertically downward by a predetermined angle from the forward direction.

画像認識部42は、画像取得部41からの撮像画像を取得するたびに、当該撮像画像において対象動物を捉えているか否かを判定する。例えば、画像認識部42は、撮像画像に侵入物体を示す物体画像が含まれるか否かを判定する。そして、画像認識部42は、後述する学習モデル461を用いて、物体画像が対象動物を示す対象画像であるか否かを判定する。画像認識部42は、判定結果をメイン制御部43に渡す。学習モデル461は、後述の機械学習を用いて学習された学習モデルである。 Each time the image recognition unit 42 acquires a captured image from the image acquisition unit 41, the image recognition unit 42 determines whether or not the target animal is captured in the captured image. For example, the image recognition unit 42 determines whether an object image representing an intruding object is included in the captured image. Then, the image recognition unit 42 uses a learning model 461, which will be described later, to determine whether or not the object image is a target image representing a target animal. The image recognition section 42 passes the determination result to the main control section 43 . The learning model 461 is a learning model learned using machine learning, which will be described later.

メイン制御部43は、飛行ロボット4の全体的な動作を統括的に制御するものであり、例えば、CPU(Central Processing Unit)である。メイン制御部43は、コントローラ3から送信された検知信号を取得し、対象動物を示す画像が撮像画像内に捉えられるよう飛行制御しつつ、対象動物(侵入物体)を監視区域の外に追い出すための出口位置へ飛行ロボット4を進行させるように、後述する飛行制御部44を制御する。 The main control unit 43 comprehensively controls the overall operation of the flying robot 4, and is, for example, a CPU (Central Processing Unit). The main control unit 43 acquires a detection signal transmitted from the controller 3, controls flight so that an image showing the target animal is captured in the captured image, and drives the target animal (intruding object) out of the monitoring area. A flight control unit 44, which will be described later, is controlled so as to advance the flying robot 4 to the exit position of .

メイン制御部43は、コントローラ3から飛行指示を受信すると、飛行記憶部46に記憶された、飛行制御のためのアプリケーションプログラム及び各種データを読み出す。 Upon receiving a flight instruction from the controller 3 , the main control unit 43 reads an application program and various data for flight control stored in the flight storage unit 46 .

飛行制御部44は、メイン制御部43からの指示に従って、飛行ロボット4が、上昇、下降、方向転換(回転)、及び、前進等の飛行を行うように、4枚のロータ401(401a~401d)を駆動制御するための回路装置であり、例えば、FPGA(Field-Programmable Gate Array)をベースとして構成されたものである。飛行制御部44は、メイン制御部43と同一の回路装置で構成されてもよい。本体403は、図示しない方位センサ、加速度センサ、及びジャイロセンサ等の各種センサを格納しており、飛行制御部44は、方位センサから出力された飛行ロボットの正面の方位、加速度センサから出力された飛行ロボット4に掛かる加速度(例えば、3軸方向の各加速度)、ジャイロセンサから出力された回転角速度(例えば、3軸のそれぞれを中心とした回転角速度)に基づいて、飛行ロボット4の向きを制御する。 The flight control unit 44 controls the four rotors 401 (401a to 401d) so that the flying robot 4 can ascend, descend, change direction (rotate), and move forward in accordance with instructions from the main control unit 43. ), and is constructed based on, for example, an FPGA (Field-Programmable Gate Array). The flight control section 44 may be configured with the same circuit device as the main control section 43 . The main body 403 stores various sensors such as an azimuth sensor, an acceleration sensor, and a gyro sensor (not shown). The orientation of the flying robot 4 is controlled based on the acceleration applied to the flying robot 4 (e.g., acceleration in each of the three-axis directions) and the rotational angular velocity output from the gyro sensor (e.g., rotational angular velocity about each of the three axes). do.

位置取得部45は、図示しないGPS(Global Positioning System)衛星又は準天頂衛星からの信号を受信する。位置取得部45は、その信号をデコードし、時刻情報等を取得する。次に、位置取得部45は、その時刻情報等に基づいて各衛星から飛行ロボット4までの擬似距離を計算し、その擬似距離を代入して得られる連立方程式を解くことにより、飛行ロボット4の自己位置(緯度、経度及び高度)を検出する。そして、位置取得部45は、検出した位置を示す位置情報と取得した位置時刻情報とを関連付けて、周期的にメイン制御部43に出力する。 The position acquisition unit 45 receives signals from GPS (Global Positioning System) satellites or quasi-zenith satellites (not shown). The position acquisition unit 45 decodes the signal and acquires time information and the like. Next, the position acquisition unit 45 calculates the pseudo-ranges from each satellite to the flying robot 4 based on the time information, etc., and solves the simultaneous equations obtained by substituting the pseudo-ranges to obtain the position of the flying robot 4. Detect self-location (latitude, longitude and altitude). Then, the position acquisition unit 45 associates the position information indicating the detected position with the acquired position time information, and periodically outputs the information to the main control unit 43 .

飛行記憶部46は、例えば、半導体メモリを有する。飛行記憶部46は、端末処理部29での処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。飛行記憶部46は、データとして、学習モデル461を示すデータを記憶する。 The flight storage unit 46 has, for example, a semiconductor memory. The flight storage unit 46 stores driver programs, operating system programs, application programs, data, and the like used for processing in the terminal processing unit 29 . The flight storage unit 46 stores data representing the learning model 461 as data.

更新部47は、飛行記憶部46に記憶された学習モデル461を読み出して、学習モデル461を更新する更新処理を実行する。なお、更新処理の詳細は後述する。 The update unit 47 reads out the learning model 461 stored in the flight storage unit 46 and executes update processing for updating the learning model 461 . Details of the update processing will be described later.

(メイン処理)
図3は、飛行ロボット4の画像認識部42及びメイン制御部43によって実行されるメイン処理のフローチャートの一例を示す図である。
(main processing)
FIG. 3 is a diagram showing an example of a flowchart of main processing executed by the image recognition unit 42 and the main control unit 43 of the flying robot 4. As shown in FIG.

メイン制御部43は、コントローラ3から飛行指示を受信すると、飛行動作モードに移行する(ステップS101)。飛行動作モードは、待機位置において待機している待機モードにある飛行ロボット4を侵入物体の侵入位置まで飛行させ、侵入位置付近を飛行中に撮像画像内に対象動物が捉えられた場合は、飛行ロボット4に、出口位置まで対象動物を追い出す動作を行わせるモードである。飛行指示は、対象動物を検知した検知センサ2からの検知信号を受信したコントローラ3によって送信される。 When the main control unit 43 receives a flight instruction from the controller 3, it shifts to the flight operation mode (step S101). In the flight operation mode, the flying robot 4 in the standby mode, which is on standby at the standby position, flies to the intrusion position of the intruding object. This is a mode in which the robot 4 performs an action of expelling the target animal to the exit position. A flight instruction is transmitted by the controller 3 that has received a detection signal from the detection sensor 2 that has detected the target animal.

メイン制御部43は、コントローラ3から飛行指示とともに、侵入物体の侵入位置データ、出口位置データ、及び飛行経路を示す経路データを受信する(ステップS102)。メイン制御部43は、飛行モードに移行した飛行ロボット4を離陸させるように飛行制御部44に指示する。そして、メイン制御部43は、経路データによって示される飛行経路を飛行ロボット4が飛行するように、位置取得部45によって出力された位置情報を参照しつつ飛行制御部44に飛行を指示する。飛行制御部44は、メイン制御部43の指示に応じた飛行を飛行ロボット4が行うように、モータ402を駆動させてローラ401を回転させる。 The main control unit 43 receives the entry position data of the intruding object, the exit position data, and the route data indicating the flight route together with the flight instruction from the controller 3 (step S102). The main control unit 43 instructs the flight control unit 44 to take off the flying robot 4 that has shifted to the flight mode. Then, the main control unit 43 refers to the position information output by the position acquisition unit 45 and instructs the flight control unit 44 to fly so that the flying robot 4 flies along the flight route indicated by the route data. The flight control unit 44 drives the motor 402 to rotate the rollers 401 so that the flying robot 4 flies according to the instruction from the main control unit 43 .

メイン制御部43は、位置取得部45によって出力された位置情報に基づいて、ステップS102で受信した侵入物体の侵入位置データによって示される侵入位置に、飛行ロボット4が到着したか否か判定する(ステップS103)。メイン制御部43は、飛行ロボット4が侵入位置に到着していないと判定した場合(ステップS103-No)、飛行ロボット4が侵入位置に到着するまで、飛行を継続するように飛行制御部44に指示する。 Based on the position information output by the position acquisition unit 45, the main control unit 43 determines whether or not the flying robot 4 has arrived at the intrusion position indicated by the intrusion position data of the intruding object received in step S102 ( step S103). When the main control unit 43 determines that the flying robot 4 has not arrived at the entry position (step S103-No), the main control unit 43 instructs the flight control unit 44 to continue flying until the flying robot 4 reaches the entry position. instruct.

画像認識部42は、メイン制御部43によって飛行ロボット4が侵入位置に到着したと判定された場合(ステップS103-Yes)、侵入位置を含む周辺領域で、画像取得部41から順次取得した撮像画像において対象動物を捉えているか否かを、後述する学習モデル461を用いて判定する(ステップS104)。学習モデル461を用いた判定処理の詳細は後述する。 When the main control unit 43 determines that the flying robot 4 has arrived at the entry position (step S103—Yes), the image recognition unit 42 sequentially acquires captured images from the image acquisition unit 41 in the surrounding area including the entry position. A learning model 461, which will be described later, is used to determine whether or not the target animal is captured in (step S104). Details of the determination process using the learning model 461 will be described later.

メイン制御部43は、画像認識部42によって、順次取得された撮像画像に検知センサ2が検知した侵入物体が対象動物ではない、又は侵入物体が捉えられない場合、対象動物が捉えられていないと判定して(ステップS104-No)、ステップS113に処理を進める。また、メイン制御部43は、画像認識部42によって順次取得された撮像画像に対象動物が捉えられたと判定した場合(ステップS104-Yes)、当該対象動物を追い出し対象の動物として決定し、追い出し飛行を開始する(ステップS105)。以降、追い出し対象の動物を追跡対象動物と称する場合がある。メイン制御部43は、追跡対象動物を決定すると、図4に示すように、出口位置及び追跡対象動物の位置に基づいて、飛行ロボット4が、追跡対象動物を、出口位置から監視区域の外へ追い出すための追い出し飛行を開始する。 When the intruding object detected by the detection sensor 2 in the captured images sequentially acquired by the image recognition unit 42 is not the target animal, or the intruding object cannot be captured, the main control unit 43 determines that the target animal is not captured. After determination (step S104-No), the process proceeds to step S113. Further, when the main control unit 43 determines that the target animal is captured in the captured images sequentially acquired by the image recognition unit 42 (step S104-Yes), the main control unit 43 determines the target animal as an animal to be chased out, and performs the chase flight. is started (step S105). Hereinafter, the animal to be kicked out may be referred to as a tracked animal. When the main control unit 43 determines the tracked animal, the flying robot 4 moves the tracked animal out of the monitoring area from the exit position based on the exit position and the position of the tracked animal, as shown in FIG. Initiate an ejection flight to eject.

例えば、メイン制御部43は、画像認識部42によって、撮像画像に複数の対象動物が捉えられていると判定された場合、当該撮像画像内における出口位置の方向を判定し、出口位置との距離が最長である対象動物を追跡対象動物として決定してもよい。また、画像認識部42は、撮像画像に複数の対象動物が捉えられていると判定された場合、複数の動物のうち、複数の対象動物のそれぞれの移動方向を推定し、推定された各対象動物の移動方向のうち、出口位置への方向となす角度が最大である対象動物を追跡対象動物として特定してもよい。なお、対象動物の移動方向は、後述する移動方向推定処理によって推定される。 For example, when the image recognition unit 42 determines that a plurality of target animals are captured in the captured image, the main control unit 43 determines the direction of the exit position in the captured image, and determines the distance from the exit position. may be determined as the tracked animal. Further, when it is determined that a plurality of target animals are captured in the captured image, the image recognition unit 42 estimates the movement direction of each of the plurality of target animals among the plurality of animals. Among the movement directions of the animal, the target animal that forms the largest angle with the direction to the exit position may be identified as the tracked animal. The moving direction of the target animal is estimated by moving direction estimation processing, which will be described later.

追い出し飛行が開始されると、画像認識部42は、ステップS104において撮像画像内に捉えた追跡対象動物を示す対象画像に対して、ラベリング処理を実行する。ラベリング処理は、撮像画像内において高温度又は高輝度の画素(例えば、画像内の画素値の平均値と比較して所定値以上の画素)について、隣接する画素の集合が一定の大きさ以上となる領域を変化領域として抽出し、各変化領域に対して、撮像画像内でユニークなラベルを割り当てる処理である。ラベリング処理は周知の手法であるため、詳細な説明を省略する。以降、順次取得された撮像画像において画像認識部42はラベリング処理を実行し、メイン制御部43は、ラベルが割り当てられた追跡対象動物を含む変化領域を追跡する。 When the chase flight is started, the image recognition unit 42 performs labeling processing on the target image showing the tracked target animal captured in the captured image in step S104. In the labeling process, for pixels with high temperature or high brightness in the captured image (for example, pixels with a predetermined value or more compared to the average value of the pixel values in the image), a group of adjacent pixels is determined to have a certain size or more. This is a process of extracting different regions as changed regions and assigning a unique label in the captured image to each changed region. Since the labeling process is a well-known method, detailed description thereof will be omitted. After that, the image recognition unit 42 performs labeling processing on the captured images that are sequentially acquired, and the main control unit 43 tracks the changed area including the tracked animal to which the label is assigned.

図4は、追い出し飛行の一例を説明するための模式図である。飛行ロボット4aは、撮像画像に追跡対象動物が捉えられたと判定した場合(ステップS104-Yes)における飛行ロボット4である。追い出し飛行中、メイン制御部43は、順次取得された撮像画像に、ラベルが割り当てられた追跡対象動物を示す変化領域が含まれる(捉えられる)位置であって、撮像方向が出口位置の方向になる位置に向かう飛行を飛行制御部44に指示する。取得された撮像画像に、ラベルが割り当てられた追跡対象動物を示す変化領域が含まれる(捉えられる)位置は、例えば、ラベルが割り当てられた追跡対象動物が、略中心に位置するような撮像画像が取得される飛行ロボット4の位置である。 FIG. 4 is a schematic diagram for explaining an example of a chase flight. The flying robot 4a is the flying robot 4 when it is determined that the tracked animal is captured in the captured image (step S104-Yes). During the evacuation flight, the main control unit 43 controls the position in which the sequentially acquired captured images include (capture) a changed area indicating the tracked animal to which the label has been assigned, and the imaging direction is in the direction of the exit position. The flight control unit 44 is instructed to fly toward a certain position. The position where the changed region indicating the tracked animal assigned with the label is included (captured) in the acquired captured image is, for example, the captured image where the tracked animal assigned with the label is positioned substantially at the center. is the position of the flying robot 4 to be obtained.

図4に示すように、飛行ロボット4aは、飛行ロボット4aの位置において取得された撮像画像に、ラベルが割り当てられた追跡対象動物が含まれる位置にいる。しかしながら、飛行ロボット4aにおける撮像方向は、出口位置の方向を向いていない。このため、メイン制御部43は、位置取得部45によって出力された位置情報と出口位置データによって示される出口位置を参照し、飛行ロボット4aを左側に移動させるように飛行制御部44に指示する。 As shown in FIG. 4, the flying robot 4a is at a position where the tracked animal with the assigned label is included in the captured image acquired at the position of the flying robot 4a. However, the imaging direction of the flying robot 4a does not face the direction of the exit position. Therefore, the main control unit 43 refers to the exit position indicated by the position information and the exit position data output by the position acquisition unit 45, and instructs the flight control unit 44 to move the flying robot 4a to the left.

図4に示すように、飛行ロボット4bは、飛行ロボット4aの位置よりも左側に移動した位置における飛行ロボット4である。飛行ロボット4bは、取得された撮像画像に、ラベルが割り当てられた追跡対象動物が含まれる位置にいる。しかしながら、飛行ロボット4bにおける撮像方向は、未だ出口位置の方向を向いていない。このため、メイン制御部43は、位置取得部45によって出力された位置情報と出口位置データによって示される出口位置を参照し、飛行ロボット4bを更に左側に移動させるように飛行制御部44に指示する。 As shown in FIG. 4, the flying robot 4b is the flying robot 4 at a position moved leftward from the position of the flying robot 4a. The flying robot 4b is at a position where the tracked animal to which the label is assigned is included in the acquired captured image. However, the imaging direction of the flying robot 4b is not yet directed toward the exit position. Therefore, the main control unit 43 refers to the exit position indicated by the position information and the exit position data output by the position acquisition unit 45, and instructs the flight control unit 44 to move the flying robot 4b further to the left. .

図4に示すように、飛行ロボット4cは、飛行ロボット4bの位置よりも左側に移動した位置における飛行ロボット4である。飛行ロボット4cは、取得された撮像画像に、ラベルが割り当てられた追跡対象動物が含まれる位置にいる。さらに、飛行ロボット4bにおける撮像方向は、出口位置の方向を向いている。このように、撮像画像に追跡対象動物が捉えられたと判定した場合(ステップS104-Yes)における飛行ロボット4は、メイン制御部43からの指示に応じて、4aに示す位置から4cに示す位置に飛行する。 As shown in FIG. 4, the flying robot 4c is the flying robot 4 at a position moved leftward from the position of the flying robot 4b. The flying robot 4c is at a position where the tracked animal to which the label is assigned is included in the acquired captured image. Furthermore, the imaging direction of the flying robot 4b faces the direction of the exit position. Thus, when it is determined that the tracked animal is captured in the captured image (step S104-Yes), the flying robot 4 moves from the position 4a to the position 4c in accordance with the instruction from the main control unit 43. fly.

次に、メイン制御部43は、飛行ロボット4cは、追跡対象動物から所定距離範囲内となる位置に更に移動するように飛行制御部44に指示する。このように、飛行ロボット4cを追跡対象動物に接近させることにより、飛行ロボット4cを嫌がる追跡対象動物を、出口位置の方向に移動させることが可能になる。 Next, the main control unit 43 instructs the flight control unit 44 to further move the flying robot 4c to a position within a predetermined distance range from the tracked animal. In this way, by causing the flying robot 4c to approach the tracked animal, it becomes possible to move the tracked animal, which dislikes the flying robot 4c, toward the exit position.

野生動物の移動に応じて、ラベルが割り当てられた追跡対象動物の撮像画像内の位置が移動すると、上述のように、メイン制御部43は、順次取得された撮像画像に、ラベルが割り当てられた追跡対象動物を示す変化領域が含まれる(捉えられる)位置であって、撮像方向が出口位置の方向になる位置に向かう飛行を飛行制御部44に指示する。 When the position in the captured image of the tracked animal to which the label has been assigned moves in accordance with the movement of the wild animal, the main control unit 43 causes the sequentially acquired captured images to have the label assigned to them, as described above. The flight control unit 44 is instructed to fly toward a position where the change area indicating the tracked animal is included (captured) and where the imaging direction is in the direction of the exit position.

このように、追い出し飛行では、ラベルが割り当てられた追跡対象動物を示す変化領域が含まれる(捉えられる)位置であって、撮像方向が出口位置の方向になる位置に向かう飛行と、追跡対象動物から所定距離範囲内となる位置に更に移動する飛行とが繰り返し実施される。 In this way, in the ejection flight, there is flight toward a location that includes (captures) a change area indicating the tracked animal assigned a label, and the imaging direction is in the direction of the exit location. and a flight to move further to a position within a predetermined distance range from .

画像認識部42は、追い出し飛行中において、画像取得部41から順次取得した撮像画像に、追跡対象動物を捉えているか(ラベルが割り当てられた追跡対象動物を示す変化領域を追跡できているか)否かを判定する(ステップS106)。 During the chase flight, the image recognition unit 42 determines whether the tracked animal is captured (whether the changed region indicating the tracked animal assigned with the label is tracked) in the captured images sequentially obtained from the image obtaining unit 41. (step S106).

メイン制御部43は、画像認識部42によって、画像取得部41から順次取得した撮像画像に、追跡対象動物が捉えられていると判定された場合(ステップS106-Yes)、追い出し飛行を継続する(ステップS107)。 When the image recognition unit 42 determines that the tracked animal is captured in the captured images sequentially acquired from the image acquisition unit 41 (step S106-Yes), the main control unit 43 continues the chase flight ( step S107).

画像認識部42は、画像取得部41から順次取得した撮像画像に、一度捉えた追跡対象動物を捉えていないと判定した場合(ステップS106-No)、追跡対象動物の移動方向を推定する(ステップS108)。移動方向の推定では、画像認識部42は、撮像画像に追跡対象動物が捉えられなくなる直前の撮像画像において捉えた追跡対象動物の向きに基づいて、移動方向推定処理を実行する。移動方向推定処理の詳細は後述する。 When the image recognition unit 42 determines that the once-captured tracked animal is not captured in the captured images sequentially acquired from the image acquisition unit 41 (step S106-No), the image recognition unit 42 estimates the moving direction of the tracked animal (step S108). In estimating the moving direction, the image recognizing unit 42 executes moving direction estimation processing based on the orientation of the tracked animal captured in the captured image immediately before the tracked animal is no longer captured in the captured image. Details of the movement direction estimation processing will be described later.

メイン制御部43は、移動方向推定処理によって推定された移動方向の撮像画像が画像取得部41によって取得できるように、飛行ロボット4の向き及び/又は位置を変更する指示を飛行制御部44に行う(ステップS109)。メイン制御部43は、移動方向推定処理によって推定された移動方向が「右」である場合、飛行ロボット4の撮像方向を所定角度(例えば、30度)だけ右方向に回転させるよう飛行制御部44に指示する。なお、飛行ロボット4の向きの変更は、移動方向推定処理によって推定された移動方向に対応する向きの変更に限らず、推定された移動方向に対応する向きの変更後に、予め定められた複数の向きの変更が行われてもよい(例えば、飛行ロボット4の撮像方向を30度だけ右方向に回転させた後、左方向に60度回転させる等)。 The main control unit 43 instructs the flight control unit 44 to change the orientation and/or position of the flying robot 4 so that the image acquisition unit 41 can acquire the captured image in the movement direction estimated by the movement direction estimation process. (Step S109). When the moving direction estimated by the moving direction estimation process is "right", the main control unit 43 causes the flight control unit 44 to rotate the imaging direction of the flying robot 4 rightward by a predetermined angle (for example, 30 degrees). direct to. Note that the change in the orientation of the flying robot 4 is not limited to the change in the orientation corresponding to the movement direction estimated by the movement direction estimation process. The direction may be changed (for example, the imaging direction of the flying robot 4 is rotated rightward by 30 degrees and then leftward by 60 degrees).

画像認識部42は、飛行ロボット4の向きが変更された後に、追跡対象動物の追跡が可能か否かを判定する(ステップS110)。例えば、画像認識部42は、飛行ロボット4の向きが変更された後に画像取得部41によって取得された撮像画像に、追跡対象動物を捉えた場合、追跡対象動物の追跡が可能であると判定する。なお、撮像画像に、追跡対象動物が捉えられたか否かの判定に、移動方向推定処理が用いてもよい。また、画像認識部42は、飛行ロボット4の向きが変更された後に画像取得部41によって取得された撮像画像に、追跡対象動物を捉えられなかった場合、追跡対象動物の追跡が可能でないと判定する。 After the orientation of the flying robot 4 is changed, the image recognition unit 42 determines whether or not the tracked animal can be tracked (step S110). For example, the image recognition unit 42 determines that the tracked animal can be tracked when the tracked animal is caught in the captured image acquired by the image acquisition unit 41 after the orientation of the flying robot 4 is changed. . Note that moving direction estimation processing may be used to determine whether or not the tracked animal is captured in the captured image. Further, when the tracked animal is not captured in the captured image acquired by the image acquisition unit 41 after the orientation of the flying robot 4 is changed, the image recognition unit 42 determines that the tracked animal cannot be tracked. do.

メイン制御部43は、追跡対象動物の追跡が可能であると判定した場合(ステップS110-Yes)、当該追跡対象動物に対する追い出し飛行を再開し、ステップS106に処理を戻す。メイン制御部43は、追跡対象動物の追跡が可能でないと判定した場合(ステップS110-No)、ステップS112に処理を進める。 When determining that the tracked animal can be tracked (step S110-Yes), the main control unit 43 restarts the chase flight for the tracked animal, and returns the process to step S106. When the main control unit 43 determines that the tracked animal cannot be tracked (step S110-No), the process proceeds to step S112.

追い出し飛行中において(ステップS107)、メイン制御部43は、追跡対象動物を監視区域の外に追い出すことが成功したか否かを周期的に判定する(ステップS111)。例えば、メイン制御部43は、追い出し飛行の継続中において、位置取得部45によって出力された位置情報と出口位置データによって示される出口位置とに基づいて、飛行ロボット4が出口位置に到達したと判定した場合、追い出しに成功したと判定する。 During the chase flight (step S107), the main controller 43 periodically determines whether or not the tracked animal has been successfully chased out of the monitoring area (step S111). For example, the main control unit 43 determines that the flying robot 4 has reached the exit position based on the position information output by the position acquisition unit 45 and the exit position indicated by the exit position data while the chase flight is continuing. If so, it is determined that the eviction was successful.

メイン制御部43は、追い出しに成功したと判定した場合(ステップS111-Yes)、領域区域内に他の対象動物がいないか否かを判定する(ステップS112)。例えば、メイン制御部43は、画像認識部42によって、追い出しに成功した後の撮像画像おいて追跡対象動物が捉えられたと判定された場合、他の対象動物がいると判定する。なお、他の対象動物の存否の判定は、上述の判定方法に限らない。例えば、追い出し飛行中又は追い出し成功後に、ステップS101及びS102と同様に、コントローラ3から飛行指示とともに、侵入物体の侵入位置データ、出口位置データ、及び飛行経路を示す経路データを受信した場合、メイン制御部43は、飛行ロボット4を侵入位置に飛行させるよう飛行制御部44を制御し、画像認識部42によって、順次取得された撮像画像に対象動物が捉えられたと判定された場合に、領域区域内に他の対象動物がいると判定してもよい。 When the main control unit 43 determines that the ejection was successful (step S111-Yes), it determines whether or not there is another target animal within the area (step S112). For example, when the image recognition unit 42 determines that the tracked animal has been captured in the captured image after the chase has succeeded, the main control unit 43 determines that there is another target animal. Note that the determination of the presence or absence of other target animals is not limited to the determination method described above. For example, during the evacuation flight or after successful evacuation, similarly to steps S101 and S102, when receiving flight instructions from the controller 3 as well as the entry position data of the intruding object, the exit position data, and the route data indicating the flight route, the main control The unit 43 controls the flight control unit 44 so that the flying robot 4 flies to the entry position. It may be determined that there is another target animal in

メイン制御部43は、追出しに成功していないと判定した場合(ステップS111-No)、ステップS106に処理を戻す。 When the main control unit 43 determines that the ejection has not succeeded (step S111-No), the process returns to step S106.

メイン制御部43は、領域区域内に他の対象動物がいると判定した場合(ステップS112-No)、ステップS105に処理を戻す。 When the main control unit 43 determines that there is another target animal within the region (step S112-No), the process returns to step S105.

メイン制御部43は、領域区域内に他の対象動物がいないと判定した場合(ステップS112-Yes)、帰還動作へ移行し(ステップS113)、飛行ロボット4が待機位置に到着すると、待機モードに変更してメイン処理を終了する。 When the main control unit 43 determines that there is no other target animal within the area (step S112-Yes), it shifts to the return operation (step S113), and when the flying robot 4 reaches the standby position, it enters the standby mode. Change and exit the main process.

(移動方向推定処理)
画像認識部42は、画像取得部41から撮像画像を順次取得し、取得した撮像画像に対して移動方向推定処理を実行する。画像認識部42は、例えば、YOLO(You Only Look Once)及びSSD(Single Shot MultiBox Detector)等のCNN(Convolutional Neural Network)をベースとした機械学習によって生成された学習モデル461を用いて移動方向推定処理を実行する。移動方向推定処理は、図3に示すメイン処理のステップS104及びステップS108において実行される。なお、SSDによる物体認識手法は、W.Liu,D.Anguelov,D.Erhan,C.Szegedy, and S.E.Reed,“SSD:Single Shot Multibox Detector”,December 29,2016,[online],<https://arxiv.org./pdf/1512.02325.pdf>等を参照されたい。
(Moving direction estimation process)
The image recognition unit 42 sequentially acquires the captured images from the image acquisition unit 41 and executes moving direction estimation processing on the acquired captured images. The image recognition unit 42 estimates the movement direction using a learning model 461 generated by machine learning based on CNN (Convolutional Neural Network) such as YOLO (You Only Look Once) and SSD (Single Shot MultiBox Detector). Execute the process. The movement direction estimation process is performed in steps S104 and S108 of the main process shown in FIG. An object recognition method using SSD is described in W. Liu, D. Anguelov, D.; Erhan, C.; Szegedy, and S. E. Reed, “SSD: Single Shot Multibox Detector”, December 29, 2016, [online], <https://arxiv. org. /pdf/1512.02325. pdf> etc.

YOLOは、リアルタイムで画像認識を行うアルゴリズムを用いた物体認識手法の一つであり、例えば、DarkNET等の機械学習フレームワーク上に実装される。以下、ステップS108におけるYOLOに基づく物体認識手法を実現する画像認識部42の処理の一例について説明する。画像認識部42は、まず、画像取得部41から取得した直前の撮像画像を複数のグリッド(例えば、一つのグリッドは、撮像画像を縦7且つ横7の領域に分割したもの)に分割し、対象動物が存在するグリッドに、対象動物の外形形状に外接するバウンディングボックスを設定する。バウンディングボックスは、対象動物を示す矩形領域である。画像認識部42は、各バウンディングボックス内の対象動物のクラス確率を算出する。クラス確率は、動物の種別及びその動物の向きの両者の確度を示す指標である。 YOLO is one of object recognition methods using an algorithm that performs image recognition in real time, and is implemented on a machine learning framework such as DarkNET, for example. An example of the processing of the image recognition unit 42 that implements the YOLO-based object recognition method in step S108 will be described below. The image recognition unit 42 first divides the previous captured image acquired from the image acquisition unit 41 into a plurality of grids (for example, one grid is obtained by dividing the captured image into 7 vertical and 7 horizontal regions), A bounding box that circumscribes the outline shape of the target animal is set in the grid on which the target animal exists. A bounding box is a rectangular area that represents the target animal. The image recognition unit 42 calculates the class probability of the target animal within each bounding box. Class probability is a measure of the accuracy of both the type of animal and the orientation of that animal.

画像認識部42は、動物を示す動物画像と当該動物画像に対応するクラスを示す情報とを教師データとして用いた機械学習によって生成された学習モデルを用いる。学習モデルは、図示しないモデル学習装置が、動物を示す動物画像と当該動物画像に対応するクラスを示す情報とを教師データとして取得して、公知のディープラーニング学習を実行することにより、多層構造のニューラルネットワークにおける各ニューロンの重みが学習されて生成された学習モデルである。なお、学習モデルの生成処理は、飛行ロボット4の更新部47によって実行されてもよい。 The image recognition unit 42 uses a learning model generated by machine learning using animal images representing animals and information representing classes corresponding to the animal images as teacher data. A learning model is obtained by a model learning device (not shown) acquiring animal images representing animals and information representing classes corresponding to the animal images as teacher data, and executing known deep learning learning to obtain a multi-layered structure. It is a learning model generated by learning the weight of each neuron in the neural network. Note that the learning model generation process may be executed by the updating unit 47 of the flying robot 4 .

図5(a)に示すように、クラスは、例えば、「前方を向く鹿」、「右前方を向く鹿」、「左前方を向く鹿」、「右方を向く鹿」、「左方を向く鹿」、「右後方を向く鹿」、「左後方を向く鹿」及び「後方を向く鹿」である。対象動物に人間が含まれてもよく、この場合、クラスは、「前方を向く人間」等である。複数の対象動物に関するクラスが設けられてもよく、この場合、クラスは、「右方を向く鹿群」等である。クラスは、対象動物の姿勢(立位、伏位等)が含まれてもよく、この場合、クラスは、「前方を向いて伏せている鹿」、「前方を向いて立っている鹿」等である。図5(b)は、図5(a)に示す各クラスに対応する動物画像の一例である。 As shown in FIG. 5A, the classes include, for example, "deer facing forward", "deer facing right front", "deer facing left front", "deer facing right", and "deer facing left". Deer Facing Right, Deer Facing Right Rear, Deer Facing Left Rear, and Deer Facing Backward. Target animals may include humans, in which case the class may be "forward-facing humans," or the like. A class may be provided for a plurality of target animals, in which case the class might be "a herd of deer facing right". The class may include the posture of the target animal (standing, prone, etc.). is. FIG. 5(b) is an example of an animal image corresponding to each class shown in FIG. 5(a).

画像認識部42は、学習モデルを用いて、直前の撮像画像において設定されたバウンディングボックス内の対象動物の画像を入力情報として推定されるクラス確率を算出する。例えば、画像認識部42は、クラス確率として「前方を向く鹿」が8%、「右前方を向く鹿」が23%、「左前方を向く鹿」が0.3%、「右方を向く鹿」が67%、「左方を向く鹿」が2%・・・を出力した場合、最大のクラス確率に対応するクラス「右方を向く鹿」を出力し、移動方向が「右」であると判断する。 The image recognition unit 42 uses the learning model to calculate the estimated class probability using the image of the target animal within the bounding box set in the immediately preceding captured image as input information. For example, the image recognition unit 42 determines that the class probabilities of "deer facing forward" are 8%, "deer facing right front" is 23%, "deer facing left front" is 0.3%, and "deer facing right" is 0.3%. Deer" is 67%, and "deer facing left" is 2%. judge there is.

なお、ステップS104及びS110においても、移動方向推定処理が用いられる。例えば、画像認識部42は、学習済みの学習モデル461を用いることによって、順次取得した撮像画像において設定されたバウンディングボックス内の対象動物の画像を入力情報として推定されるクラス確率を算出する。そして、画像認識部42は、最も高い値のクラス確率に対応するクラスを出力する。例えば、画像認識部42は、クラス「左方を向く鹿」を出力した場合、撮像画像に、「左方を向く鹿」を捉えることになる。そして、種別「鹿」が対象動物である場合、ステップS104において、画像認識部42は、取得された撮像画像に対象動物を捉えたと判定する。なお、クラスに含まれる動物の種別が、対象動物でない場合、ステップS104において、画像認識部42は、取得された撮像画像に対象動物を捉えていないと判定する。 It should be noted that the movement direction estimation process is also used in steps S104 and S110. For example, the image recognition unit 42 uses the learned learning model 461 to calculate the estimated class probability using the image of the target animal within the bounding box set in the sequentially acquired captured images as input information. Then, the image recognition unit 42 outputs the class corresponding to the class probability with the highest value. For example, when the image recognition unit 42 outputs the class "deer facing left", it captures "deer facing left" in the captured image. Then, if the type "deer" is the target animal, in step S104, the image recognition unit 42 determines that the target animal has been captured in the acquired captured image. If the type of animal included in the class is not the target animal, the image recognition unit 42 determines in step S104 that the captured image does not capture the target animal.

(移動方向推定処理の変形例1)
また、移動方向推定処理は、上述の処理に限らない。例えば、ステップS109において、移動方向推定処理によって推定された移動方向の撮像画像が画像取得部41によって取得できるように、飛行ロボット4の向きを変更しても、移動方向の撮像画像に追跡対象動物が捉えられない場合、メイン制御部43は、対象動物を捉えることができるまで、飛行ロボット4を一定方向(左周り、右周り)に回転させるよう、飛行制御部44に指示する。
(Modified example 1 of movement direction estimation processing)
Also, the moving direction estimation process is not limited to the above process. For example, in step S109, even if the orientation of the flying robot 4 is changed, the captured image in the moving direction of the animal to be tracked can be acquired by the image acquisition unit 41 so that the captured image in the moving direction estimated by the moving direction estimation process can be acquired by the image acquisition unit 41. If the target animal cannot be caught, the main control unit 43 instructs the flight control unit 44 to rotate the flying robot 4 in a certain direction (counterclockwise or clockwise) until the target animal can be caught.

更新部47は、実際に対象動物を捉えることができた結果方向を記憶し、推定されたクラスと向きと結果方向を関連づけて飛行記憶部46に記憶する。そして、更新部47は、クラスごとに、結果方向の検知確率を算出し、算出した検知確率を示す情報を飛行記憶部46に記憶する。例えば、追跡対象動物が撮影画像に捉えられなくなる直前のクラスが「左前方を向く鹿」である場合、関連付けられた結果方向として、「左前方」が5回、「右前方」が3回、「後方」が2回である場合、図6に示すように、クラス「左前方を向く鹿」又は移動方向「左前方」に関連付けて、「左前方」の検知確率「0.5」、「右前方」の検知確率「0.3」及び「後方」の検知確率「0.2」が算出される。検知確率を示す情報は、検知確率情報の一例である。 The updating unit 47 stores the resulting direction in which the target animal was actually captured, associates the estimated class with the direction, and the resulting direction, and stores them in the flight storage unit 46 . Then, the update unit 47 calculates the resulting direction detection probability for each class, and stores information indicating the calculated detection probability in the flight storage unit 46 . For example, if the class immediately before the tracked animal is no longer captured in the captured image is "deer facing left front", the associated result directions are "left front" five times, "right front" three times, When "rear" is two times, as shown in FIG. A detection probability of "0.3" for "right front" and a detection probability of "0.2" for "back" are calculated. Information indicating the detection probability is an example of detection probability information.

このような検知確率を用いることにより、画像認識部42が、クラス「左前方を向く鹿」を出力し、移動方向が「左前方」であると判断した場合、初期の段階(結果方向が記憶されていない時期)では、メイン制御部43は、必ず、左前方の撮像画像が取得できるように、飛行制御部44に指示する。そして、更新部47による学習が進み、図6に示されるような結果方向が記憶された場合、画像認識部42が、クラス「左前方を向く鹿」を出力し、移動方向が「左前方」であると判断すると、メイン制御部43は、まず、検知確率が一番高い「左前方」の撮像画像が取得できるように、飛行制御部44に指示し、追跡対象動物を捉えることができなければ、検知確率が次に高い「右前方」の撮像画像が取得できるように、飛行制御部44に再指示し、さらに、追跡対象動物を捉えることができなければ、検知確率がその次に高い「後方」の撮像画像が取得できるように、飛行制御部44に再指示する。 By using such a detection probability, when the image recognition unit 42 outputs the class "deer facing left front" and determines that the movement direction is "left front", the initial stage (result direction is stored In the period when it is not performed, the main control unit 43 instructs the flight control unit 44 to always acquire the captured image of the left front. Then, when the learning by the update unit 47 progresses and the result direction as shown in FIG. 6 is stored, the image recognition unit 42 outputs the class "deer facing left front" and the moving direction is "left front". When the main control unit 43 determines that the target animal is to be tracked, the main control unit 43 first instructs the flight control unit 44 to acquire the captured image of the “front left” area, which has the highest probability of detection, and must be able to capture the animal to be tracked. For example, the flight control unit 44 is instructed again so that the captured image of the “front right” with the next highest probability of detection can be acquired. The flight control unit 44 is instructed again so that the captured image of the “rear” can be acquired.

図6の例では、追跡対象動物が捉えられなくなる直前の方向と同じ移動方向の撮影画像を取得することで追跡対象動物を検知できる確率が最も高いが、その次に検知確率が高いのは、むしろ逆方向の例である。野生動物の動きは、一見不規則であり且つ予測しにくいものの、当該動きには、特有の法則性がある場合ある。上述のような検知確率を用いることによって、野生動物に特有の法則性を学習して予測ロジックに反映させることが可能となる。 In the example of FIG. 6, the probability that the tracked animal can be detected is the highest by acquiring a captured image in the same moving direction as the direction immediately before the tracked animal is no longer captured. Rather, it is an example of the opposite direction. The movements of wild animals are seemingly irregular and difficult to predict, but there are cases where the movements have specific regularities. By using the detection probability as described above, it becomes possible to learn the regularities peculiar to wild animals and reflect them in the prediction logic.

なお、メイン制御部43による制御指示に、例外ルールが設定されてもよい。例えば、検知確率が一定未満の場合(例えば、「0.2」未満)、或いは検知可能性のある方向が所定数以上(例えば、3方向以上)の場合、メイン制御部43は、一度、飛行ロボット4が上昇するように飛行制御部44に指示する。そして、画像取得部41の視野範囲が広がることにより、画像認識部42が追跡対象動物を捉えた場合、メイン制御部43は、飛行ロボット4が下降するように飛行制御部44に指示する。一般に、野生動物の移動方向がランダムの場合、上述のような例外ルールによって飛行した方が追跡対象動物をより早く捉える可能性が高まる。なお、例外ルールによって飛行ロボット4を上昇させたことにより画像認識部42が追跡対象動物を捉えた場合、結果方向「上昇」と推定されたクラス(移動方向)とを関連付けて学習し、以降の移動方向推定処理に反映させてもよい。 Note that an exception rule may be set for the control instruction by the main control unit 43 . For example, when the detection probability is less than a certain value (for example, less than “0.2”), or when the number of possible detection directions is a predetermined number or more (for example, 3 directions or more), the main control unit 43 performs a flight once. The flight controller 44 is instructed so that the robot 4 ascends. When the image recognition unit 42 captures the tracked animal by widening the visual field range of the image acquisition unit 41, the main control unit 43 instructs the flight control unit 44 to cause the flying robot 4 to descend. In general, when wild animals move in random directions, flying according to the exception rule as described above increases the possibility of catching the tracked animal more quickly. Note that when the image recognition unit 42 catches the tracked animal by raising the flying robot 4 according to the exceptional rule, the resulting direction “rising” is associated with the estimated class (moving direction) for learning. It may be reflected in the movement direction estimation process.

(移動方向推定処理の変形例2)
また、移動方向推定処理において、強化学習によって学習済みの学習モデル461が用いられてもよい。例えば、ステップS109において、移動方向推定処理によって推定された移動方向の撮像画像が画像取得部41によって取得できるように、飛行ロボット4の向きを変更しても、移動方向の撮像画像に追跡対象動物が捉えられない場合において、以降の移動方向推定処理において、画像認識部42は、強化学習によって学習済みの学習モデル461を用いる。
(Modified example 2 of movement direction estimation processing)
Also, in the movement direction estimation process, the learning model 461 that has been learned by reinforcement learning may be used. For example, in step S109, even if the orientation of the flying robot 4 is changed, the captured image in the moving direction of the animal to be tracked can be acquired by the image acquisition unit 41 so that the captured image in the moving direction estimated by the moving direction estimation process can be acquired by the image acquisition unit 41. is not captured, the image recognition unit 42 uses the learning model 461 that has been learned by reinforcement learning in the subsequent movement direction estimation processing.

強化学習は、例えば、公知のQ学習である。学習モデル461として行動価値関数Qを使用する。Q学習では、環境の状態sと、その状態sで選択される行動aとを独立変数として、状態sで行動aを選択した場合の行動の価値を表す行動価値関数Q(s,a)が学習される。Q学習では、状態sと行動aとの相関性が未知の状態で学習が開始され、任意の状態sで種々の行動aを選択する試行錯誤を繰り返すことにより、行動価値関数Qが反復して更新される。また、Q学習では、ある状態sである行動aが選択された場合に、報酬rが得られるように構成され、より高い報酬rが得られる行動aが選択されるように、行動価値関数Qが学習される。 Reinforcement learning is, for example, known Q-learning. An action-value function Q is used as the learning model 461 . In Q-learning, the action value function Q(s, a) representing the action value when the action a is selected in the state s is obtained by using the environmental state s and the action a selected in the state s as independent variables. be learned. In Q-learning, learning is started in a state where the correlation between state s and action a is unknown, and by repeating trial and error to select various actions a in arbitrary state s, action-value function Q repeats Updated. In addition, in Q-learning, when an action a in a certain state s is selected, a reward r is obtained, and an action value function Q is learned.

行動価値関数Qの更新式は、以下の式(1)のように表される。 An update formula for the action-value function Q is expressed as the following formula (1).

Figure 0007155062000001
式(1)において、st及びatはそれぞれ時刻tにおける状態及び行動であり、行動atにより状態はstからst+1に変化する。rt+1は、状態がstからst+1に変化したことで得られる報酬である。maxQの項は、時刻t+1で最大の価値Qになる(と時刻tで考えられている)行動aを行ったときのQを意味する。α及びγはそれぞれ学習係数及び割引率であり、0<α≦1、0<γ≦1で任意に設定される。
Figure 0007155062000001
In equation (1), s t and a t are the state and action at time t, respectively, and the state changes from s t to s t+1 by action a t . r t+1 is the reward obtained by changing the state from s t to s t+1 . The term maxQ means the Q when the action a that becomes the maximum value Q at the time t+1 (considered at the time t) is performed. α and γ are a learning coefficient and a discount rate, respectively, and are arbitrarily set within 0<α≦1 and 0<γ≦1.

学習モデル461は、移動方向の撮像画像に追跡対象動物が捉えられない場合における探索方向としての価値を定める行動価値関数Qである。行動価値関数Qの初期状態は、飛行ロボット4が事前に飛行しながら取得した映像データ等を用いて事前に学習される。更新部47は、過去に、移動方向の撮像画像に追跡対象動物が捉えられないことになった時に、その直前の撮像画像における対象動物の向きを状態stとして特定する。更新部47は、時刻tの対象動物の向きに対し、特定方向への移動を行動atとする。更新部47は、特定方向への移動状況に基づいて報酬rを設定する。なお、対象動物の向きは、例えば、ユーザが映像データを視認することによって入力される。 The learning model 461 is an action value function Q that determines the value of the search direction when the tracked animal is not caught in the captured image in the movement direction. The initial state of the action-value function Q is learned in advance using image data or the like obtained while the flying robot 4 is flying in advance. In the past, when the tracked animal was not caught in the captured image in the movement direction, the updating unit 47 identifies the orientation of the target animal in the immediately previous captured image as the state s t . The updating unit 47 sets movement in a specific direction with respect to the orientation of the target animal at time t as action at. The updating unit 47 sets the reward r based on the state of movement in the specific direction. Note that the direction of the target animal is input by, for example, the user viewing video data.

更新部47は、時刻tの対象動物の向きに対し、飛行ロボット4の撮像方向を特定方向に変更した場合、この変更によって対象動物が捉えられた場合は、行動atの報酬rとして0より大きい値を設定し、この変更によって対象動物が捉えられなかった場合は、行動atの報酬rとして0を設定する。なお、更新部47は、時刻tでの対象動物の向きに対し、飛行ロボット4の撮像方向の変更により、対象動物を捉えることができるまでの変更回数、又は、対象動物を捉えることができるまでの時間が少ないほど、報酬rを大きい値に設定してもよい。また、更新部47は、特定方向として、飛行ロボット4の上昇又は下降を、行動atとして含めてもよい。この場合、飛行ロボット4の上昇により視野範囲が広がり、対象動物を見つけ易いが、対象動物への威嚇効果は減少するため、上昇を伴わないで検知した場合より報酬rを、少ない値に設定してもよい。 When the imaging direction of the flying robot 4 is changed to a specific direction with respect to the direction of the target animal at time t , the update unit 47 sets the reward r for the action at from 0 to If a large value is set and the target animal is not captured by this change, 0 is set as the reward r for the action at. Note that the update unit 47 updates the orientation of the target animal at time t by changing the imaging direction of the flying robot 4 until the target animal can be captured, or the number of changes until the target animal can be captured. The reward r may be set to a larger value as the time of is shorter. Further, the updating unit 47 may include the ascending or descending of the flying robot 4 as the action at as the specific direction. In this case, as the flying robot 4 rises, the visual field range is widened, making it easier to find the target animal, but the effect of intimidating the target animal is reduced. may

これにより、ステップS108において、画像認識部42は、学習された行動価値関数Qを使用した学習モデル461を用いて、撮像画像に追跡対象動物が捉えられなくなる直前の撮像画像から、高い報酬が得られる変更方向(飛行ロボット4の回転方向及び/又は位置)を出力することが可能となる。 Accordingly, in step S108, the image recognition unit 42 uses the learning model 461 using the learned action-value function Q to obtain a high reward from the captured image immediately before the tracked animal is no longer captured in the captured image. It is possible to output the changed direction (rotational direction and/or position of the flying robot 4) to be changed.

以上、詳述したように、本発明に係る監視システム及び飛行ロボットは、順次取得された撮像画像によって侵入物体を追跡している場合において、追跡を失敗しても、追跡失敗前の撮像画像に基づいて侵入物体の移動方向を推定することで侵入物体の追跡の継続を可能とする。 As described in detail above, the monitoring system and the flying robot according to the present invention track an intruding object using captured images that are sequentially acquired. By estimating the moving direction of the intruding object based on the above, it is possible to continue tracking the intruding object.

当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。 It should be understood by those skilled in the art that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

1:監視システム、2:検知センサ、3:コントローラ、4:飛行ロボット、41:画像取得部、42:画像認識部、43:メイン制御部、44:飛行制御部、45:位置取得部、46:飛行記憶部、461:学習モデル、47:更新部 1: monitoring system, 2: detection sensor, 3: controller, 4: flying robot, 41: image acquisition unit, 42: image recognition unit, 43: main control unit, 44: flight control unit, 45: position acquisition unit, 46 : flight memory unit, 461: learning model, 47: update unit

Claims (7)

監視区域に侵入した侵入物体を検知する検知センサと、撮像画像を順次取得する画像取得部を有し、前記検知センサが前記侵入物体を検知すると自律的に飛行する飛行ロボットと、を備えた監視システムであって、
前記検知センサは、前記侵入物体の検知に応じて、前記侵入物体の侵入位置を示す侵入位置情報を出力し、
前記飛行ロボットは、
前記飛行ロボットの飛行を制御する飛行制御部と、
前記侵入位置情報を取得する位置取得部と、
前記侵入位置情報によって示される前記侵入位置付近を飛行中に取得された前記撮像画像において対象動物を捉えたか否かを判定する画像認識部と、
前記撮像画像に前記対象動物を捉えたと判定した場合、以降において取得された撮像画像に前記対象動物を捉えられる位置に飛行するように前記飛行制御部に指示するメイン制御部、とを有し、
前記画像認識部は、前記撮像画像に前記対象動物を捉えた後に、前記撮像画像に前記対象動物を捉えていないと判定すると、前記対象動物を捉えられなくなる直前の撮像画像における対象動物を示す対象画像に基づいて、前記対象動物の移動方向を推定し、
前記メイン制御部は、前記画像取得部の撮像方向が前記推定された移動方向に変更されるように、前記飛行ロボットの向きを変更することを前記飛行制御部に指示する、
ことを特徴とする監視システム。
A surveillance comprising: a detection sensor that detects an intruding object that has entered a surveillance area; and a flying robot that has an image acquisition unit that sequentially acquires captured images, and that autonomously flies when the detection sensor detects the intruding object. a system,
The detection sensor outputs intrusion position information indicating an intrusion position of the intruding object in response to detection of the intruding object,
The flying robot is
a flight control unit that controls the flight of the flying robot;
a position acquisition unit that acquires the intrusion position information;
an image recognition unit that determines whether or not the target animal is captured in the captured image acquired while flying in the vicinity of the intrusion position indicated by the intrusion position information;
a main control unit that instructs the flight control unit to fly to a position where the target animal can be captured in the subsequently acquired captured image when it is determined that the target animal is captured in the captured image;
When the image recognition unit determines that the target animal is not captured in the captured image after capturing the target animal in the captured image, the image recognition unit indicates the target animal in the captured image immediately before the target animal cannot be captured. estimating the moving direction of the target animal based on the image;
The main control unit instructs the flight control unit to change the orientation of the flying robot so that the imaging direction of the image acquisition unit is changed to the estimated movement direction.
A surveillance system characterized by:
前記画像認識部は、動物を示す動物画像と当該動物の種別及び向きを示す情報とを教師データとして用いた機械学習によって生成された学習モデルによって、前記撮像画像に前記対象動物が捉えられなくなる直前の撮像画像に捉えられている対象動物を示す前記対象画像から推定される前記対象動物の種別及び向きを推定し、推定した前記向きを、前記対象動物の移動方向とする、請求項1に記載の監視システム。 Immediately before the target animal is no longer captured in the captured image, the image recognition unit uses a learning model generated by machine learning using an animal image representing the animal and information representing the type and orientation of the animal as teacher data. 2. The method according to claim 1, wherein the type and direction of the target animal estimated from the target image showing the target animal captured in the captured image of the target animal are estimated, and the estimated direction is used as the moving direction of the target animal. monitoring system. 前記飛行ロボットは、記憶部を更に有し、
前記画像認識部は、前記メイン制御部による指示によって前記撮像方向が変更された後の撮像画像に前記対象動物を捉えたか否かを判定した結果を検知確率情報として前記記憶部に記憶し、
前記メイン制御部は、前記撮像方向が変更された後の前記撮像画像に前記対象動物を捉えていないと判定された場合、前記撮像方向が他の方向に変更されるように、前記飛行ロボットの向きを変更することを前記飛行制御部に再指示し、
前記検知確率情報に基づいて、前記対象動物の移動方向を推定し、前記撮像方向を決定する、請求項1又は2に記載の監視システム。
The flying robot further has a storage unit,
The image recognition unit stores in the storage unit, as detection probability information, a result of determining whether or not the target animal is captured in the captured image after the imaging direction has been changed according to an instruction from the main control unit,
When it is determined that the target animal is not captured in the captured image after the imaging direction is changed, the main control unit controls the flying robot to change the imaging direction to another direction. reinstructing the flight control unit to change orientation;
3. The monitoring system according to claim 1, wherein the moving direction of the target animal is estimated based on the detection probability information, and the imaging direction is determined.
前記飛行ロボットは、前記監視区域に侵入物体を前記監視区域の外に追い出すための出口位置に向かって自律的に飛行可能であり、前記画像認識部は、前記監視区域に侵入した前記対象動物が複数である場合、前記複数の対象動物のうち、前記出口位置との距離が最長である対象動物を追い出し対象として特定する、請求項1~3のいずれか一項に記載の監視システム。 The flying robot is capable of autonomously flying toward an exit position for expelling an intruding object out of the surveillance area. 4. The monitoring system according to any one of claims 1 to 3, wherein when there are a plurality of target animals, the target animal with the longest distance from the exit position is specified as the target to be ejected. 前記飛行ロボットは、前記監視区域に侵入物体を前記監視区域の外に追い出すための出口位置に向かって自律的に飛行可能であり、
前記画像認識部は、
前記監視区域に侵入した前記対象動物が複数である場合、前記複数の対象動物のそれぞれの前記移動方向を推定し、
推定された各対象動物の前記移動方向のうち、前記出口位置への方向となす角度が最大である対象動物を追い出し対象として特定する、請求項1~3のいずれか一項に記載の監視システム。
The flying robot is capable of autonomously flying toward an exit position for expelling objects that enter the surveillance area out of the surveillance area;
The image recognition unit
when a plurality of the target animals have entered the surveillance area, estimating the movement direction of each of the plurality of target animals;
4. The monitoring system according to any one of claims 1 to 3, wherein, among the estimated moving directions of each target animal, the target animal that forms the largest angle with the direction to the exit position is specified as the target to be kicked out. .
前記画像認識部は、前記推定された移動方向を状態とし、前記撮像方向の特定方向を行動とした場合における、前記行動に対する価値を定めた行動価値関数に基づいて、前記対象動物の移動方向を推定し、
前記飛行ロボットは、前記推定された移動方向において、前記飛行ロボットの向きを変更することにより撮像画像に前記対象動物が捉えられるようになった前記撮像方向を変更した方向に基づいて各行動に報酬を設定して、前記行動価値関数を更新する更新部を更に有する、請求項1に記載の監視システム。
The image recognition unit determines the moving direction of the target animal based on an action value function that determines the value of the action when the estimated moving direction is the state and the specific direction of the imaging direction is the action. presume,
The flying robot rewards each action based on the changed imaging direction in which the target animal can be captured in the captured image by changing the direction of the flying robot in the estimated moving direction. 2. The monitoring system according to claim 1, further comprising an updating unit that updates the action-value function by setting .
撮像画像を順次取得する画像取得部を有し、自律的に飛行可能な飛行ロボットであって、
前記飛行ロボットの飛行を制御する飛行制御部と、
飛行中に取得された前記撮像画像において対象動物を捉えたか否かを判定する画像認識部と、
前記撮像画像に前記対象動物を捉えたと判定された場合、以降において取得された撮像画像に前記対象動物を捉えられる位置に向かう飛行を前記飛行制御部に指示するメイン制御部と、を有し、
前記画像認識部は、前記撮像画像に前記対象動物を捉えた後に、前記撮像画像に前記対象動物を捉えていないと判定すると、前記対象動物を捉えられなくなる直前の撮像画像における対象動物を示す対象画像に基づいて、前記対象動物の移動方向を推定し、
前記メイン制御部は、前記画像取得部の撮像方向が前記推定された移動方向に変更されるように、前記飛行ロボットの向きを変更することを前記飛行制御部に指示する、
ことを特徴とする飛行ロボット。
A flying robot having an image acquisition unit that sequentially acquires captured images and capable of autonomous flight,
a flight control unit that controls the flight of the flying robot;
an image recognition unit that determines whether or not the target animal is captured in the captured image acquired during flight;
a main control unit that, when it is determined that the target animal is captured in the captured image, instructs the flight control unit to fly toward a position where the target animal can be captured in the subsequently acquired captured image;
When the image recognition unit determines that the target animal is not captured in the captured image after capturing the target animal in the captured image, the image recognition unit indicates the target animal in the captured image immediately before the target animal cannot be captured. estimating the moving direction of the target animal based on the image;
The main control unit instructs the flight control unit to change the orientation of the flying robot so that the imaging direction of the image acquisition unit is changed to the estimated movement direction.
A flying robot characterized by:
JP2019064232A 2019-03-28 2019-03-28 Surveillance system and flying robot Active JP7155062B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019064232A JP7155062B2 (en) 2019-03-28 2019-03-28 Surveillance system and flying robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019064232A JP7155062B2 (en) 2019-03-28 2019-03-28 Surveillance system and flying robot

Publications (2)

Publication Number Publication Date
JP2020162438A JP2020162438A (en) 2020-10-08
JP7155062B2 true JP7155062B2 (en) 2022-10-18

Family

ID=72714587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019064232A Active JP7155062B2 (en) 2019-03-28 2019-03-28 Surveillance system and flying robot

Country Status (1)

Country Link
JP (1) JP7155062B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102392822B1 (en) * 2021-06-10 2022-05-02 주식회사 에이투마인드 Device of object detecting and tracking using day type camera and night type camera and method of detecting and tracking object

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101999A (en) 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp Monitoring camera system
JP2014119827A (en) 2012-12-13 2014-06-30 Secom Co Ltd Imaging system
JP2016119625A (en) 2014-12-22 2016-06-30 セコム株式会社 Monitoring system
JP2017102824A (en) 2015-12-04 2017-06-08 クラリオン株式会社 Tracker
JP2018050503A (en) 2016-09-27 2018-04-05 正秀 小林 System and method for repelling or exterminating harmful animal
JP2018068221A (en) 2016-10-31 2018-05-10 株式会社エンルートM’s Unmanned device for harmful animal extermination, harmful animal extermination method, and program
JP2018099044A (en) 2016-12-19 2018-06-28 福岡金網工業株式会社 Capturing method of wild deer, and capturing installation
JP2019047755A (en) 2017-09-11 2019-03-28 Kddi株式会社 Management device, program, management method, and flight device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170137664A (en) * 2017-11-24 2017-12-13 노인철 A method of how to eliminate birds using speakers and spreader installed on the drones

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101999A (en) 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp Monitoring camera system
JP2014119827A (en) 2012-12-13 2014-06-30 Secom Co Ltd Imaging system
JP2016119625A (en) 2014-12-22 2016-06-30 セコム株式会社 Monitoring system
JP2017102824A (en) 2015-12-04 2017-06-08 クラリオン株式会社 Tracker
JP2018050503A (en) 2016-09-27 2018-04-05 正秀 小林 System and method for repelling or exterminating harmful animal
JP2018068221A (en) 2016-10-31 2018-05-10 株式会社エンルートM’s Unmanned device for harmful animal extermination, harmful animal extermination method, and program
JP2018099044A (en) 2016-12-19 2018-06-28 福岡金網工業株式会社 Capturing method of wild deer, and capturing installation
JP2019047755A (en) 2017-09-11 2019-03-28 Kddi株式会社 Management device, program, management method, and flight device

Also Published As

Publication number Publication date
JP2020162438A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP7465615B2 (en) Smart aircraft landing
US20230365129A1 (en) Apparatus and methods for obstacle detection
JP6312178B2 (en) Navigation system, method for evaluating state information of transport aircraft, and apparatus for evaluating state information of transport aircraft
JP6609833B2 (en) Method and system for controlling the flight of an unmanned aerial vehicle
JP6664162B2 (en) Autonomous flying robot
US20190220039A1 (en) Methods and system for vision-based landing
RU2652482C2 (en) Measurement system for measuring trees
JP6599143B2 (en) Autonomous mobile robot
JP2014119828A (en) Autonomous aviation flight robot
JP5990453B2 (en) Autonomous mobile robot
CN110525650B (en) Unmanned aerial vehicle and control method thereof
KR102313115B1 (en) Autonomous flying drone using artificial intelligence neural network
JP2014149621A (en) Autonomous flying robot
JP6140458B2 (en) Autonomous mobile robot
JP6527726B2 (en) Autonomous mobile robot
KR20180117879A (en) Method and apparatus for position estimation of unmanned vehicle based on graph structure
CN114200471B (en) Forest fire source detection system and method based on unmanned aerial vehicle, storage medium and equipment
US11210794B2 (en) Moving object detection system
US11865978B2 (en) Object tracking system including stereo camera assembly and methods of use
CN112740226A (en) Operating system and method of movable object based on human body indication
JP6758068B2 (en) Autonomous mobile robot
JP6014484B2 (en) Autonomous mobile robot
JP6469492B2 (en) Autonomous mobile robot
JP6530212B2 (en) Autonomous mobile robot
CN112666969A (en) Unmanned aerial vehicle and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R150 Certificate of patent or registration of utility model

Ref document number: 7155062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150