JP2019159624A - Unmanned aircraft, and watching method - Google Patents

Unmanned aircraft, and watching method Download PDF

Info

Publication number
JP2019159624A
JP2019159624A JP2018043746A JP2018043746A JP2019159624A JP 2019159624 A JP2019159624 A JP 2019159624A JP 2018043746 A JP2018043746 A JP 2018043746A JP 2018043746 A JP2018043746 A JP 2018043746A JP 2019159624 A JP2019159624 A JP 2019159624A
Authority
JP
Japan
Prior art keywords
flight control
subject
target person
unit
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018043746A
Other languages
Japanese (ja)
Other versions
JP7102794B2 (en
Inventor
龍治 大谷
Ryuji Otani
龍治 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018043746A priority Critical patent/JP7102794B2/en
Publication of JP2019159624A publication Critical patent/JP2019159624A/en
Application granted granted Critical
Publication of JP7102794B2 publication Critical patent/JP7102794B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a technique capable of inhibiting that an acting person who generates a hazardous event runs away, when the hazardous event (snatching, violence action, or the like) is generated to an object person, that is, to provide an unmanned aircraft and a watching method thereof.SOLUTION: A flight control part 108 tracks an object person, based on a position of the object person detected by an object person detection part 106. When detecting that a hazardous event is generated to the object person tracked by a hazardous event detection part 104, the flight control part 108 tracks a moving body detected after a moving body detection part 105 processes a frame image relating to a moving image imaged by a camera 6.SELECTED DRAWING: Figure 2

Description

この発明は、対象者を見守る技術に関する。   The present invention relates to a technique for watching an object person.

従来、無人航空機によって、対象者を見守る技術があった(特許文献1、2等参照)。   Conventionally, there has been a technique for watching an object person with an unmanned aerial vehicle (see Patent Documents 1 and 2).

特許文献1は、対象者(被監視者)が携帯するスマートフォン等の情報端末装置が、GPSや携帯電話の無線基地局から取得した自端末の位置を無人航空機(ドローン装置)へ送信する。無人航空機は、GPSにより自機の位置を取得し、受信した情報端末装置の位置と取得した自機の位置に基づく自立飛行によって、対象者を追跡するとともに、搭載している映像カメラにより撮影した対象者の周辺映像を所定の送信先に送信する構成である。   In Patent Document 1, an information terminal device such as a smartphone carried by a subject (monitored person) transmits the position of the terminal acquired from a GPS or a mobile phone wireless base station to an unmanned aircraft (drone device). The unmanned aerial vehicle acquires the position of its own aircraft by GPS, tracks the target person by self-sustained flight based on the received position of the information terminal device and the acquired position of the own aircraft, and shoots with the mounted video camera In this configuration, the peripheral video of the target person is transmitted to a predetermined transmission destination.

また、特許文献2は、対象者が携帯する携帯ビーコン発信ユニットが発信するビーコン信号を無人航空機で直接受信する。無人航空機は、ビーコン信号の到来方向に基づく自立飛行によって、対象者を追跡すると共に、搭載している映像カメラにより撮影した対象者の周辺映像を所定の送信先に送信する構成である。   Patent Document 2 directly receives a beacon signal transmitted by a portable beacon transmission unit carried by a subject by an unmanned aircraft. The unmanned aerial vehicle is configured to track a target person by self-sustained flight based on the direction of arrival of a beacon signal and to transmit a peripheral image of the target person captured by a mounted video camera to a predetermined transmission destination.

特開2015−207149号公報JP2015-207149A 特開2017−114270号公報JP 2017-114270 A

しかしながら、上述した特許文献1、2は、端末(情報端末装置、または携帯ビーコン発信ユニット)を所持している対象者を追跡することによって、対象者を見守るだけで、対象者に危険事象(ひったくり、暴力行為等)が発生したときに、その危険事象を発生させた行為者に逃げ去られてしまうのを阻むことについてまで想定していない。   However, in Patent Documents 1 and 2 described above, by tracking a target person who possesses a terminal (an information terminal device or a portable beacon transmission unit), the target person can be watched for a dangerous event (snacking). , Violent acts, etc.) are not supposed to be prevented from being escaped by the actor who caused the dangerous event.

この発明の目的は、対象者に危険事象(ひったくり、暴力行為等)が発生したときに、その危険事象を発生させた行為者が逃げ去ってしまうのを阻むことができる技術を提供することにある。   An object of the present invention is to provide a technique capable of preventing an actor who has generated a dangerous event from escaping when a dangerous event (such as snatching or violent behavior) occurs in a subject. is there.

この発明の無人航空機は、上記目的を達成するため以下に示すように構成している。   The unmanned aerial vehicle of the present invention is configured as follows to achieve the above object.

移動体検出部が、搭載されている撮像装置によって撮像された動画像にかかるフレーム画像を処理して撮像されている移動体を検出する。また、対象者検知部が、対象者の位置を検知する。飛行制御部が、対象者検知部が検知した対象者の位置に基づいて、当該対象者を追跡する第1飛行制御を行う。また、事象検知部が、追跡している対象者に危険事象が発生したかどうかを検知する。そして、飛行制御部は、事象検知部において追跡している前記対象者に危険事象が発生したことを検知すると、移動体検出部が撮像装置によって撮像された動画像にかかるフレーム画像を処理して検出した移動体を追跡する第2飛行制御を行う。   A moving body detection unit detects a moving body being imaged by processing a frame image related to a moving image captured by a mounted imaging device. In addition, the target person detection unit detects the position of the target person. The flight control unit performs first flight control for tracking the target person based on the position of the target person detected by the target person detection part. In addition, the event detection unit detects whether or not a dangerous event has occurred in the subject being tracked. When the flight control unit detects that a dangerous event has occurred in the subject tracked by the event detection unit, the flight detection unit processes a frame image of the moving image captured by the imaging device. Second flight control for tracking the detected moving object is performed.

この構成によれば、対象者に危険事象(ひったくり、暴力行為等)が発生したときに、その危険事象を発生させた行為者の追跡を開始する。具体的には、対象者に危険事象が発生したときに、行為者、または行為者が乗車する車両、バイク等を追跡する移動体として検出し、この移動体の追跡を開始する。したがって、対象者に危険事象が発生したときに、その危険事象を発生させた行為者が逃げ去ってしまうのを阻むことができる。   According to this configuration, when a dangerous event (such as snatching or violent behavior) occurs in the target person, tracking of the actor who generated the dangerous event is started. Specifically, when a dangerous event occurs in the target person, it is detected as a moving body that tracks an actor or a vehicle, motorcycle, etc. on which the actor gets on, and tracking of this moving body is started. Therefore, when a dangerous event occurs in the subject, it is possible to prevent the actor who generated the dangerous event from escaping.

また、飛行制御部による第2飛行制御は、例えば、追跡している移動体の移動に応じて、当該移動体が撮像装置によって撮像された動画像にかかるフレーム画像に撮像されるように無人航空機本体の飛行を制御する構成にすればよい。これにより、対象者に危険事象を発生させた移動体の追跡において、当該移動体を見失うのを抑制できる。   In addition, the second flight control by the flight control unit is, for example, an unmanned aerial vehicle such that the moving body is captured in a frame image related to a moving image captured by the imaging device in accordance with the movement of the tracked moving body. What is necessary is just to set it as the structure which controls the flight of a main body. Thereby, it is possible to suppress losing sight of the moving body in the tracking of the moving body that has caused the dangerous event to the subject.

また、飛行制御部が第2飛行制御を開始したとき、対象者に危険事象が発生した位置情報を含む当該対象者の追跡要求を出力する出力部を備えてもよい。このように構成すれば、対象者に危険事象が発生したときに、当該対象者の見守りを別の無人航空機に引き継ぐことができる。   In addition, when the flight control unit starts the second flight control, an output unit may be provided that outputs a tracking request for the subject including position information where the dangerous event has occurred in the subject. If comprised in this way, when a dangerous event generate | occur | produces in an object person, the said object person's watching over can be handed over to another unmanned aircraft.

さらに、撮像装置によって撮像された動画像を記憶する動画像記憶部と、飛行制御部が第1飛行制御によって対象者の追跡を開始してから、当該対象者の追跡を終了するまでの間に、事象検知部が追跡している対象者に危険事象が発生したことを検知しなければ、この間に撮像装置によって撮像された動画像を動画像記憶部から削除する画像削除部と、を備える構成にしてもよい。   Furthermore, a moving image storage unit that stores a moving image picked up by the image pickup device, and a period from when the flight control unit starts tracking the target person through the first flight control to when the tracking of the target person ends. An image deletion unit that deletes a moving image captured by the imaging apparatus during this period from the moving image storage unit if the event detection unit does not detect that a dangerous event has occurred in the subject being tracked It may be.

このようにすれば、対象者の見守り中に撮像した、対象者にかかる動画像が他人に見られることがない。したがって、対象者のプライバシーを侵害することなく、対象者の安心安全を見守ることができる。   In this way, a moving image of the subject captured while the subject is watching is not seen by others. Therefore, it is possible to watch the subject's safety and security without infringing on the subject's privacy.

この発明によれば、対象者に危険事象(ひったくり、暴力行為等)が発生したときに、その危険事象を発生させた行為者が逃げ去ってしまうのを阻むことができる。   According to the present invention, when a dangerous event (such as snatching, violent behavior, etc.) occurs in the subject, it is possible to prevent the actor who generated the dangerous event from escaping.

見守りシステムの概要を説明する図である。It is a figure explaining the outline | summary of a watching system. ドローンの主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of drone. 携帯端末の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of a portable terminal. 管理装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of a management apparatus. ドローンにおける対象者の見守り動作を示すフローチャートである。It is a flowchart which shows the monitoring operation | movement of the subject in a drone.

以下、この発明の実施形態について説明する。   Embodiments of the present invention will be described below.

<1.適用例>
図1は、この発明の実施形態にかかる見守りシステムの概要を説明する図である。この見守りシステムは、ドローン1と、携帯端末2と、管理装置3とを備えている。ドローン1が、この発明で言う無人航空機に相当する。携帯端末2は、対象者が所持する。管理装置3は、1または複数のドローン1を管理する。
<1. Application example>
FIG. 1 is a diagram for explaining an overview of a monitoring system according to an embodiment of the present invention. This watching system includes a drone 1, a mobile terminal 2, and a management device 3. The drone 1 corresponds to the unmanned aircraft referred to in the present invention. The portable terminal 2 is possessed by the subject. The management device 3 manages one or a plurality of drones 1.

携帯端末2は、GPS(Global Positioning System)を利用して、自端末の位置(緯度、経度、高度)を取得するGPS機能を有している。携帯端末2は、GPS機能で取得した自端末の位置を示す位置情報をドローン1に送信する。携帯端末2は、位置情報をドローン1に直接送信する構成であってもよいし、管理装置3を介してドローン1に送信する構成であってもよい。   The portable terminal 2 has a GPS function that acquires the position (latitude, longitude, altitude) of the terminal itself using GPS (Global Positioning System). The portable terminal 2 transmits position information indicating the position of the own terminal acquired by the GPS function to the drone 1. The mobile terminal 2 may be configured to transmit position information directly to the drone 1 or may be configured to transmit to the drone 1 via the management device 3.

ドローン1は、携帯端末2と同様に自機の位置(緯度、経度、高度)を取得するGPS機能を有している。ドローン1は、GPSにより自機の位置を取得し、受信した位置情報に基づく携帯端末2の位置と、取得した自機の位置とに基づく自立飛行によって、対象者を追跡する。すなわち、ドローン1は、携帯端末2の位置の変化に応じて、自機の位置を変化させる自立飛行を行う。   The drone 1 has a GPS function for acquiring the position (latitude, longitude, altitude) of its own device, similar to the mobile terminal 2. The drone 1 acquires the position of the own device by GPS, and tracks the subject by independent flight based on the position of the mobile terminal 2 based on the received position information and the acquired position of the own device. That is, the drone 1 performs a self-sustained flight that changes the position of the own aircraft according to a change in the position of the mobile terminal 2.

また、ドローン1は、対象者を追跡しているとき、搭載しているビデオカメラにより対象者の周辺映像を撮像する。ドローン1は、ビデオカメラによる対象者の周辺映像等を処理して、当該対象者に危険事象(ひったくり、暴力行為等)が発生したかどうかを検知する。ドローン1は、対象者に危険事象が発生したことを検知すると、その危険事象を発生させた行為者の追跡を開始する。   Further, when the drone 1 is tracking the target person, the drone 1 captures a peripheral video of the target person with a video camera installed therein. The drone 1 processes the surrounding video of the subject using a video camera, and detects whether or not a dangerous event (such as snatching or violence) has occurred in the subject. When the drone 1 detects that a dangerous event has occurred in the target person, the drone 1 starts tracking the actor who has generated the dangerous event.

なお、ドローン1、および携帯端末2は、管理装置3との間におけるデータ通信を、図1に示すネットワーク5を介して行う。   The drone 1 and the mobile terminal 2 perform data communication with the management device 3 via the network 5 shown in FIG.

<2.構成例>
図2は、ドローンの主要部の構成を示すブロック図である。ドローン1は、制御ユニット11と、記憶ユニット12と、動画像入力部13と、音声入力部14と、通信部15と、センシングユニット16と、飛行駆動部17とを備えている。
<2. Configuration example>
FIG. 2 is a block diagram showing the configuration of the main part of the drone. The drone 1 includes a control unit 11, a storage unit 12, a moving image input unit 13, a voice input unit 14, a communication unit 15, a sensing unit 16, and a flight drive unit 17.

制御ユニット11は、ドローン1本体各部の動作を制御する。制御ユニット11は、画像処理部101と、音声処理部102と、センシング信号処理部103と、危険事象検知部104と、移動体検出部105と、対象者検知部106と、動画像削除部107と、飛行制御部108とを有している。制御ユニット11が有する構成の詳細については後述する。   The control unit 11 controls the operation of each part of the drone 1 body. The control unit 11 includes an image processing unit 101, an audio processing unit 102, a sensing signal processing unit 103, a dangerous event detection unit 104, a moving object detection unit 105, a target person detection unit 106, and a moving image deletion unit 107. And a flight control unit 108. Details of the configuration of the control unit 11 will be described later.

記憶ユニット12は、動画像記憶部111、および追跡情報記憶部112を有している。動画像記憶部111は、ドローン1本体に搭載されているカメラ6によって撮像された動画像を記憶する。カメラ6は、ビデオカメラであり、数十フレーム/sec(10〜30レーム/sec)程度のフレームレートで動画像を撮像する。カメラ6が、この発明で言う撮像装置に相当する。追跡情報記憶部112は、ドローン1本体の飛行経路を示す情報を追跡情報として記憶する。この追跡情報は、例えば日時とドローン1本体の位置(緯度、経度、高度)を対応付けた飛行履歴情報である。この追跡情報は、ドローン1の位置を一定の時間間隔で登録したものであってもよいし、ドローン1の位置を不定期の時間間隔で登録したものであってもよい。   The storage unit 12 includes a moving image storage unit 111 and a tracking information storage unit 112. The moving image storage unit 111 stores a moving image captured by the camera 6 mounted on the drone 1 body. The camera 6 is a video camera and captures a moving image at a frame rate of about several tens of frames / sec (10 to 30 frames / sec). The camera 6 corresponds to the imaging device referred to in the present invention. The tracking information storage unit 112 stores information indicating the flight path of the drone 1 main body as tracking information. This tracking information is flight history information in which the date and time and the position (latitude, longitude, altitude) of the drone 1 main body are associated with each other. The tracking information may be information obtained by registering the location of the drone 1 at a constant time interval, or may be information obtained by registering the location of the drone 1 at irregular time intervals.

動画像入力部13は、カメラ6によって撮像された動画像が入力される。   A moving image captured by the camera 6 is input to the moving image input unit 13.

音声入力部14は、ドローン1本体に搭載されているマイクロフォン7(以下、単にマイク7と言う。)で集音した音声にかかる音声信号が入力される。   The voice input unit 14 receives a voice signal related to a voice collected by a microphone 7 (hereinafter simply referred to as a microphone 7) mounted on the drone 1 body.

通信部15は、携帯端末2、および管理装置3との間におけるデータ通信を行う。通信部15が、この発明で言う出力部に相当する構成を有する。   The communication unit 15 performs data communication between the mobile terminal 2 and the management device 3. The communication unit 15 has a configuration corresponding to the output unit referred to in the present invention.

センシングユニット16は、各種センサを有する。センシングユニット16には、ドローン1本体の位置(緯度、経度、高度)を計測するGPSセンサ、ドローン1本体の加速度を計測する3軸の加速度センサ、ドローン1本体の角速度を計測する3軸のジャイロセンサ、気圧を計測する気圧センサ、障害物を検知するレーダ等、様々な種類のセンサが含まれる。   The sensing unit 16 has various sensors. The sensing unit 16 includes a GPS sensor that measures the position (latitude, longitude, altitude) of the drone 1 body, a 3-axis acceleration sensor that measures the acceleration of the drone 1 body, and a 3-axis gyro that measures the angular velocity of the drone 1 body. Various types of sensors are included, such as sensors, barometric pressure sensors that measure atmospheric pressure, and radars that detect obstacles.

飛行駆動部17は、エンジン、プロペラ等を駆動してドローン1本体を飛行させる。   The flight drive unit 17 drives the engine, propeller, and the like to fly the drone 1 body.

次に、制御ユニット11が有する、画像処理部101、音声処理部102、センシング信号処理部103、危険事象検知部104、移動体検出部105、対象者検知部106、動画像削除部107、および飛行制御部108について説明する。   Next, the control unit 11 includes an image processing unit 101, a sound processing unit 102, a sensing signal processing unit 103, a dangerous event detection unit 104, a moving object detection unit 105, a subject detection unit 106, a moving image deletion unit 107, and The flight control unit 108 will be described.

画像処理部101は、動画像入力部13に入力された動画像にかかるフレーム画像を処理して、フレーム画像に撮像されている人や物(以下、総称してオブジェクトと言う。)を検出する。画像処理部101は、例えば、公知のパターンマッチングによって、フレーム画像に撮像されているオブジェクトの検出、およびそのオブジェクトの種類の識別を行う。画像処理部101は、フレーム画像に撮像されているオブジェクトの検出、およびそのオブジェクトの種類の識別において、例えば、公知の微分フィルタ等を用いてフレーム画像に対するエッジ抽出処理を実行し、撮像されているオブジェクトの外形形状を検出する。   The image processing unit 101 processes a frame image applied to the moving image input to the moving image input unit 13 and detects a person or an object (hereinafter collectively referred to as an object) captured in the frame image. . The image processing unit 101 detects, for example, an object captured in a frame image and identifies the type of the object by known pattern matching. In the detection of an object captured in a frame image and the identification of the type of the object, the image processing unit 101 performs edge extraction processing on the frame image using, for example, a known differential filter, and is captured. Detect the outer shape of the object.

音声処理部102は、音声入力部14に入力された音声信号を処理し、悲鳴、怒声等を検出する。   The voice processing unit 102 processes the voice signal input to the voice input unit 14 and detects screams, screams, and the like.

センシング信号処理部103は、センシングユニット16が有する各種センサのセンシング信号を処理し、ドローン1本体の位置、ドローン1本体の加速度、ドローン1本体の角速度、気圧、障害物の有無等を取得する。   The sensing signal processing unit 103 processes sensing signals of various sensors included in the sensing unit 16, and acquires the position of the drone 1 body, the acceleration of the drone 1 body, the angular velocity of the drone 1 body, the atmospheric pressure, the presence / absence of an obstacle, and the like.

危険事象検知部104は、画像処理部101において検出されたオブジェクトの1つである対象者の挙動、または姿勢の変化を解析し、当該対象者にひったくり、暴力行為等の危険事象が発生したかどうかを検出する。危険事象検知部104が、この発明で言う事象検知部に相当する。   The dangerous event detection unit 104 analyzes a change in the behavior or posture of the target person, which is one of the objects detected by the image processing unit 101, and whether the target person has a dangerous event such as snatching or violent behavior. Detect if. The dangerous event detection unit 104 corresponds to the event detection unit referred to in the present invention.

移動体検出部105は、危険事象検知部104が対象者にひったくり、暴力行為等の危険事象が発生したことを検出すると、その危険事象を発生させた行為者、またはその行為者が乗車する車両またはバイク等の移動体を検出する。具体的には、移動体検出部105は、対象者に危険事象が発生したときに、画像処理部101において検出されたオブジェクトの中で、当該対象者の近くに存在していた移動体を行為者(その行為者が乗車する車両またはバイク等を含む)として検出する。   When the dangerous event detection unit 104 detects the occurrence of a dangerous event such as a violent action by the dangerous event detecting unit 104, the moving object detecting unit 104 or the vehicle on which the actor gets on is detected. Alternatively, a moving body such as a motorcycle is detected. Specifically, the moving object detection unit 105 acts on a moving object that exists near the target person among the objects detected by the image processing unit 101 when a dangerous event occurs in the target person. It is detected as a person (including a vehicle or a motorcycle on which the actor rides).

対象者検知部106は、画像処理部101において検出されたオブジェクトの中から、対象者を検出する。対象者検知部106は、携帯端末2の位置と、ドローン1本体の位置とに基づいて、その携帯端末2を所持している対象者を特定する。ドローン1は、携帯端末2から送信されてきた自端末の位置を示す位置情報によって、携帯端末2の位置を取得する。   The target person detection unit 106 detects a target person from the objects detected by the image processing unit 101. The target person detection unit 106 specifies a target person who owns the mobile terminal 2 based on the position of the mobile terminal 2 and the position of the drone 1 main body. The drone 1 acquires the position of the mobile terminal 2 based on the position information indicating the position of the own terminal transmitted from the mobile terminal 2.

動画像削除部107は、動画像記憶部111に記憶しているカメラ6で撮像した動画像を削除する。   The moving image deletion unit 107 deletes the moving image captured by the camera 6 stored in the moving image storage unit 111.

飛行制御部108は、飛行駆動部17に対して、エンジン、プロペラ等の駆動制御信号を入力する。言い換えれば、飛行駆動部17は、飛行制御部108からの指示にしたがって、エンジン、プロペラ等を駆動し、ドローン1本体を飛行させる。飛行制御部108は、携帯端末2を所持している対象者を追跡する第1飛行制御、および携帯端末2を所持していない行為者を追跡する第2飛行制御によって、ドローン1本体を飛行させる。   The flight control unit 108 inputs drive control signals such as an engine and a propeller to the flight drive unit 17. In other words, the flight drive unit 17 drives the engine, the propeller, and the like in accordance with instructions from the flight control unit 108 and causes the drone 1 body to fly. The flight control unit 108 causes the main body of the drone 1 to fly by the first flight control for tracking the subject who owns the mobile terminal 2 and the second flight control for tracking the actor who does not have the mobile terminal 2. .

ドローン1の制御ユニット11は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。ハードウェアCPUが、画像処理部101、音声処理部102、センシング信号処理部103、危険事象検知部104、移動体検出部105、対象者検知部106、動画像削除部107、および飛行制御部108として動作する。また、メモリは、このドローン1の飛行制御にかかるプログラムを展開する領域や、このプログラムの実行時に生じたデータ等を一時記憶する領域を有している。制御ユニット11は、ハードウェアCPU、メモリ等を一体化したLSIであってもよい。   The control unit 11 of the drone 1 includes a hardware CPU, a memory, and other electronic circuits. The hardware CPU includes an image processing unit 101, an audio processing unit 102, a sensing signal processing unit 103, a dangerous event detection unit 104, a moving object detection unit 105, a subject detection unit 106, a moving image deletion unit 107, and a flight control unit 108. Works as. The memory also has an area for developing a program related to the flight control of the drone 1 and an area for temporarily storing data generated when the program is executed. The control unit 11 may be an LSI in which a hardware CPU, a memory, and the like are integrated.

図3は、携帯端末の主要部の構成を示すブロック図である。携帯端末2は、制御部21と、位置検出部22と、操作部23と、表示部24と、通信部25とを有している。制御部21は、携帯端末2本体各部の動作を制御する。位置検出部22は、GPSセンサを有し、携帯端末2本体の位置(緯度、経度)を検知する。操作部23は、携帯端末2本体に対する入力操作を行う。操作部23は、緊急通報ボタンを有する。表示部24は、その時点における携帯端末2本体の状態を示す画面や、操作部23における入力操作に応じた入力確認画面等を表示器に表示する。通信部25は、ドローン1、および管理装置3との間におけるデータ通信を行う。   FIG. 3 is a block diagram illustrating a configuration of a main part of the mobile terminal. The mobile terminal 2 includes a control unit 21, a position detection unit 22, an operation unit 23, a display unit 24, and a communication unit 25. The control unit 21 controls the operation of each part of the mobile terminal 2 main body. The position detection unit 22 includes a GPS sensor and detects the position (latitude, longitude) of the mobile terminal 2 main body. The operation unit 23 performs an input operation on the main body of the mobile terminal 2. The operation unit 23 has an emergency call button. The display unit 24 displays a screen showing the state of the main body of the mobile terminal 2 at that time, an input confirmation screen corresponding to an input operation in the operation unit 23, and the like on the display. The communication unit 25 performs data communication between the drone 1 and the management device 3.

携帯端末2の制御部21は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。メモリには、携帯端末2本体を識別する端末IDを記憶している。制御部21は、ハードウェアCPU、メモリ等を一体化したLSIであってもよい。   The control unit 21 of the mobile terminal 2 includes a hardware CPU, a memory, and other electronic circuits. The memory stores a terminal ID for identifying the mobile terminal 2 main body. The control unit 21 may be an LSI in which a hardware CPU, a memory, and the like are integrated.

図4は、管理装置の主要部の構成を示すブロック図である。管理装置3は、制御部31と、通信部32と、ドローン管理データベース33(ドローン管理DB33)を備えている。制御部31は、管理装置3本体各部の動作を制御する。通信部32は、ドローン1、および携帯端末2との間におけるデータ通信を行う。ドローン管理DB33は、管理対象のドローン1毎に、そのドローン1による対象者の見守り開始日時、開始場所、携帯端末2の端末ID等を対応付けた見守り予約情報が登録されている。   FIG. 4 is a block diagram illustrating a configuration of a main part of the management apparatus. The management device 3 includes a control unit 31, a communication unit 32, and a drone management database 33 (drone management DB 33). The control unit 31 controls the operation of each unit of the management apparatus 3 main body. The communication unit 32 performs data communication between the drone 1 and the mobile terminal 2. In the drone management DB 33, for each drone 1 to be managed, watch reservation information that associates the watch start date and time of the target person by the drone 1, the start location, the terminal ID of the mobile terminal 2, and the like is registered.

管理装置3の制御部31は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。制御部31は、ハードウェアCPU、メモリ等を一体化したLSIであってもよい。   The control unit 31 of the management device 3 includes a hardware CPU, a memory, and other electronic circuits. The control unit 31 may be an LSI in which a hardware CPU, a memory, and the like are integrated.

<3.動作例>
図5は、この例にかかるドローンについての対象者の見守り動作を示すフローチャートである。管理装置3は、ドローン管理DB33に登録されている見守り予約情報に基づき、対象のドローン1に対して見守り準備開始を送信する。管理装置3は、対象のドローン1が、対象者の見守り開始日時よりも少し前に、開始場所に到達できるタイミングで、当該ドローン1に対して見守り準備開始を送信する。この見守り準備開始には、対象者の見守り開始日時、開始場所、携帯端末2の端末IDが含まれている。
<3. Example of operation>
FIG. 5 is a flowchart showing the watching operation of the subject regarding the drone according to this example. The management device 3 transmits a watch preparation start to the target drone 1 based on the watch reservation information registered in the drone management DB 33. The management device 3 transmits a watch preparation start to the drone 1 at a timing at which the target drone 1 can reach the start location slightly before the watch start date and time of the target person. This watch preparation start includes the watch start date and time of the subject, the start location, and the terminal ID of the mobile terminal 2.

ドローン1は、管理装置3から送信されてきた見守り準備開始にかかる要求を受信すると(s1)、対象者の見守り開始場所に移動する(s2)。s2では、ドローン1は、自立飛行によって、対象者の見守り開始場所に移動する。   When the drone 1 receives the request for the start of watching preparation transmitted from the management device 3 (s1), the drone 1 moves to the watching start place of the subject (s2). In s2, the drone 1 moves to the target watching start location of the subject by self-sustained flight.

ドローン1は、対象者の見守り開始場所に移動すると、対象者の位置(この例では、携帯端末2の位置)を検知し(s3)、ドローン1本体を対象者の位置に応じた位置に移動させる第1飛行制御を行う(s4)。s3では、対象者が所持する携帯端末2が送信した自端末の位置を示す位置情報を受信することにより、対象者の位置を検知する。ドローン1は、携帯端末2の位置情報を、携帯端末2から直接受信してもよいし、管理装置3を介して受信してもよい。すなわち、携帯端末2は、自端末の位置を示す位置情報をドローン1に送信してもよいし、管理装置3に送信してもよい。このように、ドローン1は、携帯端末2の位置を、対象者の位置として検知する。   When the drone 1 moves to the monitoring start location of the target person, the position of the target person (in this example, the position of the mobile terminal 2) is detected (s3), and the main body of the drone 1 is moved to a position corresponding to the position of the target person. The first flight control is performed (s4). In s3, the position of the subject is detected by receiving the location information indicating the location of the terminal transmitted by the portable terminal 2 possessed by the subject. The drone 1 may receive the position information of the mobile terminal 2 directly from the mobile terminal 2 or may receive it via the management device 3. That is, the mobile terminal 2 may transmit position information indicating the position of its own terminal to the drone 1 or to the management device 3. Thus, the drone 1 detects the position of the mobile terminal 2 as the position of the subject person.

また、s4では、飛行制御部108が、ドローン1本体が、例えば検知した対象者の位置の数m(2〜4m)真上に位置するように飛行駆動部17を制御する。また、飛行制御部108は、センシングユニット16に属する各種センサのセンシング信号をセンシング信号処理部103で処理した処理結果に基づき、ドローン1本体が障害物等に衝突しないように飛行を制御する。   Further, in s4, the flight control unit 108 controls the flight driving unit 17 so that the drone 1 main body is positioned, for example, just above the number m (2 to 4 m) of the detected position of the subject. Further, the flight control unit 108 controls the flight so that the main body of the drone 1 does not collide with an obstacle or the like based on the processing result obtained by processing the sensing signals of various sensors belonging to the sensing unit 16 by the sensing signal processing unit 103.

ドローン1は、第1飛行制御の開始にともなって、カメラ6による動画像の撮像を開始する。特に図示していないが、ドローン1は、第1飛行制御時に、カメラ6の撮像領域内に、対象者が収まるようにカメラ6のアングルや撮像倍率を制御するカメラ制御部を有している。また、カメラ6によって撮像された動画像は、動画像記憶部111に記憶される。   The drone 1 starts capturing a moving image by the camera 6 with the start of the first flight control. Although not particularly illustrated, the drone 1 has a camera control unit that controls the angle and imaging magnification of the camera 6 so that the subject is within the imaging area of the camera 6 during the first flight control. The moving image captured by the camera 6 is stored in the moving image storage unit 111.

ドローン1は、対象者に危険事象が発生したことが検知されるか(s5)、対象者の見守りが終了したことが検知されるまで(s6)、s3およびs4にかかる処理を繰り返す。   The drone 1 repeats the processes related to s3 and s4 until it is detected that a dangerous event has occurred in the target person (s5) or until the monitoring of the target person is detected (s6).

s5では、危険事象検知部104が、カメラ6によって撮像された動画像から対象者の挙動または姿勢の変化を解析し、対象者に危険事象が発生したかどうかを検知する。また、s6では、携帯端末2、または管理装置3からの対象者の見守り終了にかかるコマンドを通信部15で受信したときに、見守り終了であると判定する。   In s5, the dangerous event detection unit 104 analyzes a change in the behavior or posture of the subject from the moving image captured by the camera 6, and detects whether or not a dangerous event has occurred in the subject. Moreover, in s6, when the communication part 15 receives the command concerning the completion | finish of watching of the object person from the portable terminal 2 or the management apparatus 3, it determines with it being watching end.

ドローン1は、対象者に危険事象が発生したことが検知されると、対象者に危険事象が発生したことを管理装置3に通知する(s7)。ドローン1は、s7では、対象者に危険事象が発生した場所(緯度、経度)、発生時刻、発生時の動画像等を管理装置3に送信する。   When it is detected that a dangerous event has occurred in the target person, the drone 1 notifies the management apparatus 3 that the dangerous event has occurred in the target person (s7). In s7, the drone 1 transmits to the management device 3 the location (latitude, longitude) where the dangerous event occurred in the target person, the time of occurrence, a moving image at the time of occurrence, and the like.

また、ドローン1は、当該対象者に危険事象を発生させた行為者を検出する(s8)。s8では、移動体検出部105が、危険事象検知部104において対象者に危険事象が発生したことが検知されたときに、対象者の近くに存在していた移動体(行為者、または行為者が乗車している車両、バイク等)を検出する。ドローン1は、s8で検出した移動体を追跡する第2飛行制御を開始する(s9)。この第2飛行制御では、追跡している移動体がカメラ6で撮像されている動画像にかかるフレーム画像の中心に位置するように、飛行制御部108が飛行駆動部17を制御する。また、飛行制御部108は、この第2飛行制御においても、センシングユニット16に属する各種センサのセンシング信号をセンシング信号処理部103で処理した処理結果に基づき、ドローン1本体が障害物等に衝突しないように飛行を制御する。   Further, the drone 1 detects an actor who has caused a dangerous event in the target person (s8). In s8, when the moving object detection unit 105 detects that the dangerous event has occurred in the target person in the dangerous event detection unit 104, the moving object (actor or actor who exists near the target person). ) Is detected. The drone 1 starts the second flight control for tracking the moving object detected in s8 (s9). In the second flight control, the flight control unit 108 controls the flight driving unit 17 so that the moving body being tracked is positioned at the center of the frame image related to the moving image captured by the camera 6. In the second flight control, the flight control unit 108 does not collide the obstacle 1 with the obstacle based on the processing results obtained by processing the sensing signals of various sensors belonging to the sensing unit 16 by the sensing signal processing unit 103. To control the flight.

ドローン1は、行為者である移動体の追跡終了を判定するまで(s10)、s8、s9にかかる処理を繰り返す。ドローン1は、管理装置3から行為者の追跡終了が通知されたとき、または行為者を見失ったときに、s10で行為者の追跡終了と判定する。   The drone 1 repeats the processes related to s8 and s9 until it is determined that the tracking of the moving body that is the actor is completed (s10). The drone 1 determines that the tracking of the actor is completed in s10 when the management device 3 is notified of the termination of the tracking of the actor or loses sight of the actor.

ドローン1は、s10で行為者の追跡終了を判定すると、s1に戻る。   When the drone 1 determines the end of the tracking of the actor in s10, the drone 1 returns to s1.

また、ドローン1は、s6で見守り終了であると判定すると、今回の対象者の見守りにおいて、カメラ6で撮像した動画像を削除し(s11)、s1に戻る。   If the drone 1 determines that the watching is over at s6, the drone 1 deletes the moving image captured by the camera 6 in the current watching of the subject (s11), and returns to s1.

このように、この例では、対象者に危険事象が発生すると、ドローン1が当該対象者に危険事象を発生させた行為者(移動体)を追跡する。したがって、対象者に危険事象(ひったくり、暴力行為等)を発生させた行為者が逃げ去ってしまうのを防止できる。   Thus, in this example, when a dangerous event occurs in the target person, the drone 1 tracks the actor (mobile body) that caused the target person to generate the dangerous event. Therefore, it is possible to prevent an actor who has caused a dangerous event (such as snatching or violent behavior) from escaping.

また、対象者に危険事象が発生することなく、当該対象者の見守りを終了するときには、今回の見守りにおいて撮像した動画像を削除するので、対象者の見守り中に撮像した、当該対象者にかかる動画像が他人に見られることがない。したがって、対象者のプライバシーを侵害することなく、対象者を見守ることができる。   In addition, when the monitoring of the target person is terminated without causing a dangerous event, the moving image captured during the current monitoring is deleted, so that the target person captured during the monitoring of the target person is affected. Moving images are not seen by others. Therefore, it is possible to watch over the subject without infringing on the subject's privacy.

また、対象者が、携帯端末2の操作部23に設けられた緊急通報ボタンを操作することにより、ドローン1に対して危険事象が発生したことを通知できるようにしてもよい。すなわち、危険事象検知部104は、携帯端末2から危険事象の発生通知を受信したときも、対象者に危険事象が発生したことを検出する。このように構成すれば、対象者は危険な状態になったときに、携帯端末2の操作部23に設けられた緊急通報ボタンを操作することにより、危険事象が発生したことをドローン1に検出させることができる。   Further, the target person may be able to notify the drone 1 that a dangerous event has occurred by operating an emergency call button provided on the operation unit 23 of the mobile terminal 2. That is, the dangerous event detection unit 104 also detects that a dangerous event has occurred in the target person even when the occurrence notification of the dangerous event is received from the mobile terminal 2. If comprised in this way, when the subject enters a dangerous state, the drone 1 detects that a dangerous event has occurred by operating an emergency call button provided on the operation unit 23 of the portable terminal 2. Can be made.

さらに、危険事象検知部104は、マイク7で集音している音声に悲鳴や怒声を検出したときにも、対象者に危険事象が発生したと検出するようにしてもよい。このように構成すれば、対象者は危険な状態になったときに、大声をあげることにより、危険事象が発生したことをドローン1に検出させることができる。   Furthermore, the dangerous event detection unit 104 may also detect that a dangerous event has occurred in the subject when detecting a scream or cry in the sound collected by the microphone 7. If comprised in this way, when a subject will be in a dangerous state, the drone 1 can detect that the dangerous event generate | occur | produced by raising a loud voice.

また、ドローン1は、s8、およびs9で行為者を追跡しているとき、追跡情報を追跡情報記憶部112に記憶し、追跡情報記憶部112に記憶している追跡情報を定期的に管理装置3に送信するようにしてもよい。これにより、管理装置3側で、対象者に危険事象を発生させた行為者の居場所が確認できる。   Further, when the drone 1 tracks the actor in s8 and s9, the drone 1 stores the tracking information in the tracking information storage unit 112, and periodically manages the tracking information stored in the tracking information storage unit 112. 3 may be transmitted. Thereby, on the management apparatus 3 side, the whereabouts of the actor who generated the dangerous event in the target person can be confirmed.

また、管理装置3は、ドローン1からの危険事象の発生通知を受信したときに、発生した危険事象に応じて、対象者の救護要請を消防署等に行ってもよいし、行為者の確保要請を警察署等に行ってもよい。   In addition, when the management device 3 receives the notification of the occurrence of the dangerous event from the drone 1, the management device 3 may make a request for rescue of the target person to the fire department or the like according to the dangerous event that has occurred, or request to secure the actor You may go to a police station.

また、s7において、管理装置3に通知する危険事象発生通知に、対象者の追跡要求を含ませ、この通知を受信した管理装置3が別のドローン1に対象者の追跡を行わせるようにしてもよい。このようにすれば、対象者は、危険事象の発生により、ドローン1による見守りが一時的に途切れるが、別のドローン1によって見守りが再開される。したがって、危険事象が発生した後も、対象者を適正に見守ることができる。なお、対象者の追跡は、上述した第1飛行制御によって行える。   In addition, in s7, the risk event occurrence notification notified to the management apparatus 3 includes the target person's tracking request, and the management apparatus 3 that has received this notification causes another drone 1 to track the target person. Also good. In this way, the target person temporarily stops watching by the drone 1 due to the occurrence of the dangerous event, but the watching is resumed by another drone 1. Therefore, even after a dangerous event occurs, the target person can be watched appropriately. The subject can be tracked by the first flight control described above.

なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

さらに、この発明に係る構成と上述した実施形態に係る構成との対応関係は、以下の付記のように記載できる。
<付記>
動画像を撮像する撮像装置(2)が搭載され、無人で飛行する無人航空機(1)において、
前記撮像装置(2)によって撮像された動画像にかかるフレーム画像を処理して撮像されている移動体を検出する移動体検出部(105)と、
対象者の位置を検知する対象者検知部(106)と、
前記対象者検知部(106)が検知した前記対象者の位置に基づいて、当該対象者を追跡する第1飛行制御を行う飛行制御部(108)と、
追跡している前記対象者に危険事象が発生したかどうかを検知する事象検知部(104)と、を備え、
前記飛行制御部(108)は、前記事象検知部(104)において追跡している前記対象者に危険事象が発生したことを検知すると、前記移動体検出部(105)が前記撮像装置(2)によって撮像された動画像にかかるフレーム画像を処理して検出した移動体を追跡する第2飛行制御を行う、無人航空機(1)。
Furthermore, the correspondence between the configuration according to the present invention and the configuration according to the above-described embodiment can be described as in the following supplementary notes.
<Appendix>
In an unmanned aerial vehicle (1) equipped with an imaging device (2) for capturing a moving image and flying unattended,
A moving body detection unit (105) that detects a moving body that is captured by processing a frame image of a moving image captured by the imaging device (2);
A target person detection unit (106) for detecting the position of the target person;
A flight control unit (108) for performing first flight control for tracking the target person based on the position of the target person detected by the target person detection unit (106);
An event detector (104) that detects whether a dangerous event has occurred in the subject being tracked, and
When the flight control unit (108) detects that a dangerous event has occurred in the subject tracked by the event detection unit (104), the moving body detection unit (105) causes the imaging device (2 The unmanned aerial vehicle (1) that performs the second flight control for tracking the moving body detected by processing the frame image of the moving image captured by (1).

1…ドローン
2…携帯端末
3…管理装置
5…ネットワーク
6…カメラ
7…マイクロフォン(マイク)
11…制御ユニット
12…記憶ユニット
13…動画像入力部
14…音声入力部
15…通信部
16…センシングユニット
17…飛行駆動部
101…画像処理部
102…音声処理部
103…センシング信号処理部
104…危険事象検知部
105…移動体検出部
106…対象者検知部
107…動画像削除部
108…飛行制御部
111…動画像記憶部
112…追跡情報記憶部
DESCRIPTION OF SYMBOLS 1 ... Drone 2 ... Portable terminal 3 ... Management apparatus 5 ... Network 6 ... Camera 7 ... Microphone (microphone)
DESCRIPTION OF SYMBOLS 11 ... Control unit 12 ... Memory | storage unit 13 ... Moving image input part 14 ... Audio | voice input part 15 ... Communication part 16 ... Sensing unit 17 ... Flight drive part 101 ... Image processing part 102 ... Audio | voice processing part 103 ... Sensing signal processing part 104 ... Hazardous event detection unit 105 ... moving body detection unit 106 ... subject detection unit 107 ... moving image deletion unit 108 ... flight control unit 111 ... moving image storage unit 112 ... tracking information storage unit

Claims (5)

動画像を撮像する撮像装置が搭載され、無人で飛行する無人航空機において、
前記撮像装置によって撮像された動画像にかかるフレーム画像を処理して撮像されている移動体を検出する移動体検出部と、
対象者の位置を検知する対象者検知部と、
前記対象者検知部が検知した前記対象者の位置に基づいて、当該対象者を追跡する第1飛行制御を行う飛行制御部と、
追跡している前記対象者に危険事象が発生したかどうかを検知する事象検知部と、を備え、
前記飛行制御部は、前記事象検知部において追跡している前記対象者に危険事象が発生したことを検知すると、前記移動体検出部が前記撮像装置によって撮像された動画像にかかるフレーム画像を処理して検出した移動体を追跡する第2飛行制御を行う、無人航空機。
In an unmanned aerial vehicle that is equipped with an imaging device that captures moving images and flies unattended,
A moving body detection unit that detects a moving body that is captured by processing a frame image of a moving image captured by the imaging device;
A subject detection unit for detecting the position of the subject,
A flight control unit that performs first flight control for tracking the target person based on the position of the target person detected by the target person detection unit;
An event detector that detects whether a dangerous event has occurred in the subject being tracked, and
When the flight control unit detects that a dangerous event has occurred in the subject tracked by the event detection unit, the moving body detection unit displays a frame image related to a moving image captured by the imaging device. An unmanned aerial vehicle that performs second flight control to track a moving object that has been processed and detected.
前記飛行制御部による前記第2飛行制御は、追跡している移動体の移動に応じて、当該移動体が前記撮像装置によって撮像された動画像にかかるフレーム画像に撮像されるように前記無人航空機本体の飛行を制御する、請求項1に記載の無人航空機。   In the second flight control by the flight control unit, the unmanned aerial vehicle is configured such that the moving body is captured in a frame image of a moving image captured by the imaging device according to the movement of the moving body being tracked. The unmanned aerial vehicle according to claim 1, wherein the unmanned aerial vehicle controls flight of the main body. 前記飛行制御部が前記第2飛行制御を開始したとき、前記対象者に危険事象が発生した位置情報を含む当該対象者の追跡要求を出力する出力部を備えた、請求項1、または2に記載の無人航空機。   The output part which outputs the tracking request | requirement of the said subject including the positional information on which the dangerous event generate | occur | produced to the said subject when the said flight control part started the said 2nd flight control was provided in Claim 1 or 2 The unmanned aircraft described. 前記撮像装置によって撮像された動画像を記憶する動画像記憶部と、
前記飛行制御部が前記第1飛行制御によって前記対象者の追跡を開始してから、当該対象者の追跡を終了するまでの間に、前記事象検知部が追跡している前記対象者に危険事象が発生したことを検知しなければ、この間に撮像装置によって撮像された動画像を前記動画像記憶部から削除する画像削除部と、を備えた、請求項1〜3のいずれかに記載の無人航空機。
A moving image storage unit for storing a moving image captured by the imaging device;
There is a risk to the subject being tracked by the event detector between the time when the flight control unit starts tracking the subject by the first flight control and the time when the tracking of the subject is finished. The image deletion unit according to any one of claims 1 to 3, further comprising: an image deletion unit that deletes a moving image captured by the imaging apparatus during this period from the moving image storage unit if it is not detected that an event has occurred. Unmanned aerial vehicle.
動画像を撮像する撮像装置が搭載され、無人で飛行する無人航空機による見守り方法であって、
移動体検出部が、前記撮像装置によって撮像された動画像にかかるフレーム画像を処理して撮像されている移動体を検出し、
対象者検知部が、対象者の位置を検知し、
飛行制御部が、前記対象者検知部が検知した前記対象者の位置に基づいて、当該対象者を追跡する第1飛行制御を行い
事象検知部が、追跡している前記対象者に危険事象が発生したかどうかを検知し、
さらに、前記飛行制御部が、前記事象検知部において追跡している前記対象者に危険事象が発生したことを検知すると、前記移動体検出部が前記撮像装置によって撮像された動画像にかかるフレーム画像を処理して検出した移動体を追跡する、見守り方法。
An imaging device that captures a moving image is mounted, and is a watching method by an unmanned aircraft that flies unattended,
A moving body detection unit detects a moving body that is captured by processing a frame image applied to a moving image captured by the imaging device,
The target person detection unit detects the position of the target person,
The flight control unit performs first flight control for tracking the target person based on the position of the target person detected by the target person detection part. Detect if it occurred,
Further, when the flight control unit detects that a dangerous event has occurred in the subject tracked by the event detection unit, the moving body detection unit takes a frame related to a moving image captured by the imaging device. A monitoring method that tracks moving objects detected by processing images.
JP2018043746A 2018-03-12 2018-03-12 Unmanned aerial vehicle and how to watch Active JP7102794B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018043746A JP7102794B2 (en) 2018-03-12 2018-03-12 Unmanned aerial vehicle and how to watch

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043746A JP7102794B2 (en) 2018-03-12 2018-03-12 Unmanned aerial vehicle and how to watch

Publications (2)

Publication Number Publication Date
JP2019159624A true JP2019159624A (en) 2019-09-19
JP7102794B2 JP7102794B2 (en) 2022-07-20

Family

ID=67996321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043746A Active JP7102794B2 (en) 2018-03-12 2018-03-12 Unmanned aerial vehicle and how to watch

Country Status (1)

Country Link
JP (1) JP7102794B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070061A (en) * 2020-09-22 2020-12-11 苏州臻迪智能科技有限公司 Unmanned aerial vehicle-based motion monitoring method and device
KR20240079316A (en) * 2022-11-28 2024-06-05 태경전자주식회사 Drone for tracking target and control method thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012556A (en) * 2003-06-19 2005-01-13 Sigma:Kk Particular object tracking and monitoring system
JP2011193198A (en) * 2010-03-15 2011-09-29 Omron Corp Monitoring camera terminal
JP2015207149A (en) * 2014-04-21 2015-11-19 薫 渡部 monitoring system and monitoring method
JP2017021445A (en) * 2015-07-07 2017-01-26 キヤノン株式会社 Communication device, control method thereof, and program
US20170193308A1 (en) * 2016-02-23 2017-07-06 Clinimetrics S.A. Systems and methods for personal security using autonomous drones
JP2017174110A (en) * 2016-03-23 2017-09-28 株式会社Jvcケンウッド Unmanned mobile device, takeover method, and program
KR101813102B1 (en) * 2016-06-23 2017-12-28 김성주 Method for providing security service to prevent crime

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012556A (en) * 2003-06-19 2005-01-13 Sigma:Kk Particular object tracking and monitoring system
JP2011193198A (en) * 2010-03-15 2011-09-29 Omron Corp Monitoring camera terminal
JP2015207149A (en) * 2014-04-21 2015-11-19 薫 渡部 monitoring system and monitoring method
JP2017021445A (en) * 2015-07-07 2017-01-26 キヤノン株式会社 Communication device, control method thereof, and program
US20170193308A1 (en) * 2016-02-23 2017-07-06 Clinimetrics S.A. Systems and methods for personal security using autonomous drones
JP2017174110A (en) * 2016-03-23 2017-09-28 株式会社Jvcケンウッド Unmanned mobile device, takeover method, and program
KR101813102B1 (en) * 2016-06-23 2017-12-28 김성주 Method for providing security service to prevent crime

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070061A (en) * 2020-09-22 2020-12-11 苏州臻迪智能科技有限公司 Unmanned aerial vehicle-based motion monitoring method and device
KR20240079316A (en) * 2022-11-28 2024-06-05 태경전자주식회사 Drone for tracking target and control method thereof
KR102675342B1 (en) * 2022-11-28 2024-06-17 태경전자주식회사 Drone for tracking target and control method thereof

Also Published As

Publication number Publication date
JP7102794B2 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
AU2018391963B2 (en) Method, device, and system for adaptive training of machine learning models via detected in-field contextual sensor events and associated located and retrieved digital audio and/or video imaging
AU2018391964B2 (en) Training a machine learning model with digital audio and/or video
WO2018008224A1 (en) Robot, robot system, and recording medium
US20200175838A1 (en) Eyeglasses-type wearable terminal, control method thereof, and control program
EP3506226B1 (en) System and method for dynamically masking video and images captured a drone device camera
KR101690502B1 (en) System for tracking using drone
US20160042637A1 (en) Drone Safety Alert Monitoring System and Method
US10408629B2 (en) Navigation system, client terminal device, control method, and storage medium
JP2007219948A (en) User abnormality detection equipment and user abnormality detection method
JP6244120B2 (en) Video display system and video display program
KR20220021669A (en) Area patrol system with patrol drone
JP7102794B2 (en) Unmanned aerial vehicle and how to watch
JP2019191846A (en) Monitoring system
JP2020017155A (en) Portable flight monitoring terminal, monitoring device, and monitoring method
US20220406069A1 (en) Processing apparatus, processing method, and non-transitory storage medium
JP7150781B2 (en) Camera device, sensor data acquisition method, sensor data acquisition program, and storage system
JP2014239389A (en) Photography control apparatus, remote supervisory system and photography control program
JP6992365B2 (en) Terminal device, camera system and control method
JP6863768B2 (en) Security system, management device and security method
CN112002145B (en) Unmanned aerial vehicle illegal flight reporting method and system
WO2023148969A1 (en) Unmanned aerial vehicle, guidance support device, guidance support system, guidance support method, and recording medium
JP2018169886A (en) Imaging abnormality monitoring system and program
JP2018137565A (en) Monitoring system and control program
JP2022178240A (en) Support requiring person detection system, support requiring person detection device, and support requiring person detection program
JP2023142030A (en) Mobile object control system, mobile object and mobile object control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R150 Certificate of patent or registration of utility model

Ref document number: 7102794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150