JP2019159624A - Unmanned aircraft, and watching method - Google Patents
Unmanned aircraft, and watching method Download PDFInfo
- Publication number
- JP2019159624A JP2019159624A JP2018043746A JP2018043746A JP2019159624A JP 2019159624 A JP2019159624 A JP 2019159624A JP 2018043746 A JP2018043746 A JP 2018043746A JP 2018043746 A JP2018043746 A JP 2018043746A JP 2019159624 A JP2019159624 A JP 2019159624A
- Authority
- JP
- Japan
- Prior art keywords
- flight control
- subject
- target person
- unit
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 52
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000012217 deletion Methods 0.000 claims description 8
- 230000037430 deletion Effects 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims description 8
- 231100001261 hazardous Toxicity 0.000 abstract description 5
- 230000002401 inhibitory effect Effects 0.000 abstract 1
- 238000007726 management method Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 206010001488 Aggression Diseases 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
この発明は、対象者を見守る技術に関する。 The present invention relates to a technique for watching an object person.
従来、無人航空機によって、対象者を見守る技術があった(特許文献1、2等参照)。 Conventionally, there has been a technique for watching an object person with an unmanned aerial vehicle (see Patent Documents 1 and 2).
特許文献1は、対象者(被監視者)が携帯するスマートフォン等の情報端末装置が、GPSや携帯電話の無線基地局から取得した自端末の位置を無人航空機(ドローン装置)へ送信する。無人航空機は、GPSにより自機の位置を取得し、受信した情報端末装置の位置と取得した自機の位置に基づく自立飛行によって、対象者を追跡するとともに、搭載している映像カメラにより撮影した対象者の周辺映像を所定の送信先に送信する構成である。 In Patent Document 1, an information terminal device such as a smartphone carried by a subject (monitored person) transmits the position of the terminal acquired from a GPS or a mobile phone wireless base station to an unmanned aircraft (drone device). The unmanned aerial vehicle acquires the position of its own aircraft by GPS, tracks the target person by self-sustained flight based on the received position of the information terminal device and the acquired position of the own aircraft, and shoots with the mounted video camera In this configuration, the peripheral video of the target person is transmitted to a predetermined transmission destination.
また、特許文献2は、対象者が携帯する携帯ビーコン発信ユニットが発信するビーコン信号を無人航空機で直接受信する。無人航空機は、ビーコン信号の到来方向に基づく自立飛行によって、対象者を追跡すると共に、搭載している映像カメラにより撮影した対象者の周辺映像を所定の送信先に送信する構成である。 Patent Document 2 directly receives a beacon signal transmitted by a portable beacon transmission unit carried by a subject by an unmanned aircraft. The unmanned aerial vehicle is configured to track a target person by self-sustained flight based on the direction of arrival of a beacon signal and to transmit a peripheral image of the target person captured by a mounted video camera to a predetermined transmission destination.
しかしながら、上述した特許文献1、2は、端末(情報端末装置、または携帯ビーコン発信ユニット)を所持している対象者を追跡することによって、対象者を見守るだけで、対象者に危険事象(ひったくり、暴力行為等)が発生したときに、その危険事象を発生させた行為者に逃げ去られてしまうのを阻むことについてまで想定していない。 However, in Patent Documents 1 and 2 described above, by tracking a target person who possesses a terminal (an information terminal device or a portable beacon transmission unit), the target person can be watched for a dangerous event (snacking). , Violent acts, etc.) are not supposed to be prevented from being escaped by the actor who caused the dangerous event.
この発明の目的は、対象者に危険事象(ひったくり、暴力行為等)が発生したときに、その危険事象を発生させた行為者が逃げ去ってしまうのを阻むことができる技術を提供することにある。 An object of the present invention is to provide a technique capable of preventing an actor who has generated a dangerous event from escaping when a dangerous event (such as snatching or violent behavior) occurs in a subject. is there.
この発明の無人航空機は、上記目的を達成するため以下に示すように構成している。 The unmanned aerial vehicle of the present invention is configured as follows to achieve the above object.
移動体検出部が、搭載されている撮像装置によって撮像された動画像にかかるフレーム画像を処理して撮像されている移動体を検出する。また、対象者検知部が、対象者の位置を検知する。飛行制御部が、対象者検知部が検知した対象者の位置に基づいて、当該対象者を追跡する第1飛行制御を行う。また、事象検知部が、追跡している対象者に危険事象が発生したかどうかを検知する。そして、飛行制御部は、事象検知部において追跡している前記対象者に危険事象が発生したことを検知すると、移動体検出部が撮像装置によって撮像された動画像にかかるフレーム画像を処理して検出した移動体を追跡する第2飛行制御を行う。 A moving body detection unit detects a moving body being imaged by processing a frame image related to a moving image captured by a mounted imaging device. In addition, the target person detection unit detects the position of the target person. The flight control unit performs first flight control for tracking the target person based on the position of the target person detected by the target person detection part. In addition, the event detection unit detects whether or not a dangerous event has occurred in the subject being tracked. When the flight control unit detects that a dangerous event has occurred in the subject tracked by the event detection unit, the flight detection unit processes a frame image of the moving image captured by the imaging device. Second flight control for tracking the detected moving object is performed.
この構成によれば、対象者に危険事象(ひったくり、暴力行為等)が発生したときに、その危険事象を発生させた行為者の追跡を開始する。具体的には、対象者に危険事象が発生したときに、行為者、または行為者が乗車する車両、バイク等を追跡する移動体として検出し、この移動体の追跡を開始する。したがって、対象者に危険事象が発生したときに、その危険事象を発生させた行為者が逃げ去ってしまうのを阻むことができる。 According to this configuration, when a dangerous event (such as snatching or violent behavior) occurs in the target person, tracking of the actor who generated the dangerous event is started. Specifically, when a dangerous event occurs in the target person, it is detected as a moving body that tracks an actor or a vehicle, motorcycle, etc. on which the actor gets on, and tracking of this moving body is started. Therefore, when a dangerous event occurs in the subject, it is possible to prevent the actor who generated the dangerous event from escaping.
また、飛行制御部による第2飛行制御は、例えば、追跡している移動体の移動に応じて、当該移動体が撮像装置によって撮像された動画像にかかるフレーム画像に撮像されるように無人航空機本体の飛行を制御する構成にすればよい。これにより、対象者に危険事象を発生させた移動体の追跡において、当該移動体を見失うのを抑制できる。 In addition, the second flight control by the flight control unit is, for example, an unmanned aerial vehicle such that the moving body is captured in a frame image related to a moving image captured by the imaging device in accordance with the movement of the tracked moving body. What is necessary is just to set it as the structure which controls the flight of a main body. Thereby, it is possible to suppress losing sight of the moving body in the tracking of the moving body that has caused the dangerous event to the subject.
また、飛行制御部が第2飛行制御を開始したとき、対象者に危険事象が発生した位置情報を含む当該対象者の追跡要求を出力する出力部を備えてもよい。このように構成すれば、対象者に危険事象が発生したときに、当該対象者の見守りを別の無人航空機に引き継ぐことができる。 In addition, when the flight control unit starts the second flight control, an output unit may be provided that outputs a tracking request for the subject including position information where the dangerous event has occurred in the subject. If comprised in this way, when a dangerous event generate | occur | produces in an object person, the said object person's watching over can be handed over to another unmanned aircraft.
さらに、撮像装置によって撮像された動画像を記憶する動画像記憶部と、飛行制御部が第1飛行制御によって対象者の追跡を開始してから、当該対象者の追跡を終了するまでの間に、事象検知部が追跡している対象者に危険事象が発生したことを検知しなければ、この間に撮像装置によって撮像された動画像を動画像記憶部から削除する画像削除部と、を備える構成にしてもよい。 Furthermore, a moving image storage unit that stores a moving image picked up by the image pickup device, and a period from when the flight control unit starts tracking the target person through the first flight control to when the tracking of the target person ends. An image deletion unit that deletes a moving image captured by the imaging apparatus during this period from the moving image storage unit if the event detection unit does not detect that a dangerous event has occurred in the subject being tracked It may be.
このようにすれば、対象者の見守り中に撮像した、対象者にかかる動画像が他人に見られることがない。したがって、対象者のプライバシーを侵害することなく、対象者の安心安全を見守ることができる。 In this way, a moving image of the subject captured while the subject is watching is not seen by others. Therefore, it is possible to watch the subject's safety and security without infringing on the subject's privacy.
この発明によれば、対象者に危険事象(ひったくり、暴力行為等)が発生したときに、その危険事象を発生させた行為者が逃げ去ってしまうのを阻むことができる。 According to the present invention, when a dangerous event (such as snatching, violent behavior, etc.) occurs in the subject, it is possible to prevent the actor who generated the dangerous event from escaping.
以下、この発明の実施形態について説明する。 Embodiments of the present invention will be described below.
<1.適用例>
図1は、この発明の実施形態にかかる見守りシステムの概要を説明する図である。この見守りシステムは、ドローン1と、携帯端末2と、管理装置3とを備えている。ドローン1が、この発明で言う無人航空機に相当する。携帯端末2は、対象者が所持する。管理装置3は、1または複数のドローン1を管理する。
<1. Application example>
FIG. 1 is a diagram for explaining an overview of a monitoring system according to an embodiment of the present invention. This watching system includes a drone 1, a mobile terminal 2, and a management device 3. The drone 1 corresponds to the unmanned aircraft referred to in the present invention. The portable terminal 2 is possessed by the subject. The management device 3 manages one or a plurality of drones 1.
携帯端末2は、GPS(Global Positioning System)を利用して、自端末の位置(緯度、経度、高度)を取得するGPS機能を有している。携帯端末2は、GPS機能で取得した自端末の位置を示す位置情報をドローン1に送信する。携帯端末2は、位置情報をドローン1に直接送信する構成であってもよいし、管理装置3を介してドローン1に送信する構成であってもよい。 The portable terminal 2 has a GPS function that acquires the position (latitude, longitude, altitude) of the terminal itself using GPS (Global Positioning System). The portable terminal 2 transmits position information indicating the position of the own terminal acquired by the GPS function to the drone 1. The mobile terminal 2 may be configured to transmit position information directly to the drone 1 or may be configured to transmit to the drone 1 via the management device 3.
ドローン1は、携帯端末2と同様に自機の位置(緯度、経度、高度)を取得するGPS機能を有している。ドローン1は、GPSにより自機の位置を取得し、受信した位置情報に基づく携帯端末2の位置と、取得した自機の位置とに基づく自立飛行によって、対象者を追跡する。すなわち、ドローン1は、携帯端末2の位置の変化に応じて、自機の位置を変化させる自立飛行を行う。 The drone 1 has a GPS function for acquiring the position (latitude, longitude, altitude) of its own device, similar to the mobile terminal 2. The drone 1 acquires the position of the own device by GPS, and tracks the subject by independent flight based on the position of the mobile terminal 2 based on the received position information and the acquired position of the own device. That is, the drone 1 performs a self-sustained flight that changes the position of the own aircraft according to a change in the position of the mobile terminal 2.
また、ドローン1は、対象者を追跡しているとき、搭載しているビデオカメラにより対象者の周辺映像を撮像する。ドローン1は、ビデオカメラによる対象者の周辺映像等を処理して、当該対象者に危険事象(ひったくり、暴力行為等)が発生したかどうかを検知する。ドローン1は、対象者に危険事象が発生したことを検知すると、その危険事象を発生させた行為者の追跡を開始する。 Further, when the drone 1 is tracking the target person, the drone 1 captures a peripheral video of the target person with a video camera installed therein. The drone 1 processes the surrounding video of the subject using a video camera, and detects whether or not a dangerous event (such as snatching or violence) has occurred in the subject. When the drone 1 detects that a dangerous event has occurred in the target person, the drone 1 starts tracking the actor who has generated the dangerous event.
なお、ドローン1、および携帯端末2は、管理装置3との間におけるデータ通信を、図1に示すネットワーク5を介して行う。
The drone 1 and the mobile terminal 2 perform data communication with the management device 3 via the
<2.構成例>
図2は、ドローンの主要部の構成を示すブロック図である。ドローン1は、制御ユニット11と、記憶ユニット12と、動画像入力部13と、音声入力部14と、通信部15と、センシングユニット16と、飛行駆動部17とを備えている。
<2. Configuration example>
FIG. 2 is a block diagram showing the configuration of the main part of the drone. The drone 1 includes a
制御ユニット11は、ドローン1本体各部の動作を制御する。制御ユニット11は、画像処理部101と、音声処理部102と、センシング信号処理部103と、危険事象検知部104と、移動体検出部105と、対象者検知部106と、動画像削除部107と、飛行制御部108とを有している。制御ユニット11が有する構成の詳細については後述する。
The
記憶ユニット12は、動画像記憶部111、および追跡情報記憶部112を有している。動画像記憶部111は、ドローン1本体に搭載されているカメラ6によって撮像された動画像を記憶する。カメラ6は、ビデオカメラであり、数十フレーム/sec(10〜30レーム/sec)程度のフレームレートで動画像を撮像する。カメラ6が、この発明で言う撮像装置に相当する。追跡情報記憶部112は、ドローン1本体の飛行経路を示す情報を追跡情報として記憶する。この追跡情報は、例えば日時とドローン1本体の位置(緯度、経度、高度)を対応付けた飛行履歴情報である。この追跡情報は、ドローン1の位置を一定の時間間隔で登録したものであってもよいし、ドローン1の位置を不定期の時間間隔で登録したものであってもよい。
The
動画像入力部13は、カメラ6によって撮像された動画像が入力される。
A moving image captured by the
音声入力部14は、ドローン1本体に搭載されているマイクロフォン7(以下、単にマイク7と言う。)で集音した音声にかかる音声信号が入力される。
The
通信部15は、携帯端末2、および管理装置3との間におけるデータ通信を行う。通信部15が、この発明で言う出力部に相当する構成を有する。
The
センシングユニット16は、各種センサを有する。センシングユニット16には、ドローン1本体の位置(緯度、経度、高度)を計測するGPSセンサ、ドローン1本体の加速度を計測する3軸の加速度センサ、ドローン1本体の角速度を計測する3軸のジャイロセンサ、気圧を計測する気圧センサ、障害物を検知するレーダ等、様々な種類のセンサが含まれる。
The
飛行駆動部17は、エンジン、プロペラ等を駆動してドローン1本体を飛行させる。
The
次に、制御ユニット11が有する、画像処理部101、音声処理部102、センシング信号処理部103、危険事象検知部104、移動体検出部105、対象者検知部106、動画像削除部107、および飛行制御部108について説明する。
Next, the
画像処理部101は、動画像入力部13に入力された動画像にかかるフレーム画像を処理して、フレーム画像に撮像されている人や物(以下、総称してオブジェクトと言う。)を検出する。画像処理部101は、例えば、公知のパターンマッチングによって、フレーム画像に撮像されているオブジェクトの検出、およびそのオブジェクトの種類の識別を行う。画像処理部101は、フレーム画像に撮像されているオブジェクトの検出、およびそのオブジェクトの種類の識別において、例えば、公知の微分フィルタ等を用いてフレーム画像に対するエッジ抽出処理を実行し、撮像されているオブジェクトの外形形状を検出する。
The
音声処理部102は、音声入力部14に入力された音声信号を処理し、悲鳴、怒声等を検出する。
The
センシング信号処理部103は、センシングユニット16が有する各種センサのセンシング信号を処理し、ドローン1本体の位置、ドローン1本体の加速度、ドローン1本体の角速度、気圧、障害物の有無等を取得する。
The sensing
危険事象検知部104は、画像処理部101において検出されたオブジェクトの1つである対象者の挙動、または姿勢の変化を解析し、当該対象者にひったくり、暴力行為等の危険事象が発生したかどうかを検出する。危険事象検知部104が、この発明で言う事象検知部に相当する。
The dangerous
移動体検出部105は、危険事象検知部104が対象者にひったくり、暴力行為等の危険事象が発生したことを検出すると、その危険事象を発生させた行為者、またはその行為者が乗車する車両またはバイク等の移動体を検出する。具体的には、移動体検出部105は、対象者に危険事象が発生したときに、画像処理部101において検出されたオブジェクトの中で、当該対象者の近くに存在していた移動体を行為者(その行為者が乗車する車両またはバイク等を含む)として検出する。
When the dangerous
対象者検知部106は、画像処理部101において検出されたオブジェクトの中から、対象者を検出する。対象者検知部106は、携帯端末2の位置と、ドローン1本体の位置とに基づいて、その携帯端末2を所持している対象者を特定する。ドローン1は、携帯端末2から送信されてきた自端末の位置を示す位置情報によって、携帯端末2の位置を取得する。
The target
動画像削除部107は、動画像記憶部111に記憶しているカメラ6で撮像した動画像を削除する。
The moving
飛行制御部108は、飛行駆動部17に対して、エンジン、プロペラ等の駆動制御信号を入力する。言い換えれば、飛行駆動部17は、飛行制御部108からの指示にしたがって、エンジン、プロペラ等を駆動し、ドローン1本体を飛行させる。飛行制御部108は、携帯端末2を所持している対象者を追跡する第1飛行制御、および携帯端末2を所持していない行為者を追跡する第2飛行制御によって、ドローン1本体を飛行させる。
The
ドローン1の制御ユニット11は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。ハードウェアCPUが、画像処理部101、音声処理部102、センシング信号処理部103、危険事象検知部104、移動体検出部105、対象者検知部106、動画像削除部107、および飛行制御部108として動作する。また、メモリは、このドローン1の飛行制御にかかるプログラムを展開する領域や、このプログラムの実行時に生じたデータ等を一時記憶する領域を有している。制御ユニット11は、ハードウェアCPU、メモリ等を一体化したLSIであってもよい。
The
図3は、携帯端末の主要部の構成を示すブロック図である。携帯端末2は、制御部21と、位置検出部22と、操作部23と、表示部24と、通信部25とを有している。制御部21は、携帯端末2本体各部の動作を制御する。位置検出部22は、GPSセンサを有し、携帯端末2本体の位置(緯度、経度)を検知する。操作部23は、携帯端末2本体に対する入力操作を行う。操作部23は、緊急通報ボタンを有する。表示部24は、その時点における携帯端末2本体の状態を示す画面や、操作部23における入力操作に応じた入力確認画面等を表示器に表示する。通信部25は、ドローン1、および管理装置3との間におけるデータ通信を行う。
FIG. 3 is a block diagram illustrating a configuration of a main part of the mobile terminal. The mobile terminal 2 includes a
携帯端末2の制御部21は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。メモリには、携帯端末2本体を識別する端末IDを記憶している。制御部21は、ハードウェアCPU、メモリ等を一体化したLSIであってもよい。
The
図4は、管理装置の主要部の構成を示すブロック図である。管理装置3は、制御部31と、通信部32と、ドローン管理データベース33(ドローン管理DB33)を備えている。制御部31は、管理装置3本体各部の動作を制御する。通信部32は、ドローン1、および携帯端末2との間におけるデータ通信を行う。ドローン管理DB33は、管理対象のドローン1毎に、そのドローン1による対象者の見守り開始日時、開始場所、携帯端末2の端末ID等を対応付けた見守り予約情報が登録されている。
FIG. 4 is a block diagram illustrating a configuration of a main part of the management apparatus. The management device 3 includes a
管理装置3の制御部31は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。制御部31は、ハードウェアCPU、メモリ等を一体化したLSIであってもよい。
The
<3.動作例>
図5は、この例にかかるドローンについての対象者の見守り動作を示すフローチャートである。管理装置3は、ドローン管理DB33に登録されている見守り予約情報に基づき、対象のドローン1に対して見守り準備開始を送信する。管理装置3は、対象のドローン1が、対象者の見守り開始日時よりも少し前に、開始場所に到達できるタイミングで、当該ドローン1に対して見守り準備開始を送信する。この見守り準備開始には、対象者の見守り開始日時、開始場所、携帯端末2の端末IDが含まれている。
<3. Example of operation>
FIG. 5 is a flowchart showing the watching operation of the subject regarding the drone according to this example. The management device 3 transmits a watch preparation start to the target drone 1 based on the watch reservation information registered in the
ドローン1は、管理装置3から送信されてきた見守り準備開始にかかる要求を受信すると(s1)、対象者の見守り開始場所に移動する(s2)。s2では、ドローン1は、自立飛行によって、対象者の見守り開始場所に移動する。 When the drone 1 receives the request for the start of watching preparation transmitted from the management device 3 (s1), the drone 1 moves to the watching start place of the subject (s2). In s2, the drone 1 moves to the target watching start location of the subject by self-sustained flight.
ドローン1は、対象者の見守り開始場所に移動すると、対象者の位置(この例では、携帯端末2の位置)を検知し(s3)、ドローン1本体を対象者の位置に応じた位置に移動させる第1飛行制御を行う(s4)。s3では、対象者が所持する携帯端末2が送信した自端末の位置を示す位置情報を受信することにより、対象者の位置を検知する。ドローン1は、携帯端末2の位置情報を、携帯端末2から直接受信してもよいし、管理装置3を介して受信してもよい。すなわち、携帯端末2は、自端末の位置を示す位置情報をドローン1に送信してもよいし、管理装置3に送信してもよい。このように、ドローン1は、携帯端末2の位置を、対象者の位置として検知する。 When the drone 1 moves to the monitoring start location of the target person, the position of the target person (in this example, the position of the mobile terminal 2) is detected (s3), and the main body of the drone 1 is moved to a position corresponding to the position of the target person. The first flight control is performed (s4). In s3, the position of the subject is detected by receiving the location information indicating the location of the terminal transmitted by the portable terminal 2 possessed by the subject. The drone 1 may receive the position information of the mobile terminal 2 directly from the mobile terminal 2 or may receive it via the management device 3. That is, the mobile terminal 2 may transmit position information indicating the position of its own terminal to the drone 1 or to the management device 3. Thus, the drone 1 detects the position of the mobile terminal 2 as the position of the subject person.
また、s4では、飛行制御部108が、ドローン1本体が、例えば検知した対象者の位置の数m(2〜4m)真上に位置するように飛行駆動部17を制御する。また、飛行制御部108は、センシングユニット16に属する各種センサのセンシング信号をセンシング信号処理部103で処理した処理結果に基づき、ドローン1本体が障害物等に衝突しないように飛行を制御する。
Further, in s4, the
ドローン1は、第1飛行制御の開始にともなって、カメラ6による動画像の撮像を開始する。特に図示していないが、ドローン1は、第1飛行制御時に、カメラ6の撮像領域内に、対象者が収まるようにカメラ6のアングルや撮像倍率を制御するカメラ制御部を有している。また、カメラ6によって撮像された動画像は、動画像記憶部111に記憶される。
The drone 1 starts capturing a moving image by the
ドローン1は、対象者に危険事象が発生したことが検知されるか(s5)、対象者の見守りが終了したことが検知されるまで(s6)、s3およびs4にかかる処理を繰り返す。 The drone 1 repeats the processes related to s3 and s4 until it is detected that a dangerous event has occurred in the target person (s5) or until the monitoring of the target person is detected (s6).
s5では、危険事象検知部104が、カメラ6によって撮像された動画像から対象者の挙動または姿勢の変化を解析し、対象者に危険事象が発生したかどうかを検知する。また、s6では、携帯端末2、または管理装置3からの対象者の見守り終了にかかるコマンドを通信部15で受信したときに、見守り終了であると判定する。
In s5, the dangerous
ドローン1は、対象者に危険事象が発生したことが検知されると、対象者に危険事象が発生したことを管理装置3に通知する(s7)。ドローン1は、s7では、対象者に危険事象が発生した場所(緯度、経度)、発生時刻、発生時の動画像等を管理装置3に送信する。 When it is detected that a dangerous event has occurred in the target person, the drone 1 notifies the management apparatus 3 that the dangerous event has occurred in the target person (s7). In s7, the drone 1 transmits to the management device 3 the location (latitude, longitude) where the dangerous event occurred in the target person, the time of occurrence, a moving image at the time of occurrence, and the like.
また、ドローン1は、当該対象者に危険事象を発生させた行為者を検出する(s8)。s8では、移動体検出部105が、危険事象検知部104において対象者に危険事象が発生したことが検知されたときに、対象者の近くに存在していた移動体(行為者、または行為者が乗車している車両、バイク等)を検出する。ドローン1は、s8で検出した移動体を追跡する第2飛行制御を開始する(s9)。この第2飛行制御では、追跡している移動体がカメラ6で撮像されている動画像にかかるフレーム画像の中心に位置するように、飛行制御部108が飛行駆動部17を制御する。また、飛行制御部108は、この第2飛行制御においても、センシングユニット16に属する各種センサのセンシング信号をセンシング信号処理部103で処理した処理結果に基づき、ドローン1本体が障害物等に衝突しないように飛行を制御する。
Further, the drone 1 detects an actor who has caused a dangerous event in the target person (s8). In s8, when the moving
ドローン1は、行為者である移動体の追跡終了を判定するまで(s10)、s8、s9にかかる処理を繰り返す。ドローン1は、管理装置3から行為者の追跡終了が通知されたとき、または行為者を見失ったときに、s10で行為者の追跡終了と判定する。 The drone 1 repeats the processes related to s8 and s9 until it is determined that the tracking of the moving body that is the actor is completed (s10). The drone 1 determines that the tracking of the actor is completed in s10 when the management device 3 is notified of the termination of the tracking of the actor or loses sight of the actor.
ドローン1は、s10で行為者の追跡終了を判定すると、s1に戻る。 When the drone 1 determines the end of the tracking of the actor in s10, the drone 1 returns to s1.
また、ドローン1は、s6で見守り終了であると判定すると、今回の対象者の見守りにおいて、カメラ6で撮像した動画像を削除し(s11)、s1に戻る。
If the drone 1 determines that the watching is over at s6, the drone 1 deletes the moving image captured by the
このように、この例では、対象者に危険事象が発生すると、ドローン1が当該対象者に危険事象を発生させた行為者(移動体)を追跡する。したがって、対象者に危険事象(ひったくり、暴力行為等)を発生させた行為者が逃げ去ってしまうのを防止できる。 Thus, in this example, when a dangerous event occurs in the target person, the drone 1 tracks the actor (mobile body) that caused the target person to generate the dangerous event. Therefore, it is possible to prevent an actor who has caused a dangerous event (such as snatching or violent behavior) from escaping.
また、対象者に危険事象が発生することなく、当該対象者の見守りを終了するときには、今回の見守りにおいて撮像した動画像を削除するので、対象者の見守り中に撮像した、当該対象者にかかる動画像が他人に見られることがない。したがって、対象者のプライバシーを侵害することなく、対象者を見守ることができる。 In addition, when the monitoring of the target person is terminated without causing a dangerous event, the moving image captured during the current monitoring is deleted, so that the target person captured during the monitoring of the target person is affected. Moving images are not seen by others. Therefore, it is possible to watch over the subject without infringing on the subject's privacy.
また、対象者が、携帯端末2の操作部23に設けられた緊急通報ボタンを操作することにより、ドローン1に対して危険事象が発生したことを通知できるようにしてもよい。すなわち、危険事象検知部104は、携帯端末2から危険事象の発生通知を受信したときも、対象者に危険事象が発生したことを検出する。このように構成すれば、対象者は危険な状態になったときに、携帯端末2の操作部23に設けられた緊急通報ボタンを操作することにより、危険事象が発生したことをドローン1に検出させることができる。
Further, the target person may be able to notify the drone 1 that a dangerous event has occurred by operating an emergency call button provided on the
さらに、危険事象検知部104は、マイク7で集音している音声に悲鳴や怒声を検出したときにも、対象者に危険事象が発生したと検出するようにしてもよい。このように構成すれば、対象者は危険な状態になったときに、大声をあげることにより、危険事象が発生したことをドローン1に検出させることができる。
Furthermore, the dangerous
また、ドローン1は、s8、およびs9で行為者を追跡しているとき、追跡情報を追跡情報記憶部112に記憶し、追跡情報記憶部112に記憶している追跡情報を定期的に管理装置3に送信するようにしてもよい。これにより、管理装置3側で、対象者に危険事象を発生させた行為者の居場所が確認できる。
Further, when the drone 1 tracks the actor in s8 and s9, the drone 1 stores the tracking information in the tracking
また、管理装置3は、ドローン1からの危険事象の発生通知を受信したときに、発生した危険事象に応じて、対象者の救護要請を消防署等に行ってもよいし、行為者の確保要請を警察署等に行ってもよい。 In addition, when the management device 3 receives the notification of the occurrence of the dangerous event from the drone 1, the management device 3 may make a request for rescue of the target person to the fire department or the like according to the dangerous event that has occurred, or request to secure the actor You may go to a police station.
また、s7において、管理装置3に通知する危険事象発生通知に、対象者の追跡要求を含ませ、この通知を受信した管理装置3が別のドローン1に対象者の追跡を行わせるようにしてもよい。このようにすれば、対象者は、危険事象の発生により、ドローン1による見守りが一時的に途切れるが、別のドローン1によって見守りが再開される。したがって、危険事象が発生した後も、対象者を適正に見守ることができる。なお、対象者の追跡は、上述した第1飛行制御によって行える。 In addition, in s7, the risk event occurrence notification notified to the management apparatus 3 includes the target person's tracking request, and the management apparatus 3 that has received this notification causes another drone 1 to track the target person. Also good. In this way, the target person temporarily stops watching by the drone 1 due to the occurrence of the dangerous event, but the watching is resumed by another drone 1. Therefore, even after a dangerous event occurs, the target person can be watched appropriately. The subject can be tracked by the first flight control described above.
なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.
さらに、この発明に係る構成と上述した実施形態に係る構成との対応関係は、以下の付記のように記載できる。
<付記>
動画像を撮像する撮像装置(2)が搭載され、無人で飛行する無人航空機(1)において、
前記撮像装置(2)によって撮像された動画像にかかるフレーム画像を処理して撮像されている移動体を検出する移動体検出部(105)と、
対象者の位置を検知する対象者検知部(106)と、
前記対象者検知部(106)が検知した前記対象者の位置に基づいて、当該対象者を追跡する第1飛行制御を行う飛行制御部(108)と、
追跡している前記対象者に危険事象が発生したかどうかを検知する事象検知部(104)と、を備え、
前記飛行制御部(108)は、前記事象検知部(104)において追跡している前記対象者に危険事象が発生したことを検知すると、前記移動体検出部(105)が前記撮像装置(2)によって撮像された動画像にかかるフレーム画像を処理して検出した移動体を追跡する第2飛行制御を行う、無人航空機(1)。
Furthermore, the correspondence between the configuration according to the present invention and the configuration according to the above-described embodiment can be described as in the following supplementary notes.
<Appendix>
In an unmanned aerial vehicle (1) equipped with an imaging device (2) for capturing a moving image and flying unattended,
A moving body detection unit (105) that detects a moving body that is captured by processing a frame image of a moving image captured by the imaging device (2);
A target person detection unit (106) for detecting the position of the target person;
A flight control unit (108) for performing first flight control for tracking the target person based on the position of the target person detected by the target person detection unit (106);
An event detector (104) that detects whether a dangerous event has occurred in the subject being tracked, and
When the flight control unit (108) detects that a dangerous event has occurred in the subject tracked by the event detection unit (104), the moving body detection unit (105) causes the imaging device (2 The unmanned aerial vehicle (1) that performs the second flight control for tracking the moving body detected by processing the frame image of the moving image captured by (1).
1…ドローン
2…携帯端末
3…管理装置
5…ネットワーク
6…カメラ
7…マイクロフォン(マイク)
11…制御ユニット
12…記憶ユニット
13…動画像入力部
14…音声入力部
15…通信部
16…センシングユニット
17…飛行駆動部
101…画像処理部
102…音声処理部
103…センシング信号処理部
104…危険事象検知部
105…移動体検出部
106…対象者検知部
107…動画像削除部
108…飛行制御部
111…動画像記憶部
112…追跡情報記憶部
DESCRIPTION OF SYMBOLS 1 ... Drone 2 ... Portable terminal 3 ...
DESCRIPTION OF
Claims (5)
前記撮像装置によって撮像された動画像にかかるフレーム画像を処理して撮像されている移動体を検出する移動体検出部と、
対象者の位置を検知する対象者検知部と、
前記対象者検知部が検知した前記対象者の位置に基づいて、当該対象者を追跡する第1飛行制御を行う飛行制御部と、
追跡している前記対象者に危険事象が発生したかどうかを検知する事象検知部と、を備え、
前記飛行制御部は、前記事象検知部において追跡している前記対象者に危険事象が発生したことを検知すると、前記移動体検出部が前記撮像装置によって撮像された動画像にかかるフレーム画像を処理して検出した移動体を追跡する第2飛行制御を行う、無人航空機。 In an unmanned aerial vehicle that is equipped with an imaging device that captures moving images and flies unattended,
A moving body detection unit that detects a moving body that is captured by processing a frame image of a moving image captured by the imaging device;
A subject detection unit for detecting the position of the subject,
A flight control unit that performs first flight control for tracking the target person based on the position of the target person detected by the target person detection unit;
An event detector that detects whether a dangerous event has occurred in the subject being tracked, and
When the flight control unit detects that a dangerous event has occurred in the subject tracked by the event detection unit, the moving body detection unit displays a frame image related to a moving image captured by the imaging device. An unmanned aerial vehicle that performs second flight control to track a moving object that has been processed and detected.
前記飛行制御部が前記第1飛行制御によって前記対象者の追跡を開始してから、当該対象者の追跡を終了するまでの間に、前記事象検知部が追跡している前記対象者に危険事象が発生したことを検知しなければ、この間に撮像装置によって撮像された動画像を前記動画像記憶部から削除する画像削除部と、を備えた、請求項1〜3のいずれかに記載の無人航空機。 A moving image storage unit for storing a moving image captured by the imaging device;
There is a risk to the subject being tracked by the event detector between the time when the flight control unit starts tracking the subject by the first flight control and the time when the tracking of the subject is finished. The image deletion unit according to any one of claims 1 to 3, further comprising: an image deletion unit that deletes a moving image captured by the imaging apparatus during this period from the moving image storage unit if it is not detected that an event has occurred. Unmanned aerial vehicle.
移動体検出部が、前記撮像装置によって撮像された動画像にかかるフレーム画像を処理して撮像されている移動体を検出し、
対象者検知部が、対象者の位置を検知し、
飛行制御部が、前記対象者検知部が検知した前記対象者の位置に基づいて、当該対象者を追跡する第1飛行制御を行い
事象検知部が、追跡している前記対象者に危険事象が発生したかどうかを検知し、
さらに、前記飛行制御部が、前記事象検知部において追跡している前記対象者に危険事象が発生したことを検知すると、前記移動体検出部が前記撮像装置によって撮像された動画像にかかるフレーム画像を処理して検出した移動体を追跡する、見守り方法。 An imaging device that captures a moving image is mounted, and is a watching method by an unmanned aircraft that flies unattended,
A moving body detection unit detects a moving body that is captured by processing a frame image applied to a moving image captured by the imaging device,
The target person detection unit detects the position of the target person,
The flight control unit performs first flight control for tracking the target person based on the position of the target person detected by the target person detection part. Detect if it occurred,
Further, when the flight control unit detects that a dangerous event has occurred in the subject tracked by the event detection unit, the moving body detection unit takes a frame related to a moving image captured by the imaging device. A monitoring method that tracks moving objects detected by processing images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043746A JP7102794B2 (en) | 2018-03-12 | 2018-03-12 | Unmanned aerial vehicle and how to watch |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043746A JP7102794B2 (en) | 2018-03-12 | 2018-03-12 | Unmanned aerial vehicle and how to watch |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159624A true JP2019159624A (en) | 2019-09-19 |
JP7102794B2 JP7102794B2 (en) | 2022-07-20 |
Family
ID=67996321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018043746A Active JP7102794B2 (en) | 2018-03-12 | 2018-03-12 | Unmanned aerial vehicle and how to watch |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7102794B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070061A (en) * | 2020-09-22 | 2020-12-11 | 苏州臻迪智能科技有限公司 | Unmanned aerial vehicle-based motion monitoring method and device |
KR20240079316A (en) * | 2022-11-28 | 2024-06-05 | 태경전자주식회사 | Drone for tracking target and control method thereof |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012556A (en) * | 2003-06-19 | 2005-01-13 | Sigma:Kk | Particular object tracking and monitoring system |
JP2011193198A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Monitoring camera terminal |
JP2015207149A (en) * | 2014-04-21 | 2015-11-19 | 薫 渡部 | monitoring system and monitoring method |
JP2017021445A (en) * | 2015-07-07 | 2017-01-26 | キヤノン株式会社 | Communication device, control method thereof, and program |
US20170193308A1 (en) * | 2016-02-23 | 2017-07-06 | Clinimetrics S.A. | Systems and methods for personal security using autonomous drones |
JP2017174110A (en) * | 2016-03-23 | 2017-09-28 | 株式会社Jvcケンウッド | Unmanned mobile device, takeover method, and program |
KR101813102B1 (en) * | 2016-06-23 | 2017-12-28 | 김성주 | Method for providing security service to prevent crime |
-
2018
- 2018-03-12 JP JP2018043746A patent/JP7102794B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012556A (en) * | 2003-06-19 | 2005-01-13 | Sigma:Kk | Particular object tracking and monitoring system |
JP2011193198A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Monitoring camera terminal |
JP2015207149A (en) * | 2014-04-21 | 2015-11-19 | 薫 渡部 | monitoring system and monitoring method |
JP2017021445A (en) * | 2015-07-07 | 2017-01-26 | キヤノン株式会社 | Communication device, control method thereof, and program |
US20170193308A1 (en) * | 2016-02-23 | 2017-07-06 | Clinimetrics S.A. | Systems and methods for personal security using autonomous drones |
JP2017174110A (en) * | 2016-03-23 | 2017-09-28 | 株式会社Jvcケンウッド | Unmanned mobile device, takeover method, and program |
KR101813102B1 (en) * | 2016-06-23 | 2017-12-28 | 김성주 | Method for providing security service to prevent crime |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070061A (en) * | 2020-09-22 | 2020-12-11 | 苏州臻迪智能科技有限公司 | Unmanned aerial vehicle-based motion monitoring method and device |
KR20240079316A (en) * | 2022-11-28 | 2024-06-05 | 태경전자주식회사 | Drone for tracking target and control method thereof |
KR102675342B1 (en) * | 2022-11-28 | 2024-06-17 | 태경전자주식회사 | Drone for tracking target and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP7102794B2 (en) | 2022-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2018391963B2 (en) | Method, device, and system for adaptive training of machine learning models via detected in-field contextual sensor events and associated located and retrieved digital audio and/or video imaging | |
AU2018391964B2 (en) | Training a machine learning model with digital audio and/or video | |
WO2018008224A1 (en) | Robot, robot system, and recording medium | |
US20200175838A1 (en) | Eyeglasses-type wearable terminal, control method thereof, and control program | |
EP3506226B1 (en) | System and method for dynamically masking video and images captured a drone device camera | |
KR101690502B1 (en) | System for tracking using drone | |
US20160042637A1 (en) | Drone Safety Alert Monitoring System and Method | |
US10408629B2 (en) | Navigation system, client terminal device, control method, and storage medium | |
JP2007219948A (en) | User abnormality detection equipment and user abnormality detection method | |
JP6244120B2 (en) | Video display system and video display program | |
KR20220021669A (en) | Area patrol system with patrol drone | |
JP7102794B2 (en) | Unmanned aerial vehicle and how to watch | |
JP2019191846A (en) | Monitoring system | |
JP2020017155A (en) | Portable flight monitoring terminal, monitoring device, and monitoring method | |
US20220406069A1 (en) | Processing apparatus, processing method, and non-transitory storage medium | |
JP7150781B2 (en) | Camera device, sensor data acquisition method, sensor data acquisition program, and storage system | |
JP2014239389A (en) | Photography control apparatus, remote supervisory system and photography control program | |
JP6992365B2 (en) | Terminal device, camera system and control method | |
JP6863768B2 (en) | Security system, management device and security method | |
CN112002145B (en) | Unmanned aerial vehicle illegal flight reporting method and system | |
WO2023148969A1 (en) | Unmanned aerial vehicle, guidance support device, guidance support system, guidance support method, and recording medium | |
JP2018169886A (en) | Imaging abnormality monitoring system and program | |
JP2018137565A (en) | Monitoring system and control program | |
JP2022178240A (en) | Support requiring person detection system, support requiring person detection device, and support requiring person detection program | |
JP2023142030A (en) | Mobile object control system, mobile object and mobile object control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7102794 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |