JP6746112B2 - Monitoring device and monitoring method - Google Patents

Monitoring device and monitoring method Download PDF

Info

Publication number
JP6746112B2
JP6746112B2 JP2016117806A JP2016117806A JP6746112B2 JP 6746112 B2 JP6746112 B2 JP 6746112B2 JP 2016117806 A JP2016117806 A JP 2016117806A JP 2016117806 A JP2016117806 A JP 2016117806A JP 6746112 B2 JP6746112 B2 JP 6746112B2
Authority
JP
Japan
Prior art keywords
search target
image
information
transmission information
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016117806A
Other languages
Japanese (ja)
Other versions
JP2017224925A (en
Inventor
智幸 伊豆
智幸 伊豆
軍 呉
軍 呉
開 顔
開 顔
Original Assignee
株式会社エンルート
軍 呉
軍 呉
開 顔
開 顔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エンルート, 軍 呉, 軍 呉, 開 顔, 開 顔 filed Critical 株式会社エンルート
Priority to JP2016117806A priority Critical patent/JP6746112B2/en
Publication of JP2017224925A publication Critical patent/JP2017224925A/en
Application granted granted Critical
Publication of JP6746112B2 publication Critical patent/JP6746112B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、監視装置及び監視方法に関する。 The present invention relates to a monitoring device and a monitoring method.

従来、所定の場所の画像を取得して監視する監視装置が提案されている(特許文献1)。 Conventionally, a monitoring device that acquires and monitors an image of a predetermined place has been proposed (Patent Document 1).

特許第3652666号公報Japanese Patent No. 3652666

しかし、従来の技術においては、異常を確認するために、人間が画像を見て判断する必要があり、異常がない画像を見る必要がある。また、異常が生じる場所が不明な場合には、多数の監視装置を配置する必要があり、システムの規模が大きくなる。 However, in the conventional technique, in order to confirm the abnormality, it is necessary for a person to look at the image to make a judgment, and it is necessary to see the image without abnormality. Further, when the place where the abnormality occurs is unknown, it is necessary to arrange a large number of monitoring devices, which increases the scale of the system.

本発明はかかる問題の解決を試みたものであり、人間が見る画像が最小限度で足り、システムの規模が小さい監視装置及び監視方法の提供を目的とする。 The present invention has attempted to solve such a problem, and an object of the present invention is to provide a monitoring apparatus and a monitoring method in which images viewed by humans are minimal and the system scale is small.

第一の発明は、探索対象を示す探索対象情報を受信する情報受信手段と、移動体に配置され、物体の画像を取得する画像取得手段と、前記画像に含まれる前記物体が、前記探索対象であるか否かを判断する物体認識手段と、前記物体の位置を示す位置情報を生成する位置情報生成手段と、前記物体の画像と前記位置情報を含む送信情報を生成する送信情報生成手段と、を有する監視装置である。 A first aspect of the invention is an information receiving unit that receives search target information indicating a search target, an image acquiring unit that is arranged in a moving body and acquires an image of an object, and the object included in the image is the search target. Object recognition means for determining whether or not the position of the object, position information generation means for generating position information indicating the position of the object, and transmission information generation means for generating transmission information including the image of the object and the position information. Is a monitoring device having.

第一の発明の構成によれば、監視装置は、探索対象であると判断した物体の画像と位置情報を含む送信情報を生成することができる。このため、監視担当の人間は、監視装置から送信された送信情報だけを見て確認すれば足りるから、見る画像が最小限度で足りる。また、画像取得手段は、移動体に配置されているから、異なる位置の画像を一の移動体によって取得することができる。このため、監視装置のシステムの規模を小さくすることができる。 According to the configuration of the first invention, the monitoring device can generate transmission information including an image of an object determined to be a search target and position information. Therefore, it is sufficient for the person in charge of monitoring to check only the transmission information transmitted from the monitoring device, so that the image to be viewed can be minimized. Further, since the image acquisition means is arranged on the moving body, it is possible to acquire images at different positions by using one moving body. Therefore, the scale of the system of the monitoring device can be reduced.

第二の発明は、第一の発明の構成において、前記物体認識手段は、深層学習(ディープラーニング)によって生成されたデータを含む監視装置である。 A second invention is the monitoring device according to the first invention, wherein the object recognition means includes data generated by deep learning.

第三の発明は、第一または第二のいずれかの発明の構成において、前記物体の移動状態を示す移動状態情報を生成する移動状態情報生成手段を有し、前記送信情報は、前記移動状態情報を含む監視装置である。 A third aspect of the present invention is the configuration of the first or second aspect of the present invention, further comprising moving state information generating means for generating moving state information indicating a moving state of the object, wherein the transmission information is the moving state. It is a monitoring device including information.

第四の発明は、第三の発明の構成において、前記移動状態情報に基づいて、所定時間経過後の前記物体の予測位置を示す予測位置情報を生成する位置予測手段を有し、前記送信情報は、前記予測位置情報を含む監視装置である。 In a fourth aspect of the invention, in the configuration of the third aspect of the invention, based on the movement state information, a position prediction unit that generates predicted position information indicating a predicted position of the object after a predetermined time has elapsed, the transmission information. Is a monitoring device including the predicted position information.

第五の発明は、第一乃至第四のいずれかの発明の構成において、前記物体認識手段は、前記探索対象の特徴を示す特徴情報を深層学習によって取得する監視装置である。 A fifth aspect of the present invention is the monitoring device according to any one of the first to fourth aspects of the invention, wherein the object recognition means acquires the feature information indicating the feature of the search target by deep learning.

第六の発明は、第一乃至第五のいずれかの発明の構成において、前記情報受信手段、前記物体認識手段、前記位置情報生成手段、前記送信情報生成手段のうち、少なくとも一つを、前記移動体を管理する管理装置が有する監視装置である。 According to a sixth aspect of the invention, in the configuration of any one of the first to fifth aspects, at least one of the information receiving unit, the object recognizing unit, the position information generating unit, and the transmission information generating unit is It is a monitoring device included in a management device that manages a moving body.

第七の発明は、探索対象を示す探索対象情報を受信する情報受信ステップと、
移動体に配置され、画像を取得するための画像取得手段によって画像を取得する画像取得ステップと、
前記画像に含まれる物体が、前記探索対象であるか否かを判断する物体認識ステップと、
前記物体の位置を示す位置情報を生成する位置情報生成ステップと、
前記物体の画像と前記位置情報を含む送信情報を生成する送信情報生成ステップと、
を有する監視方法である。
A seventh invention is an information receiving step of receiving search target information indicating a search target,
An image acquisition step of acquiring an image by an image acquisition means for acquiring the image, which is arranged on the moving body,
An object recognition step of determining whether the object included in the image is the search target,
A position information generating step of generating position information indicating the position of the object,
A transmission information generating step of generating transmission information including the image of the object and the position information,
Is a monitoring method.

以上のように、本発明によれば、人間が視る画像が最小限度で足り、監視装置のシステムも小さくて足りる。 As described above, according to the present invention, the image viewed by a person is sufficient, and the system of the monitoring device is also small.

本発明の一実施形態の概略を示す図である。It is a figure which shows the outline of one Embodiment of this invention. 本実施形態の概略構成図である。It is a schematic block diagram of this embodiment. 探索対象の画像の一例を示す図である。It is a figure which shows an example of the image of search object. 送信情報の一例を示す図である。It is a figure which shows an example of transmission information. 本実施形態のフローチャートである。It is a flowchart of this embodiment. 送信情報の一例を示す図である。It is a figure which shows an example of transmission information. 送信情報の一例を示す図である。It is a figure which shows an example of transmission information. 探索対象の画像の変形例を示す図である。It is a figure which shows the modification of the image of search object. 本発明の一実施形態のフローチャートである。3 is a flowchart of an embodiment of the present invention. 本発明の一実施形態のフローチャートである。3 is a flowchart of an embodiment of the present invention. 本発明の一実施形態の概略を示す図である。It is a figure which shows the outline of one Embodiment of this invention. 本発明の一実施形態のフローチャートである。3 is a flowchart of an embodiment of the present invention.

本発明の実施形態を、図面を参照して説明する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。 Embodiments of the present invention will be described with reference to the drawings. It should be noted that description of configurations that can be appropriately performed by those skilled in the art will be omitted, and only the basic configuration of the present invention will be described.

<第一の実施形態>
図1に示すように、移動体1は、観覧車100、城102、噴水104や木106を有するテーマパークに配置される。移動体1の任務は、探索対象と思われる物体の画像と位置を基地局50(図2参照)やクライアント装置60(図2参照)に送信することである。探索対象は、特定の人間や物、あるいは、特定の性質を有する人間や物である。
<First embodiment>
As shown in FIG. 1, the moving body 1 is arranged in a theme park having a ferris wheel 100, a castle 102, a fountain 104 and trees 106. The mission of the mobile unit 1 is to transmit the image and position of an object considered to be a search target to the base station 50 (see FIG. 2) or the client device 60 (see FIG. 2). The search target is a specific person or object, or a person or object having a specific property.

本実施形態において、移動体1の探索対象は、データ70(図3参照)に示される人間である。データ70に示される人間は、例えば、犯罪被疑者として指名手配されている人間である。そして、データ70に示される人間が、サングラスをかけて変装して、他の人々に紛れている。 In the present embodiment, the search target of the mobile unit 1 is the person shown in the data 70 (see FIG. 3). The person shown in the data 70 is, for example, a person who is wanted as a criminal suspect. Then, the person shown in the data 70 is disguised as another person wearing sunglasses and disguised.

移動体1は、テーマパークの雰囲気に整合し、また、探索対象である人間等に警戒感を与えないように、その外観が、動物などのキャラクターとして構成されている。移動体1は、動物のキャラクターであるが、両目のうち、少なくとも一方はカメラ3になっている。カメラ3は、デジタル画像を撮像するデジタルカメラ、あるいは、ビデオカメラ等である。移動体1の睫毛は、電波を送受信するアンテナ5になっており、通信衛星40経由で外部と通信し、また、GPS(Global Position System)衛星からの測位用電波を受信することができるようになっている。また、移動体1は、4つのタイヤ7を有する。タイヤ7は移動体1を移動させる移動手段であり、移動体1内部のモーターに接続されている。移動体1には、通信装置、自律移動制御装置、GPS装置、加速度センサーやジャイロセンサーなどの慣性センサーや気圧計、電池等が配置されている。移動体1は、通信装置によって、基地局50(図2参照)やクライアント装置60(図2参照)と通信可能になっている。移動体1は、移動体の一例であり、監視装置の一例でもある。移動体1、基地局50及びクライアント装置60は、全体として監視システムを構成している。 The appearance of the moving body 1 is configured as a character such as an animal so that it matches the atmosphere of the theme park and does not give a sense of caution to the person or the like who is the search target. The moving body 1 is an animal character, and at least one of both eyes is a camera 3. The camera 3 is a digital camera that captures a digital image, a video camera, or the like. The eyelashes of the mobile unit 1 are antennas 5 for transmitting and receiving radio waves so that they can communicate with the outside via the communication satellite 40 and receive positioning radio waves from a GPS (Global Position System) satellite. Has become. Further, the moving body 1 has four tires 7. The tire 7 is a moving unit that moves the moving body 1, and is connected to a motor inside the moving body 1. The moving body 1 is provided with a communication device, an autonomous movement control device, a GPS device, an inertial sensor such as an acceleration sensor and a gyro sensor, a barometer, and a battery. The mobile unit 1 can communicate with the base station 50 (see FIG. 2) and the client device 60 (see FIG. 2) by the communication device. The moving body 1 is an example of a moving body, and is also an example of a monitoring device. The mobile unit 1, the base station 50, and the client device 60 constitute a monitoring system as a whole.

図2に示すように、移動体1は、CPU(Central Processing Unit)10、記憶部12、無線通信部14、GPS(Global Positioning System)部16、慣性センサー部18、画像処理部20、駆動制御部22、電源部24を有する。 As shown in FIG. 2, the mobile unit 1 includes a CPU (Central Processing Unit) 10, a storage unit 12, a wireless communication unit 14, a GPS (Global Positioning System) unit 16, an inertial sensor unit 18, an image processing unit 20, and drive control. It has a unit 22 and a power supply unit 24.

移動体1は、無線通信部14によって、基地局50及びクライアント装置60と通信可能になっている。移動体1は、無線通信部14によって、基地局50またはクライアント装置60から、データ70のような探索対象を示す情報を受信する。基地局50は、移動体1の作動を管理する管理装置の一例であり、適宜、作動に関する指示を与えるようになっている。クライアント装置60は、例えば、テーマパークの警備室に配置されるサーバ、警備会社のサーバ、あるいは、警察組織のサーバや、それらの組織の担当者の携帯端末である。 The mobile unit 1 can communicate with the base station 50 and the client device 60 by the wireless communication unit 14. The mobile unit 1 receives the information indicating the search target such as the data 70 from the base station 50 or the client device 60 by the wireless communication unit 14. The base station 50 is an example of a management device that manages the operation of the mobile unit 1, and appropriately gives an instruction regarding the operation. The client device 60 is, for example, a server arranged in a security room of a theme park, a server of a security company, a server of a police organization, or a mobile terminal of a person in charge of those organizations.

図3に示すデータ70は、探索対象の情報を示す探索対象情報の一例である。データ70は、探索対象の画像と、そのカテゴリーを示す情報を含む。カテゴリーは、例えば、「人間」、「犬」、「箱」というように、特定の物体が属するグループである。 The data 70 illustrated in FIG. 3 is an example of search target information indicating search target information. The data 70 includes an image to be searched and information indicating its category. The category is a group to which a specific object belongs, such as “human”, “dog”, and “box”.

GPS部16と慣性センサー部18によって、移動体1は移動体1自体の位置を測定することができる。GPS部16は、基本的に、3つ以上のGPS衛星からの電波を受信して移動体1の位置を計測する。慣性センサー部18は、例えば、加速度センサー及びジャイロセンサーによって、出発点からの移動体1の移動を積算して、移動体1の位置を計測する。 The GPS unit 16 and the inertial sensor unit 18 allow the mobile unit 1 to measure the position of the mobile unit 1 itself. The GPS unit 16 basically receives radio waves from three or more GPS satellites and measures the position of the mobile body 1. The inertial sensor unit 18 measures the position of the moving body 1 by integrating the movement of the moving body 1 from the starting point by using, for example, an acceleration sensor and a gyro sensor.

画像処理部20によって、移動体1はカメラ3を作動させて外部の画像を取得することができる。 The image processing unit 20 allows the mobile unit 1 to operate the camera 3 and acquire an external image.

駆動制御部22によって、移動体1は各タイヤ7の作動を制御するようになっている。 The moving body 1 controls the operation of each tire 7 by the drive control unit 22.

電源部24は、例えば、交換可能な可充電電池であり、移動体1の各部に電力を供給するようになっている。 The power supply unit 24 is, for example, a replaceable rechargeable battery, and supplies power to each unit of the mobile body 1.

記憶部12には、出発点から目的位置まで自律移動するための移動計画を示すデータ等の無人移動に必要な各種データ及びプログラム、移動する領域の地形や構造物の位置を示す情報のほか、以下の各プログラムが格納されている。 In the storage unit 12, in addition to various data and programs necessary for unmanned movement such as data indicating a movement plan for autonomously moving from a starting point to a destination position, information indicating the topography of a moving region and the position of a structure, The following programs are stored.

記憶部12には、情報受信プログラム、画像取得プログラム、物体認識プログラム、位置情報生成プログラム、送信情報生成プログラムが格納されている。
物体認識プログラムは、物体のカテゴリーを認識する一般物体認識プログラム、及び、特定の物体が探索対象と同一であるかを判断する特定物体認識プログラムを含む。
The storage unit 12 stores an information reception program, an image acquisition program, an object recognition program, a position information generation program, and a transmission information generation program.
The object recognition program includes a general object recognition program that recognizes a category of an object, and a specific object recognition program that determines whether a specific object is the same as a search target.

CPU10及び情報受信プログラムは、外部から探索情報を取得する情報受信手段の一例である。移動体1は、例えば、図2の基地局50から、図3のデータ70を受信する。データ70は、探索情報の一例である。 The CPU 10 and the information receiving program are examples of an information receiving unit that acquires search information from the outside. The mobile unit 1 receives the data 70 of FIG. 3 from the base station 50 of FIG. 2, for example. The data 70 is an example of search information.

CPU10及び画像取得プログラムは、画像処理部18を作動させて、画像を取得するための画像取得手段の一例である。移動体1は、探索情報を受信した後、継続的に画像を取得するようになっている。 The CPU 10 and the image acquisition program are an example of an image acquisition unit that operates the image processing unit 18 to acquire an image. The mobile unit 1 is adapted to continuously acquire images after receiving the search information.

CPU10及び物体認識プログラムは、物体認識手段の一例である。物体認識プログラムは、深層学習(ディープラーニング)によって生成された特徴データを含む。深層学習とは、多層構造のニューラルネットワークの機械学習であり、画像認識の分野が有力な活用分野の一つである。 The CPU 10 and the object recognition program are examples of object recognition means. The object recognition program includes feature data generated by deep learning. Deep learning is machine learning of a neural network having a multi-layer structure, and the field of image recognition is one of the most useful fields of application.

移動体1は、カテゴリーごとの多数の特徴情報に基づいて、カメラ3によって取得した画像に含まれる物体の特徴を識別して、物体のカテゴリーを認識できるようになっている。このカテゴリーの認識を一般物体認識と呼ぶ。 The moving body 1 can identify the feature of the object included in the image acquired by the camera 3 and recognize the category of the object based on a large number of feature information for each category. This category of recognition is called general object recognition.

移動体1は、また、物体認識プログラムによって、探索対象情報に含まれる探索対象の画像と、カメラ3によって取得した物体の画像の特徴の相関を判断して、物体の同一性を判断できるようになっている。この同一性の判断を特定物体認識と呼ぶ。 The moving body 1 can also determine the identity of the object by determining the correlation between the image of the search target included in the search target information and the feature of the image of the object acquired by the camera 3 by the object recognition program. Has become. This determination of identity is called specific object recognition.

例えば、図1に示すように、観覧車100等の物と、大人200,206,208及び子供202,204がテーマパーク内に位置する場合に、大人200等や子供202等を「人間」として認識する処理が一般物体認識である。そして、大人200とデータ70に含まれる人間が同一性を有すると判断する処理が特定物体認識である。 For example, as shown in FIG. 1, when an object such as a ferris wheel 100 and adults 200, 206, 208 and children 202, 204 are located in a theme park, the adults 200, children 202, etc. are treated as "humans". The recognition process is general object recognition. Then, the process of determining that the adult 200 and the person included in the data 70 have the same identity is the specific object recognition.

一般物体認識においては、カメラ3で取得した画像について、例えば、輪郭や個々の構成の方向といった特徴を多数抽出し、ディープラーニングで取得した各カテゴリーの特徴と対比して、相関性(相関度)を判断する。相関度が高いほど、取得した画像中の物体が探索対象のカテゴリーと同一である可能性が高い。例えば、相関度が0の場合には、探索対象と同一のカテゴリーである可能性(以下、「カテゴリー共通確率」と呼ぶ。)は0として、相関度が最大値を示すときに、カテゴリー共通確率が100%であると定義する。移動体1は、カテゴリー共通確率が所定の基準値である、例えば、95%以上であるときに、取得した画像中の物体のカテゴリーが、探索対象のカテゴリーと同一であると判断する。 In general object recognition, with respect to an image acquired by the camera 3, for example, a large number of features such as contours and directions of individual configurations are extracted, and compared with the features of each category acquired by deep learning to determine the correlation (correlation degree). To judge. The higher the degree of correlation, the higher the possibility that the object in the acquired image is the same as the category to be searched. For example, when the correlation degree is 0, the possibility that the category is the same as the search target (hereinafter, referred to as “category common probability”) is 0, and when the correlation degree shows the maximum value, the category common probability is set. Is defined as 100%. The mobile body 1 determines that the category of the object in the acquired image is the same as the search target category when the category common probability is a predetermined reference value, for example, 95% or more.

特定物体認識においては、移動体1は、探索対象と同一のカテゴリーに属する物体(以下、「検査対象」と呼ぶ。)が、探索対象である可能性が高い物体(以下、「候補物体」と呼ぶ)であるか否かを判断する。 In the specific object recognition, the moving body 1 determines that an object belonging to the same category as the search target (hereinafter, referred to as “inspection target”) has a high possibility of being the search target (hereinafter, referred to as “candidate object”). Call).

移動体1は、探索対象であるデータ70の画像の特徴と検査対象の画像の特徴の相関度を判断する。例えば、データ70について、目の切れ端の形や方向、鼻の中心線と小鼻の角度といった特徴を多数抽出し、同様に検査対象についても特徴を多数抽出し、共通点あるいは類似点が多いほど、相関度が高いと判断する。相関度が高いほど、探索対象である可能性が高い。相関度が0の場合には、探索対象である可能性(以下、「確度」と呼ぶ。)は0として、相関度が最大値を示すときに、確度が100%であると定義する。 The mobile unit 1 determines the degree of correlation between the characteristics of the image of the data 70 that is the search target and the characteristics of the image of the inspection target. For example, with respect to the data 70, a large number of features such as the shape and direction of the broken eye, the centerline of the nose and the angle of the nose are extracted, and similarly, a large number of the features are also extracted for the inspection target. Judge that the degree of correlation is high. The higher the degree of correlation, the higher the possibility of being a search target. When the correlation degree is 0, the possibility of being a search target (hereinafter referred to as “probability”) is set to 0, and when the correlation degree shows the maximum value, the accuracy is defined as 100%.

移動体1は、確度が、所定の判断基準値である、例えば、90%以上であるときに、検査対象が探索対象であると判断し、候補物体とする。移動体1は、データ70の特徴と大人200の画像の特徴を比較し、相関度が高く、確度が90%以上であれば、候補物体とする。 The mobile body 1 determines that the inspection target is the search target when the accuracy is a predetermined determination reference value, for example, 90% or more, and sets it as a candidate object. The moving body 1 compares the characteristics of the data 70 with the characteristics of the image of the adult 200, and if the degree of correlation is high and the accuracy is 90% or more, it is regarded as a candidate object.

CPU10及び位置情報生成プログラムは、位置情報生成手段の一例である。
移動体1は、GPS部16と慣性センサー部18によって移動体1の絶対位置や姿勢を示す情報を継続的に生成し、保持している。また、カメラ3によって同一の物体について複数の画像を取得しており、候補物体である大人200等について、移動体1との相対位置や、観覧車100等の物体(位置は既知である)との相対位置を算出することができる。そして、移動体1自体の絶対位置はGPS部16と慣性センサー部18によって計測できるから、移動体1は、移動体1自体の絶対位置を参照して、大人200等の絶対位置を算出することができる。なお、位置計測についての詳細な説明は、省略する。
The CPU 10 and the position information generation program are examples of position information generation means.
The mobile unit 1 continuously generates and holds information indicating the absolute position and orientation of the mobile unit 1 by the GPS unit 16 and the inertial sensor unit 18. Further, a plurality of images of the same object are acquired by the camera 3, and the relative position with respect to the moving body 1 and the object such as the ferris wheel 100 (the position is known) of the adult 200 or the like which is a candidate object. The relative position of can be calculated. Since the absolute position of the mobile unit 1 itself can be measured by the GPS unit 16 and the inertial sensor unit 18, the mobile unit 1 refers to the absolute position of the mobile unit 1 itself to calculate the absolute position of the adult 200 or the like. You can A detailed description of the position measurement will be omitted.

CPU10及び送信情報生成プログラムは、送信情報生成プログラム生成手段の一例である。移動体1は、図4に示すように、大人200の画像と位置情報を含む送信情報80を生成する。 The CPU 10 and the transmission information generation program are examples of transmission information generation program generation means. As shown in FIG. 4, the mobile unit 1 generates the transmission information 80 including the image of the adult 200 and the position information.

移動体1の記憶部12には、テーマパーク内の構造物の位置情報を有していて既知であるから、大人200の位置をテーマパークの構造物との関係で示す参照情報を生成することができる。移動体1は、例えば、「観覧車南方100m」という情報を送信情報80に含める。また、送信情報80は、移動体1が大人200の画像を取得した時刻と、大人200が探索対象である可能性である確度についての情報も含む。 Since the storage unit 12 of the moving body 1 has the position information of the structures in the theme park and is known, the reference information indicating the position of the adult 200 in relation to the structure of the theme park is generated. You can The mobile unit 1 includes, for example, information "100m south of the Ferris wheel" in the transmission information 80. The transmission information 80 also includes information about the time when the moving body 1 acquires the image of the adult 200 and the probability that the adult 200 is a search target.

移動体1は、送信情報80を無線通信部14及び通信衛星40を介して、基地局50、あるいは、クライアント装置60に送信する。 The mobile unit 1 transmits the transmission information 80 to the base station 50 or the client device 60 via the wireless communication unit 14 and the communication satellite 40.

以下、移動体1の動作を図5のフローチャートで説明する。まず、移動体1は、探索対象情報を受信したか否かを判断する(ステップST1)。探索対象情報は、例えば、図3に示すデータ70である。データ70の場合、そのカテゴリーは「人間」である。移動体1は、探索データ70を受信したと判断すると、データ70から特徴を抽出する(ステップST2)。続いて、移動体1は、移動しつつ、図1のテーマパーク内の物体について、画像を取得し(ステップST3)、画像中の物体が探索対象と同一であるか否かを判断する(ステップST4)。ステップST4においては、画像中の物体が探索対象のカテゴリーである「人間」と同一か否かを認識する一般物体認識と、「人間」に属する物体について、探索対象と同一か否かを判断する特定物体認識を実施する。 The operation of the mobile unit 1 will be described below with reference to the flowchart of FIG. First, the mobile unit 1 determines whether or not the search target information has been received (step ST1). The search target information is, for example, the data 70 shown in FIG. In the case of the data 70, the category is “human”. When the mobile unit 1 determines that the search data 70 has been received, the mobile unit 1 extracts features from the data 70 (step ST2). Subsequently, the moving body 1 acquires an image of the object in the theme park of FIG. 1 while moving (step ST3), and determines whether or not the object in the image is the same as the search target (step ST3). ST4). In step ST4, general object recognition for recognizing whether or not the object in the image is the same as the search target category "human" and whether or not the object belonging to "human" is the search target is determined. Perform specific object recognition.

ステップST4において、移動体1は、大人200が探査対象である確率(確度)が所定の基準値以上であれば、大人200を候補物体とし、候補物体の位置を示す位置情報を生成する(ステップST5)。続いて、移動体1は、大人200の画像と位置情報を含む送信情報80(図4参照)を生成し(ステップST6)、基地局50、あるいは、クライアント装置60に送信する(ステップST7)。 In step ST4, if the probability (accuracy) that the adult 200 is a search target is equal to or greater than a predetermined reference value, the moving object 1 regards the adult 200 as a candidate object and generates position information indicating the position of the candidate object (step S4). ST5). Subsequently, the mobile unit 1 generates transmission information 80 (see FIG. 4) including the image of the adult 200 and position information (step ST6), and transmits the transmission information 80 to the base station 50 or the client device 60 (step ST7).

上記において、送信情報80に候補物体の位置を含める例を説明したが、簡易な方法として、移動体1の位置を候補物体の概略位置を示す位置情報としてもよい。あるいは、移動体1の位置情報を送信情報に含めて送信しておいて、後に、候補物体の位置を送信するようにしてもよい。また、探索対象に限定はなく、例えば、上述の犯罪被疑者のほかに、テーマパーク内で迷子になった子供であってもよいし、家出人や失踪者であってもよい。 In the above, an example in which the position of the candidate object is included in the transmission information 80 has been described, but as a simple method, the position of the moving body 1 may be used as position information indicating the approximate position of the candidate object. Alternatively, the position information of the moving body 1 may be included in the transmission information and transmitted, and the position of the candidate object may be transmitted later. Further, the search target is not limited, and for example, in addition to the above-mentioned criminal suspect, a child lost in the theme park, a runaway person, or a disappeared person may be used.

<第二の実施形態>
第二の実施形態においては、移動体1の記憶部12には、移動ベクトル算出プログラムが格納されており、候補物体の移動方向及び移動速度を計算する。また、移動体1の記憶部12には、送信情報サイズ調整プログラムが格納されており、送信情報のデータサイズを調整する。CPU10及び移動ベクトル算出プログラムは、移動ベクトル算出手段の一例である。CPU10及び送信情報サイズ調整プログラムは、送信情報サイズ調整手段の一例である。
<Second embodiment>
In the second embodiment, a moving vector calculation program is stored in the storage unit 12 of the moving body 1 to calculate the moving direction and moving speed of the candidate object. In addition, a transmission information size adjustment program is stored in the storage unit 12 of the mobile unit 1 and adjusts the data size of the transmission information. The CPU 10 and the movement vector calculation program are an example of movement vector calculation means. The CPU 10 and the transmission information size adjusting program are examples of the transmission information size adjusting means.

候補物体の画像を取得した時刻t1において、その物体が移動している場合がある。第二の実施形態においては、そのような移動状態も送信情報に含めるようになっている。移動ベクトルは、時刻t1における画像と、時刻t1からわずかに時間が経過した時刻t1+αにおいて取得した画像とを参照して算出することができる。なお、移動ベクトル測定中には、移動体1は停止して、位置を固定するようにすれば、物体の移動を簡易に測定できる。あるいは、移動体1が移動している場合には、物体の見かけの移動から移動体1の移動を相殺することによって、物体の真の移動を計測することができる。 The object may be moving at time t1 when the image of the candidate object is acquired. In the second embodiment, such a moving state is also included in the transmission information. The movement vector can be calculated by referring to the image at the time t1 and the image acquired at the time t1+α, which is a little after the time t1. Note that the movement of the object can be easily measured if the moving body 1 is stopped and the position is fixed during the movement vector measurement. Alternatively, when the moving body 1 is moving, the true movement of the object can be measured by offsetting the movement of the moving body 1 from the apparent movement of the object.

移動体1は、例えば、図6に示すように、候補物体である例えば、大人200が、時速10km(キロメートル)で南南西に向かっているという移動情報を送信情報82に含める。 For example, as shown in FIG. 6, the moving body 1 includes, in the transmission information 82, movement information that the adult 200, which is a candidate object, is heading south-southwest at a speed of 10 km (km) per hour.

移動体1は、送信情報を受信する装置の種類や、そのときの電波の状態を含む通信環境に応じて、送信情報のデータサイズを調整する。例えば、送信情報をクライアント装置60(図2)に送信する場合、クライアント装置60が携帯端末であれば、データサイズを小さくし、図6の送信情報82に示すように、候補物体の顔の部分だけの画像データを送信情報に含める。あるいは、電波が弱いとか、電波の授受が不安定であるという場合には、やはり、顔の部分だけの画像データを送信情報に含める。これに対して、クライアント装置60がサーバであるとか、通信環境が良好な場合には、図4に示すように、全身の画像データを送信情報に含める。あるいは、送信情報には、候補物体の顔の部分だけの画像データを含めておいて、基地局50やクライアント装置60からリクエストを受信すれば、そのリクエストに応じて、全身の画像データを送信するという構成にしてもよい。 The mobile unit 1 adjusts the data size of the transmission information according to the type of device that receives the transmission information and the communication environment including the state of the radio wave at that time. For example, when transmitting the transmission information to the client device 60 (FIG. 2), if the client device 60 is a mobile terminal, the data size is reduced, and as shown in the transmission information 82 of FIG. Only the image data is included in the transmission information. Alternatively, when the radio wave is weak or the transmission and reception of the radio wave is unstable, the image data of only the face portion is included in the transmission information. On the other hand, when the client device 60 is a server or when the communication environment is good, as shown in FIG. 4, the image data of the whole body is included in the transmission information. Alternatively, if the transmission information includes image data of only the face portion of the candidate object and a request is received from the base station 50 or the client device 60, the image data of the whole body is transmitted in response to the request. You may make it the structure.

<第三の実施形態>
第三の実施形態においては、移動体1の記憶部12には、第二の実施形態の移動ベクトル算出プログラムに加えて、位置予測プログラムが格納されており、所定時間後の候補物体の位置を算出する。CPU10及び位置予測プログラムは、位置予測手段の一例である。
<Third embodiment>
In the third embodiment, the storage unit 12 of the moving body 1 stores a position prediction program in addition to the movement vector calculation program of the second embodiment, and stores the position of the candidate object after a predetermined time. calculate. The CPU 10 and the position prediction program are examples of position prediction means.

移動体1は、例えば、図7の送信情報84に示すように、15分後予想位置として、15分後の緯度及び経度、及び、参照情報としてテーマパーク内の「南ゲート」という情報を送信情報に含める。 For example, as shown in the transmission information 84 in FIG. 7, the mobile unit 1 transmits the latitude and longitude after 15 minutes as the expected position after 15 minutes, and the information “South Gate” in the theme park as reference information. Include in information.

<第四の実施形態>
例えば、逃亡中において、犯罪被疑者の外観が変わる場合がある。探索対象が図3の画像70に示す人物であるとして、移動体1がテーマパーク内を探索する時には、例えば、メガネをかけたり(図8(a))、付けまつげ、口紅等で化粧をしている場合がある(図8(b))。また、髪型を変えて(図8(c))、変装する場合がある。あるいは、逃亡中の心労が大きいことによって、顔がやつれることもある(図8(d))。このように、探索対象の外観が変わると、テーマパーク内に探索対象が存在して、その画像を取得しても、同一性に関する相関度が低くなる。
<Fourth Embodiment>
For example, the appearance of a criminal suspect may change during flight. Assuming that the person to be searched is the person shown in the image 70 of FIG. 3, when the moving body 1 searches in the theme park, for example, wearing glasses (FIG. 8(a)), wearing eyelashes, lipstick, etc. May be present (FIG. 8(b)). In addition, the hairstyle may be changed (FIG. 8C) to disguise. Alternatively, the face may be damaged due to great effort during the escape (FIG. 8D). In this way, when the appearance of the search target changes, the search target exists in the theme park, and even if an image of the search target is acquired, the degree of correlation regarding the identity decreases.

そこで、第三の実施形態の移動体1は、探索対象自体について、ディープラーニングで特徴を示すデータを取得するための探索対象ディープラーニングプログラムを有する。移動体1は、探索対象について、例えば、データ70(図3)以外に、多数の画像データを取得すれば、それらの画像データを使用して、機械学習を行う。また、画像データ70が唯一の画像データである場合には、画像データ70を、例えば、図8(a)〜(d)に示す画像に加工したり、輪郭をぼやかす等の改変を行って、複数の画像データを生成したうえで、機械学習を行う。これにより、探索対象自体の汎化を行うことができるから、探索対象の外観の変化にも対応しやすくなる。 Therefore, the mobile unit 1 according to the third embodiment has a search target deep learning program for acquiring data showing characteristics of the search target itself by deep learning. If a large number of image data other than the data 70 (FIG. 3) is acquired for the search target, the mobile unit 1 performs machine learning using the image data. If the image data 70 is the only image data, the image data 70 may be processed into, for example, the images shown in FIGS. 8A to 8D, or the outline may be blurred. , Machine learning is performed after generating a plurality of image data. As a result, since the search target itself can be generalized, changes in the appearance of the search target can be easily accommodated.

以下、移動体1の動作を図9のフローチャートで説明する。図9に示すように、移動体1は、探索対象情報を取得すると(ステップST1)、探索対象についてディープラーニングを行ったうえで、特徴を抽出する(ステップST2)。ステップST3以下は、第一の実施形態と同様であるから、説明を省略する。 The operation of the mobile unit 1 will be described below with reference to the flowchart of FIG. As shown in FIG. 9, when the mobile body 1 acquires the search target information (step ST1), the mobile body 1 performs deep learning on the search target and then extracts a feature (step ST2). Since step ST3 and subsequent steps are the same as those in the first embodiment, description thereof will be omitted.

なお、探索対象ディープラーニングプログラムは、基地局50が保持し、基地局50が探索対象について、ディープラーニングを実施するようにしてもよい。この場合、移動体1は、基地局50が実施した探索対象についてのディープラーニングの結果を受信し、利用する。 Note that the search target deep learning program may be held by the base station 50, and the base station 50 may perform deep learning on the search target. In this case, the mobile unit 1 receives and uses the result of deep learning on the search target performed by the base station 50.

<第四の実施形態>
探索対象は、特定の人間や物ではなく、「特定の条件を満たす人間」、あるいは、「特定の条件を満たす物」であってもよい。「特定の条件を満たす人間」は、「人間」というカテゴリーの下位のサブカテゴリーである。「特定の条件を満たす人間」は、例えば、体調不良の人や不審人物である。「特定の条件を満たす物」は、例えば、不審物である。この場合、探索対象情報は、必ずしも画像を含むものではなく、「体調不良の人」いうサブカテゴリーを示すテキストデータであってもよい。
<Fourth Embodiment>
The search target may not be a specific person or object, but may be a “human satisfying a specific condition” or an “object satisfying a specific condition”. "Human satisfying a specific condition" is a subcategory under the "human" category. The “person who meets a specific condition” is, for example, a person who is in poor physical condition or a suspicious person. The “object satisfying a specific condition” is, for example, a suspicious object. In this case, the search target information does not necessarily include an image, but may be text data indicating a subcategory “person with poor physical condition”.

すなわち、第四の実施形態においては、移動体1は、サブカテゴリーにおける一般物体認識を行う。 That is, in the fourth embodiment, the moving body 1 performs general object recognition in the subcategory.

移動体1の物体認識ログラムは、ディープラーニングで生成した「特定の条件を満たす人間」や「特定の条件を満たす物」の特徴データを有している。 The object recognition program of the moving body 1 has characteristic data of “human satisfying a specific condition” and “object satisfying a specific condition” generated by deep learning.

例えば、「体調不良の人」については、地面に倒れている人についての多数の画像や、うつむいて椅子に腰かけている人についての多数の画像を使用して、適宜下位のサブカテゴリーに分類し、ディープラーニング行う。移動体1は、ディープラーニングによって取得した特徴を示すデータを保持している。そして、移動体1は、探索対象情報として「体調不良の人」というテキストデータを受信した場合、記憶部12に格納されているその特徴を示すデータを取得して、参照し、例えば、テーマパーク内の人間208が「対象不良の人」であると判断する。なお、人間208は、倒れている人間である。 For example, with regard to "person with poor physical condition", use a large number of images of people who are lying on the ground or a large number of people who are lying down and sitting on a chair, and classify them into lower subcategories as appropriate. , Do deep learning. The mobile unit 1 holds data indicating the characteristics acquired by deep learning. Then, when the mobile body 1 receives the text data “person with poor physical condition” as the search target information, the mobile body 1 acquires and refers to the data indicating the characteristics stored in the storage unit 12, and, for example, the theme park. It is determined that the person 208 is a “person with a poor target”. The human 208 is a fallen human.

「不審人物」については、例えば、不自然に大きな荷物や長い物をもっている人や、顔を隠している人や、不自然に厚着をしている人の多数の画像を使用して、適宜下位のサブカテゴリーに分類して、ディープラーニングを行う。移動体1は、ディープラーニングによって取得した特徴を示すデータを保持している。下位のサブカテゴリーとは、例えば、「不自然な衣服を着ている人」、「不自然に大きな荷物を持っている人」、「夏なのに手袋を着用している人」、「曇りなのにサングラスをかけている人」などである。移動体1は、探索対象情報として「不審人物」というテキストデータを受信した場合、「不審人物」の特徴を示すデータを取得して、参照し、例えば、テーマパーク内の人間206が「不審人物」であると判断する。なお、人間206は、不自然に厚着をしており、衣服の内部に爆発物206aを隠し持っている。 As for “suspicious person”, for example, using a large number of images of people with unnaturally large luggage or long objects, people with hidden faces, or people with unnaturally thick clothes, Deep learning is performed by classifying into sub-categories. The mobile unit 1 holds data indicating the characteristics acquired by deep learning. The sub-categories below are, for example, "people wearing unnatural clothes", "people carrying unnaturally large luggage", "people wearing gloves even in the summer", and "sunglasses despite being cloudy". The person who wears it." When the mobile body 1 receives the text data “suspicious person” as the search target information, the mobile body 1 acquires and refers to the data indicating the characteristics of the “suspicious person”. It is judged that it is. The human 206 is unnaturally thick and has an explosive material 206a hidden inside the clothes.

不審物については、むき出しの爆弾や銃器、梱包された状態の爆弾や銃器の多数の画像を使用して、適宜下位のサブカテゴリーに分類して、ディープラーニングを行う。移動体1は、ディープラーニングによって取得した特徴を示すデータを保持している。移動体1は、移動体1は、探索対象情報として「不審物」というテキストデータを受信した場合、「不審物」の特徴を示すデータを取得して、参照し、例えば、テーマパーク内の箱210が「不審物」であると判断する。箱210は、不自然にガムテープで封止されており、内部に爆発物210aが格納されている。 For suspicious objects, deep learning is performed by using a large number of images of exposed bombs and firearms, packed bombs and firearms, and appropriately classifying them into subordinate categories. The mobile unit 1 holds data indicating the characteristics acquired by deep learning. When the mobile body 1 receives the text data “suspicious object” as the search target information, the mobile body 1 acquires the data indicating the characteristics of the “suspicious object” and refers to the text, for example, a box in the theme park. It is determined that 210 is a “suspicious item”. The box 210 is unnaturally sealed with gum tape, and the explosive 210a is stored inside.

以下、移動体1の動作を図10のフローチャートで説明する。移動体1は、
探索対象情報を取得すると(ステップST1)、探索対象の特徴を取得する(ステップST2)。探索対象は、例えば、「体調不良の人」というサブカテゴリーである。探索対象の特徴を示す情報は、予め、ディープラーニングによって生成しており、記憶部12に格納している。続いて、移動体1は、テーマパーク内の画像を取得し(ステップST3)、「体調不良の人」に該当するかを判断する(ステップST4)。ステップST5以下は、第一の実施形態と同様であるから、説明を省略する。
Hereinafter, the operation of the mobile unit 1 will be described with reference to the flowchart of FIG. Mobile unit 1
When the search target information is acquired (step ST1), the search target feature is acquired (step ST2). The search target is, for example, a subcategory of “person with poor physical condition”. The information indicating the characteristics of the search target is generated in advance by deep learning and stored in the storage unit 12. Then, the mobile body 1 acquires the image in the theme park (step ST3), and judges whether it corresponds to a "person with poor physical condition" (step ST4). Since step ST5 and subsequent steps are the same as those in the first embodiment, description thereof will be omitted.

ステップST4においては、例えば、所定時間の間隔をあけて、複数回、探索対象である可能性が高い人物の画像を取得し、所定時間の間、「体調不良の人」という条件に合致する場合に、「体調不良の人」と判断するようにしてもよい。 In step ST4, for example, when an image of a person who is highly likely to be a search target is acquired a plurality of times at intervals of a predetermined time, and the condition “person with poor physical condition” is met for a predetermined time Alternatively, it may be determined that the person is “a person who is in poor physical condition”.

なお、探索対象が「不審人物」や「不審物」の場合、候補物体とする基準となる基準値を低く設定してもよい。例えば、不審人物は、不審人物に見えないようにふるまうことがあるし、テーマパーク内に爆発物が置き去りにされるとき、不審物らしくないような外観を有することがある。この場合、カメラ3で取得した画像と探索対象との相関度は低くなるのであるが、そのような場合であっても、基地局50あるいはクライアント装置60に送信情報を送信することが望ましい。 When the search target is a “suspicious person” or a “suspicious object”, the reference value serving as a reference for the candidate object may be set low. For example, a suspicious person may behave invisible to the suspicious person, and may have the appearance of not appearing suspicious when explosives are left behind in a theme park. In this case, the degree of correlation between the image acquired by the camera 3 and the search target is low, but even in such a case, it is desirable to transmit the transmission information to the base station 50 or the client device 60.

<第五の実施形態>
第五の実施形態においては、テーマパークなどの比較的狭い空間ではなく、
移動体は広範囲の空間の探索を行う。第五の実施形態においては、図11に示すように、移動体は、無人飛行体300であり、いわゆる、マルチコプター、あるいは、ドローンであり、複数の回転翼を有する。図11の例では、無人飛行体300は、本体302及び4つの回転翼304を有する。各回転翼304は、それぞれ、モーターに連結されている。本体302には、通信装置、自律飛行制御装置、GPS装置、加速度センサーやジャイロセンサーなどの慣性センサーや気圧計、電池等が配置されている。また、本体302には、カメラ306が接続されている。カメラ306は、デジタル画像を撮像するデジタルカメラ、あるいは、ビデオカメラ等である。無人飛行体300は、通信装置によって、基地局50(図2参照)やクライアント装置60と直接、あるいは、通信衛星40を介して通信可能になっている。無人飛行体300の機能ブロックは、第一の実施形態の移動体1と同様に、図2に示すとおりである。
<Fifth Embodiment>
In the fifth embodiment, rather than a relatively narrow space such as a theme park,
The mobile body searches a wide area. In the fifth embodiment, as shown in FIG. 11, the moving body is an unmanned aerial vehicle 300, a so-called multicopter or drone, and has a plurality of rotary wings. In the example of FIG. 11, the unmanned aerial vehicle 300 has a main body 302 and four rotors 304. Each rotor 304 is connected to a motor. In the main body 302, a communication device, an autonomous flight control device, a GPS device, an inertial sensor such as an acceleration sensor and a gyro sensor, a barometer, a battery and the like are arranged. A camera 306 is connected to the main body 302. The camera 306 is a digital camera that captures a digital image, a video camera, or the like. The unmanned aerial vehicle 300 can communicate with the base station 50 (see FIG. 2) and the client device 60 directly or through the communication satellite 40 by a communication device. The functional blocks of the unmanned aerial vehicle 300 are as shown in FIG. 2, similarly to the mobile body 1 of the first embodiment.

図11において、人間250及び252は、山岳地帯310における遭難者である。人間254は、遭難者を捜索する捜索者(以下、「捜索者254」と呼ぶ。)である。捜索者254は、捜索者であることを示す目印254aを帽子と袖に着けており、無人飛行体300が遭難者と捜索者を区別できるようになっている。無人飛行体300は、探索対象情報として、「遭難者」というサブカテゴリーの情報を受信した場合には、指定された領域において、捜索者254以外の人間を「遭難者」であると判断するようになっている。すなわち、目印254aを含む画像は排除し、目印254aを含まない「人間」を遭難者であると判断するようになっている。 In FIG. 11, humans 250 and 252 are victims in the mountainous area 310. The human 254 is a searcher (hereinafter, referred to as “searcher 254”) searching for a victim. The searcher 254 wears a mark 254a indicating that he is a searcher on his hat and sleeve, so that the unmanned aerial vehicle 300 can distinguish the victim and the searcher. When the unmanned aerial vehicle 300 receives the information of the subcategory “distressed person” as the search target information, it determines that a person other than the searcher 254 is a “distressed person” in the designated area. It has become. That is, the image including the mark 254a is excluded, and the “human” not including the mark 254a is determined to be the victim.

以下、無人飛行体300の動作を図12のフローチャートで説明する。無人飛行体300は、探索対象情報を取得すると(ステップST1)、探索対象情報の特徴を取得する(ステップST2)。探索対象情報は、例えば、「遭難者」である。「遭難者」の場合、探索対象情報の特徴は、所定の領域に位置する人間であって、捜索者254以外、である。続いて、無人飛行体300は、画像を取得し(ステップST3)、カテゴリーが「人間」であれば、捜索者254aか否か、すなわち、除外対象か否か判断し(ステップST4)、除外対象でない場合には、ステップST5に進む。ステップST5以下は、第一の実施形態と同一であるから、説明を省略する。 The operation of the unmanned aerial vehicle 300 will be described below with reference to the flowchart of FIG. When the unmanned aerial vehicle 300 acquires the search target information (step ST1), the unmanned air vehicle 300 acquires the characteristics of the search target information (step ST2). The search target information is, for example, “distressed person”. In the case of the “distressed person”, the characteristic of the search target information is a person located in a predetermined area, other than the searcher 254. Subsequently, the unmanned aerial vehicle 300 acquires an image (step ST3), and if the category is “human”, it is determined whether or not the person is the searcher 254a, that is, whether or not it is an exclusion target (step ST4), and the exclusion target. If not, the process proceeds to step ST5. Since step ST5 and subsequent steps are the same as those in the first embodiment, description thereof will be omitted.

上記においては、無人飛行体300として説明したが、例えば、海上や湖で遭難者を探索する場合には、無人船や無人ボートに無人飛行体300と同様の機能を持たせればよい。 Although the unmanned air vehicle 300 has been described above, for example, when searching for a victim on the sea or in a lake, an unmanned ship or unmanned boat may have the same function as the unmanned air vehicle 300.

上述の実施形態1乃至実施形態5においては、移動体1や無人飛行体300の記憶部12に、画像取得プログラム、物体認識プログラム、位置情報生成プログラム、送信情報生成プログラム等のプログラムが格納されているものとして説明したが、一部またはすべての上記プログラムを基地局50のサーバ内の記憶部に格納し、基地局50で処理した結果を移動体1や無人飛行体300に利用させるように構成してもよい。この場合、移動体1や無人飛行体300の記憶部12は、基地局50からの指示を処理する処理プログラムを格納すれば足りる。また、一部またはすべての特徴データを基地局50のサーバ内の記憶部に格納し、移動体1は、必要に応じて特徴データを取得するように構成してもよい。 In the first to fifth embodiments described above, programs such as an image acquisition program, an object recognition program, a position information generation program, and a transmission information generation program are stored in the storage unit 12 of the mobile body 1 or the unmanned air vehicle 300. However, it is configured such that some or all of the above programs are stored in the storage unit in the server of the base station 50 and the results processed by the base station 50 are used by the mobile unit 1 and the unmanned aerial vehicle 300. You may. In this case, the storage unit 12 of the mobile body 1 or the unmanned aerial vehicle 300 only needs to store a processing program for processing an instruction from the base station 50. Further, some or all of the characteristic data may be stored in the storage unit in the server of the base station 50, and the mobile unit 1 may be configured to acquire the characteristic data as needed.

なお、本発明の監視装置及び監視方法は、上記実施形態に限らず、本発明の要旨を逸脱しない範囲内において種々変更を加えることができる。 The monitoring device and the monitoring method of the present invention are not limited to the above-described embodiment, and various changes can be made without departing from the scope of the present invention.

1 移動体
10 CPU
14 無線通信部
16 GPS部
18 慣性センサー部
20 画像処理部
22 駆動制御部
24 電源部
300 無人飛行体


1 Mobile 10 CPU
14 wireless communication unit 16 GPS unit 18 inertial sensor unit 20 image processing unit 22 drive control unit 24 power supply unit 300 unmanned air vehicle


Claims (8)

移動体として構成される監視装置であって、
探索対象を示す探索対象情報を受信する情報受信手段と、
体の画像を取得する画像取得手段と、
前記画像に含まれる前記物体が、前記探索対象であるか否かを判断する物体認識手段と、
前記移動体の位置とは異なる位置である前記物体の位置を示す位置情報を生成する位置情報生成手段と、
前記物体の画像と前記位置情報を含む送信情報を生成する送信情報生成手段と、
を有する監視装置。
A monitoring device configured as a mobile body,
An information receiving means for receiving search target information indicating a search target,
An image acquiring means for acquiring an image of the object body,
An object recognition unit that determines whether the object included in the image is the search target,
Position information generating means for generating position information indicating a position of the object which is a position different from the position of the moving body ,
Transmission information generating means for generating transmission information including the image of the object and the position information,
And a monitoring device.
前記送信情報を受信する装置の種類、または、電波の状態を含む通信環境に応じて、前記送信情報のデータサイズを調整する送信情報サイズ調整手段を有する請求項1に記載の監視装置。The monitoring device according to claim 1, further comprising a transmission information size adjusting unit that adjusts a data size of the transmission information according to a type of a device that receives the transmission information or a communication environment including a radio wave state. 前記物体認識手段は、深層学習(ディープラーニング)によって生成されたデータを含み、
前記物体が前記探索対象と同一のカテゴリーに属する前記物体である検査対象であるか否かを判断する一般物体認識と、前記検査対象が前記探索対象であるか否かを判断する特定物体認識を行う、
請求項1または請求項2に記載の監視装置。
The object recognition unit, viewed contains the data generated by the deep learning (deep learning),
General object recognition for determining whether the object is an inspection target that is the object belonging to the same category as the search target, and specific object recognition for determining whether the inspection target is the search target. Do,
The monitoring device according to claim 1 or 2.
前記位置情報生成手段は、前記探索対象である可能性が高い物体について、継続的に算出する前記移動体の絶対位置との相対位置及び前記移動体が移動する領域の構造物の既知の位置との相対位置に基づいて、前記物体の位置を示す位置情報を生成する、
請求項1乃至請求項3のいずれかに記載の監視装置。
The position information generating means, for an object that is likely to be the search target, a relative position to the absolute position of the moving body that is continuously calculated, and a known position of a structure in a region where the moving body moves. Position information indicating the position of the object based on the relative position of
The monitoring device according to any one of claims 1 to 3 .
前記探索対象は、不審人物または不審物であり、
前記物体認識手段は、前記物体が前記探索対象であると判断するための判断基準値を、前記探索対象が前記不審人物または前記不審物以外である場合の判断基準値よりも低く設定する、
請求項1乃至請求項4のいずれかに記載の監視装置。
The search target is a suspicious person or a suspicious object,
The object recognition means sets a determination reference value for determining that the object is the search target, lower than a determination reference value when the search target is other than the suspicious person or the suspicious object,
The monitoring device according to any one of claims 1 to 4.
移動体として構成される監視装置が、
探索対象を示す探索対象情報を受信する情報受信ステップと、
物体の画像を取得する画像取得ステップと、
前記画像に含まれる前記物体が、前記探索対象であるか否かを判断する物体認識ステップと、
前記探索対象である可能性が高い物体について、継続的に算出する前記移動体の絶対位置との相対位置及び前記移動体が移動する領域の構造物の既知の位置との相対位置に基づいて、前記物体の絶対位置を示す位置情報を生成する位置情報生成ステップと、
前記物体の画像と前記位置情報を含む送信情報を生成する送信情報生成ステップと、
を有する監視方法。
A monitoring device configured as a mobile
An information receiving step of receiving search target information indicating a search target,
An image acquisition step of acquiring an image of the object,
An object recognition step of determining whether the object included in the image is the search target;
For the object that is likely to be the search target, based on the relative position of the absolute position of the moving body continuously calculated and the known position of the structure of the region where the moving body moves, A position information generating step of generating position information indicating the absolute position of the object ,
A transmission information generating step of generating transmission information including the image of the object and the position information,
A monitoring method having.
前記物体認識ステップにおいて、
前記物体が前記探索対象と同一のカテゴリーに属する前記物体である検査対象であるか否かを判断する一般物体認識と、前記検査対象が前記探索対象であるか否かを判断する特定物体認識を行う、
請求項6に記載の監視方法。
In the object recognition step,
General object recognition for determining whether the object is an inspection target that is the object belonging to the same category as the search target, and specific object recognition for determining whether the inspection target is the search target. Do,
The monitoring method according to claim 6 .
前記送信情報生成ステップに先立って、
前記送信情報を受信する装置の種類、または、電波の状態を含む通信環境に応じて、前記送信情報のデータサイズを調整する送信情報サイズ調整ステップを実施する、
請求項6または請求項7に記載の監視方法
Prior to the transmission information generation step,
A transmission information size adjusting step of adjusting the data size of the transmission information according to the type of device that receives the transmission information, or the communication environment including the radio wave state,
The monitoring method according to claim 6 or 7 .
JP2016117806A 2016-06-14 2016-06-14 Monitoring device and monitoring method Active JP6746112B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016117806A JP6746112B2 (en) 2016-06-14 2016-06-14 Monitoring device and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016117806A JP6746112B2 (en) 2016-06-14 2016-06-14 Monitoring device and monitoring method

Publications (2)

Publication Number Publication Date
JP2017224925A JP2017224925A (en) 2017-12-21
JP6746112B2 true JP6746112B2 (en) 2020-08-26

Family

ID=60688467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016117806A Active JP6746112B2 (en) 2016-06-14 2016-06-14 Monitoring device and monitoring method

Country Status (1)

Country Link
JP (1) JP6746112B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6942649B2 (en) * 2018-01-30 2021-09-29 株式会社日立製作所 Image processing device and image processing method
CN111753582A (en) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 Dangerous goods positioning method and device
JP6644231B1 (en) 2019-04-26 2020-02-12 Awl株式会社 Image analysis device and image analysis system
JP7292102B2 (en) * 2019-05-20 2023-06-16 Ihi運搬機械株式会社 Foreign object detection system and method
SG11202111650YA (en) 2019-05-20 2021-12-30 Ihi Corp Foreign matter detection system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004298988A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Picture image transmission device of mobile robot
JP4092643B2 (en) * 2003-04-23 2008-05-28 富士通株式会社 Vehicle traffic route prediction system
JP2012048645A (en) * 2010-08-30 2012-03-08 Sanyo Electric Co Ltd On-vehicle information communication device, roadside information communication device and communication system
JP5674406B2 (en) * 2010-09-30 2015-02-25 綜合警備保障株式会社 Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body
JP6175846B2 (en) * 2013-03-27 2017-08-09 富士通株式会社 Vehicle tracking program, server device, and vehicle tracking method

Also Published As

Publication number Publication date
JP2017224925A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
JP6746112B2 (en) Monitoring device and monitoring method
US11908184B2 (en) Image capture with privacy protection
US10527709B2 (en) System and method of detecting individuals in a target geographic location with a disastrous site using smart antenna borne drone
US10378863B2 (en) Smart wearable mine detector
US20140140575A1 (en) Image capture with privacy protection
Rivera et al. Post-disaster rescue facility: Human detection and geolocation using aerial drones
US10816976B2 (en) Control aerial movement of drone based on line-of-sight of humans using devices
CN107783545B (en) Obstacle avoidance system of post-disaster rescue rotor unmanned aerial vehicle based on OODA (object oriented data acquisition) ring multi-sensor information fusion
US11703863B2 (en) Methods and systems for operating a moving platform to determine data associated with a target person or object
CN104700576A (en) Quick water rescuing system and method
CN108513640A (en) A kind of control method and moveable platform of moveable platform
WO2018021300A1 (en) Search system and transmitter for use in search system
CN116710943A (en) Unmanned aerial vehicle scheduling method, server, base station, system and readable storage medium
Martinez-Heredia et al. Development of an emergency radio beacon for small unmanned aerial vehicles
JP7040827B1 (en) Search support system and rescue support program
US11620597B1 (en) Machine learning real property object detection and analysis apparatus, system, and method
Figueira et al. MISSION-ORIENTED SENSOR ARRAYS AND UAVs–A CASE STUDY ON ENVIRONMENTAL MONITORING
US20200132465A1 (en) System and method for determining a trajectory
KR20170082259A (en) Drone system that provides versatility
CN115541923A (en) Moving state detection method and device and computer equipment
JP2019188965A (en) Unmanned flight body, learning result information, unmanned flight method and unmanned flight program
CN111971207B (en) Method of retrieving a robotic vehicle, robotic vehicle and processing device
CN112698665A (en) Unmanned aerial vehicle detection positioning method
Basiratzadeh et al. Autonomous UAV for Civil Defense Applications
Sambana et al. An Artificial Intelligence approach to Intelligent Vehicle Control and Monitoring System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200520

TRDD Decision of grant or rejection written
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200721

R150 Certificate of patent or registration of utility model

Ref document number: 6746112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150