JP6390015B2 - Biological search system - Google Patents

Biological search system Download PDF

Info

Publication number
JP6390015B2
JP6390015B2 JP2018044840A JP2018044840A JP6390015B2 JP 6390015 B2 JP6390015 B2 JP 6390015B2 JP 2018044840 A JP2018044840 A JP 2018044840A JP 2018044840 A JP2018044840 A JP 2018044840A JP 6390015 B2 JP6390015 B2 JP 6390015B2
Authority
JP
Japan
Prior art keywords
search
person
unmanned
search system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018044840A
Other languages
Japanese (ja)
Other versions
JP2018121351A (en
Inventor
和雄 市原
和雄 市原
河野 雅一
雅一 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Prodrone Co Ltd
Original Assignee
Prodrone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Prodrone Co Ltd filed Critical Prodrone Co Ltd
Priority to JP2018044840A priority Critical patent/JP6390015B2/en
Publication of JP2018121351A publication Critical patent/JP2018121351A/en
Application granted granted Critical
Publication of JP6390015B2 publication Critical patent/JP6390015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は屋内又は屋外等の所定の範囲内で特定の人等を探すための生体探索システムに関するものである。   The present invention relates to a living body search system for searching for a specific person or the like within a predetermined range such as indoor or outdoor.

従来、人探索システムとして例えば、迷子探索システムが提案されている(特許文献1参照)。   Conventionally, for example, a lost child search system has been proposed as a human search system (see Patent Document 1).

上記の迷子探索システムは、遊園地等の施設に入場する人によって携帯され、質問信号を受信したときに、予め登録されている固有情報を送信するIDタグと、前記施設内の所定場所に配置され、前記IDタグを付けた人が通過するときに、このIDタグに前記質問信号を送信して、前記IDタグの固有情報の送信を促す質問器と、前記施設内の所定場所に配置され、前記IDタグを付けた人が通過するときに、この人物の画像を取り込むカメラ装置と、このカメラ装置で得られた各人の画像および前記質問器で得られた各IDタグの固有情報とを対にして、各人の識別用データを作成する管理装置とを備えるものである。   The above-described lost child search system is carried by a person entering a facility such as an amusement park, and is placed at a predetermined location in the facility, which transmits a unique information registered in advance when a question signal is received. When the person with the ID tag passes, the interrogator transmits the interrogation signal to the ID tag and prompts transmission of the unique information of the ID tag, and is arranged at a predetermined place in the facility. A camera device that captures an image of the person when the person with the ID tag passes, an image of each person obtained by the camera device, and unique information of each ID tag obtained by the interrogator And a management device for creating identification data for each person.

迷子探索システムによる探索は、施設入場者の写真をカメラで撮影し、撮影された画像をIDと対にして自動的に記録し、迷子が発生した時に、該当するIDを点在する質問機が読み取った履歴を参考にして、存在場所を大まかに特定し、その人の顔写真をプリントアウトして、係員が施設内を探すというものである。   In the search by the lost child search system, a photograph of a facility visitor is taken with a camera, and the captured image is automatically recorded in pairs with an ID. When a lost child occurs, interrogators interspersed with the corresponding IDs The location is roughly identified with reference to the read history, the person's face photo is printed out, and a staff member searches the facility.

また、複数の監視カメラ装置を連携して追跡対象の移動体の映像を補足する監視システムが公知である(特許文献2参照)。   Also, a monitoring system that captures video of a moving object to be tracked in cooperation with a plurality of monitoring camera devices is known (see Patent Document 2).

上記監視システムは、監視カメラ装置が画像認識機能を備え、撮影した追跡対対象者の映像と特徴情報をネットワークを介して他の監視カメラ装置に伝送するように構成することで、追跡対象を追跡し続けることが可能とされている。   In the monitoring system, the monitoring camera device has an image recognition function, and the tracking target is tracked by being configured to transmit the captured image of the tracking target and the feature information to another monitoring camera device via the network. It is possible to continue.

特開平10−301984号公報Japanese Patent Laid-Open No. 10-301984 特開2003−324720号公報JP 2003-324720 A

上記特許文献1に記載されている迷子探索システムは、カメラが固定されているため、探索対象者をカメラにより追跡することは不可能である。   In the lost child search system described in Patent Document 1, since the camera is fixed, it is impossible to track the search target person with the camera.

また上記特許文献2に記載されている監視システムでは、監視対象者を複数のカメラを切り替えて追跡することが可能であるが、各カメラの位置が固定されていることから、死角が発生するという問題は避けられない。また監視対象者をカメラで追跡することができたとしても、カメラからの距離が遠くなると、対象者が小さな姿でしか確認できないことになってしまい、画像認識が困難になってしまうという問題があった。   Further, in the monitoring system described in Patent Document 2, it is possible to track a person to be monitored by switching a plurality of cameras. However, since the position of each camera is fixed, a blind spot is generated. The problem is inevitable. Even if the monitoring target can be tracked by the camera, if the distance from the camera is increased, the target can only be confirmed in a small figure, and image recognition becomes difficult. there were.

本発明の目的は、無人移動体を使って特定の生体個体を捜索する生体探索システムを提供することである。   An object of the present invention is to provide a living body search system that searches for a specific living body individual using an unmanned moving body.

上記課題を解決するため、本発明の生体探索システムは、生体個体である人を被探索体として探すにあたり、無人移動体と、前記無人移動体と通信ネットワークで接続されたサーバと、を備え、前記無人移動体は、周囲を観察するカメラと、空間または地上を移動するための移動手段と、を有し、前記サーバは、前記被探索体の個体識別情報を記録可能なデータベースと、前記カメラで撮影された人の特徴部分を前記個体識別情報と照合し、その人が前記被探索体か否かを判別する個体識別手段と、を有していることを特徴とする。   In order to solve the above-described problem, the living body search system of the present invention includes an unmanned moving body and a server connected to the unmanned moving body through a communication network when searching for a person who is a living body as a body to be searched. The unmanned moving body includes a camera for observing the surroundings, and a moving means for moving in space or on the ground, and the server includes a database capable of recording individual identification information of the searched object, and the camera And an individual identification means for collating the characteristic portion of the person photographed in step 1 with the individual identification information and determining whether or not the person is the object to be searched.

本発明の生体探索システムは、前記無人移動体として、自律飛行可能な無人航空機を用いる構成としてもよい。   The living body search system of the present invention may be configured to use an unmanned aircraft capable of autonomous flight as the unmanned mobile body.

また、上記課題を解決するため、本発明の生体探索システムは、生体個体である人を被探索体として探すにあたり、周囲を観察するカメラと、空間または地上を移動するための移動手段と、前記被探索体の個体識別情報を記録可能なデータベースと、前記カメラで撮影した画像から人の特徴部分を検出する画像データ処理手段と、前記画像データ処理手段で検出した特徴部分を前記個体識別情報と照合し、その人が前記被探索体か否かを判別する個体識別手段と、を有する無人移動体を備えることを特徴とする。   Further, in order to solve the above problems, the living body search system of the present invention, when searching for a person who is a living body as a search target, a camera for observing the surroundings, a moving means for moving in space or the ground, A database capable of recording individual identification information of a search target, image data processing means for detecting a human characteristic part from an image photographed by the camera, and a characteristic part detected by the image data processing means as the individual identification information It is characterized by comprising an unmanned mobile body having an individual identification means for collating and discriminating whether or not the person is the search object.

本発明の生体探索システムは、前記特徴部分が人の顔であり、前記画像データ処理手段は、前記カメラで撮影した画像から人を検出する人検出手段と、該人検出手段で検出された人の画像から顔を検出する顔検出手段と、を含む構成としてもよい。   In the living body search system of the present invention, the characteristic part is a human face, and the image data processing means includes a person detecting means for detecting a person from an image photographed by the camera, and a person detected by the person detecting means. It is good also as a structure containing the face detection means which detects a face from these images.

また、本発明の生体探索システムは、前記人検出手段が前記画像から人を検出したときに、その人の顔が検出可能な位置に前記無人移動体を自動的に移動させる構成としてもよい。   The living body search system of the present invention may be configured to automatically move the unmanned moving body to a position where the person's face can be detected when the person detecting means detects the person from the image.

また、本発明の生体探索システムは、前記無人移動体として、複数の前記無人航空機を用いる構成としてもよい。   Moreover, the biological body search system of this invention is good also as a structure which uses the said some unmanned aircraft as said unmanned mobile body.

また、本発明の生体探索システムは、前記個体識別手段により前記被探索体が検出されたときに、前記無人移動体が該被探索体を追尾する構成としてもよい。   Further, the living body search system of the present invention may be configured such that, when the search target is detected by the individual identification unit, the unattended mobile body tracks the search target.

また、本発明の生体探索システムは、複数の前記無人移動体を備え、前記被探索体の追尾を、該被探索体を撮影した前記無人移動体とは別の前記無人移動体に引継可能である構成としてもよい。   In addition, the living body search system of the present invention includes a plurality of the unmanned moving objects, and can track the searched object to the unmanned moving object that is different from the unmanned moving object that images the searched object. It is good also as a certain structure.

また、本発明の生体探索システムは、前記データベースに、さらに、前記被探索体を発見したときの通知先である通知先情報が登録される構成としてもよい。   In addition, the living body search system of the present invention may be configured such that notification destination information that is a notification destination when the search target is found is registered in the database.

また、本発明の生体探索システムは、前記無人移動体または前記サーバは、前記個体識別手段により前記被探索体が検出されたときに、該被探索体の位置情報を前記通知先に通知する構成としてもよい。   Further, the living body search system of the present invention is configured such that the unmanned mobile body or the server notifies the notification destination of positional information of the search object when the search object is detected by the individual identification unit. It is good.

また、本発明の生体探索システムは、前記無人移動体が前記カメラを複数台有している構成としてもよい。   In the living body search system of the present invention, the unmanned moving body may have a plurality of the cameras.

本発明の生体探索システムによれば、被探索体である生体個体を速やかに探し出すことが可能となる。   According to the living body search system of the present invention, it is possible to quickly find a living body individual to be searched.

本発明の生体探索システムの一実施例の概略の構成を示す説明図である。It is explanatory drawing which shows the structure of the outline of one Example of the biopsy system of this invention. 図1の生体探索システムの無人航空機の構成を示すブロック図である。It is a block diagram which shows the structure of the unmanned aircraft of the biometric search system of FIG. 図1の生体探索システムの探索の手順を示すフローチャートである。It is a flowchart which shows the procedure of the search of the biometric search system of FIG.

以下、本発明の生体探索システムについて、図面を用いて詳細に説明する。図1は本発明の生体探索システムの一実施例の概略の構成を示す説明図である。図1に示す実施例は、被探索体として特定の人S(被探索者)を探す場合の人探索システムの例であり、無人移動体として無人航空機(マルチコプタ30)用いた場合の例である。   Hereinafter, the living body search system of the present invention will be described in detail with reference to the drawings. FIG. 1 is an explanatory diagram showing a schematic configuration of an embodiment of the living body search system of the present invention. The embodiment shown in FIG. 1 is an example of a human search system in the case of searching for a specific person S (searchee) as a search target, and is an example in the case of using an unmanned aircraft (multicopter 30) as an unmanned mobile body. .

図1の人探索システムは、室内又は室外の所定の範囲内において、被探索体として依頼人から依頼された特定の個人(生体個体)を探すためのものである。人探索システム10は、マルチコプタ30、サーバ50を有し、無人航空機30とサーバ50は、通信ネットワーク90により接続されていて、互いにデータの送受信が可能に構成されている。サーバ50は、例えば探索センタ等に設置され、係員によりデータの入力操作等の操作が行われる。   The person search system in FIG. 1 is for searching for a specific individual (biological individual) requested by a client as a search target in a predetermined range indoors or outdoors. The human search system 10 includes a multicopter 30 and a server 50. The unmanned aircraft 30 and the server 50 are connected by a communication network 90, and are configured to be able to transmit and receive data. The server 50 is installed, for example, in a search center or the like, and operations such as data input operations are performed by an attendant.

通信ネットワーク90は、公衆の便に供される共用ネットワーク、独自の専用ネットワークのいずれを用いてもよい。通信ネットワーク90と無線航空機30の間は無線方式で接続される。また通信ネットワーク90とサーバ50は無線方式又は有線方式のいずれの方式で接続されていてもよい。共用ネットワークは、通常の有線の固定電話回線、携帯電話回線等を用いることができる。   The communication network 90 may be either a shared network provided for public flights or an original dedicated network. The communication network 90 and the wireless aircraft 30 are connected by a wireless method. Further, the communication network 90 and the server 50 may be connected by either a wireless method or a wired method. As the shared network, a normal wired fixed telephone line, mobile telephone line, or the like can be used.

図2は図1の生体探索システムの無人移動体の構成を示すブロック図である。図1の人探索システムは、マルチコプタ30を無人移動体として用いる。図2に示すようにマルチコプタ30は、空間を飛行して任意に移動することが可能な移動手段300を有する。マルチコプタ30の移動手段300は、揚力を発生させる複数の回転翼310、飛行動作等を制御する制御部320、各部品に電力を供給するためのバッテリ340等から構成されている。マルチコプタ30は自律して移動することが可能に形成されている。   FIG. 2 is a block diagram showing a configuration of an unmanned mobile body of the biological search system of FIG. The human search system in FIG. 1 uses the multicopter 30 as an unmanned mobile body. As shown in FIG. 2, the multicopter 30 includes a moving unit 300 that can arbitrarily move by flying in space. The moving means 300 of the multicopter 30 includes a plurality of rotor blades 310 that generate lift, a control unit 320 that controls flight operations, a battery 340 that supplies power to each component, and the like. The multicopter 30 is formed so that it can move autonomously.

本発明において無人移動体としては、無人航空機以外に、自動運転が可能に構成されている無人自動車等を用いることができる。尚、マルチコプタ等の無人航空機を用いると、混雑している人ごみの中等でも、人をかき分ける必要がなく、また人の手の届かない高さの位置を飛行して移動することができるので、いたずらされたりする可能性が低くなる。   In the present invention, as the unmanned mobile body, an unmanned automobile or the like configured to be capable of automatic driving can be used in addition to the unmanned aircraft. If you use an unmanned aerial vehicle such as a multicopter, you do not need to scrape people even in crowded crowds, and you can fly and move at a height that is out of reach of people. Is less likely to happen.

また上記のマルチコプタは、自律して移動可能なものであるが、無人移動体は、遠隔操作によって移動可能なものであってもよい。   Moreover, although said multicopter can move autonomously, an unmanned mobile body may be movable by remote operation.

各回転翼310にはDCモータ311が結合されており、ESC(Electric Speed Controller)312を介して、制御部320に接続されている。制御部320は、CPU(中央処理装置)323、RAM/ROM(記憶装置)322、及びPWMコントローラ324等から構成される。制御部320には、更に加速度センサ、ジャイロセンサ(角速度センサ)、気圧センサ、地磁気センサ(電子コンパス)等のセンサ群325、GPS受信器326等が接続されている。   A DC motor 311 is coupled to each rotary blade 310 and is connected to the control unit 320 via an ESC (Electric Speed Controller) 312. The control unit 320 includes a CPU (central processing unit) 323, a RAM / ROM (storage device) 322, a PWM controller 324, and the like. The control unit 320 is further connected to a sensor group 325 such as an acceleration sensor, a gyro sensor (angular velocity sensor), an atmospheric pressure sensor, a geomagnetic sensor (electronic compass), a GPS receiver 326, and the like.

マルチコプタ30の制御は、移動手段300のPWMコントローラ324により、ESC312を介してDCモータ311の回転速度の調節により行う。すなわち複数の回転翼310の回転方向や回転速度のバランス等を適宜調節することにより、マルチコプタ30の姿勢や位置を制御することが可能である。   The multicopter 30 is controlled by the PWM controller 324 of the moving unit 300 by adjusting the rotational speed of the DC motor 311 via the ESC 312. That is, the posture and position of the multicopter 30 can be controlled by appropriately adjusting the rotation direction and the balance of the rotation speeds of the plurality of rotor blades 310.

例えば、制御部320のRAM/ROM322には、マルチコプタ30の飛行時における飛行制御アルゴリズムが実装された飛行制御プログラムが記憶されている。制御部321はセンサ群325等から取得した情報を用いて、飛行制御プログラムによりマルチコプタ30の姿勢及び位置を制御することができる。このようにマルチコプタ30は、移動手段300により、所定の範囲内を飛行して被探索体の探索のための移動を行うことが可能に構成されている。   For example, the RAM / ROM 322 of the control unit 320 stores a flight control program in which a flight control algorithm during the flight of the multicopter 30 is implemented. The control unit 321 can control the attitude and position of the multicopter 30 using a flight control program using information acquired from the sensor group 325 and the like. As described above, the multicopter 30 is configured to be able to fly within a predetermined range and move for searching for the search object by the moving unit 300.

マルチコプタ30は、周囲を観察するためのカメラ350、該カメラからの静止画の画像データを取り込むための画像データ処理手段360、画像データ処理手段360で取り込んだ画像データをサーバ50に送信したり、サーバ50からのデータを受信するための通信手段370を備えている。通信手段370は無線送受信が可能な通信装置が用いられる。   The multicopter 30 transmits the image data captured by the camera 350 for observing the surroundings, the image data processing unit 360 for capturing image data of the still image from the camera, and the image data processing unit 360 to the server 50, Communication means 370 for receiving data from the server 50 is provided. As the communication means 370, a communication device capable of wireless transmission / reception is used.

カメラ350は、マルチコプタ30の周囲をモニタリングして観察するのに用いられ、必要に応じ、静止画像を取り込むことが可能なものであればよい。カメラ350としては、可視光により画像を形成する可視光カメラ、赤外線により画像を形成する赤外線カメラ等を用いることができる。カメラ350は監視カメラ等に用いられる撮像素子を用いることができる。   The camera 350 is used for monitoring and observing the periphery of the multicopter 30, and may be any camera that can capture a still image as necessary. As the camera 350, a visible light camera that forms an image with visible light, an infrared camera that forms an image with infrared light, or the like can be used. As the camera 350, an image sensor used for a surveillance camera or the like can be used.

マルチコプタ30に、複数台のカメラ350を設けてもよい。例えば、異なる4方向に向けて4台のカメラ350を設置してもよい。またカメラ350として、マルチコプタの底面に360度カメラとして、マルチコプタの全周囲を観察可能に取り付けでもよい。   A plurality of cameras 350 may be provided in the multicopter 30. For example, four cameras 350 may be installed in four different directions. The camera 350 may be attached to the bottom of the multicopter as a 360-degree camera so that the entire periphery of the multicopter can be observed.

マルチコプタ30は、人の顔を探索体の特徴部分と定め、カメラ350で観察している画像に人の顔が検出された場合に、当該観察画像の静止画の画像データを取り込むことが可能に構成された画像データ処理手段360を備えている。   The multicopter 30 determines the human face as a characteristic part of the search object, and when a human face is detected in the image observed by the camera 350, the image data of the still image of the observed image can be captured. A configured image data processing means 360 is provided.

画像データ処理手段360は、移動体やサーバに画像データを取り込むことが可能な手段であれば使用することができる。具体的には、画像データを記録装置等に記録するための処理、画像データを一時的に記憶装置に記憶する処理、画像データをサーバ等に送信する処理等が挙げられる。   The image data processing means 360 can be used as long as it can take image data into a mobile body or a server. Specifically, there are a process for recording image data in a recording device, a process for temporarily storing image data in a storage device, a process for transmitting image data to a server, and the like.

画像データ処理手段360は、人の顔の検出(顔検出ということもある)を行うために顔検出手段が用いられる。顔検出手段は、モニタリングしている画像をリアルタイムで画像処理して、パターン分析、パターン識別等を行い、人の顔が認識された場合、顔検出されたとする。   The image data processing means 360 uses face detection means for detecting a human face (sometimes referred to as face detection). The face detection means performs image processing on the monitored image in real time, performs pattern analysis, pattern identification, and the like. If a human face is recognized, the face is detected.

また、この画像データ処理手段360は、観察している画像に人体のシルエットが認識された場合に、人の検出と判別する人検出手段を有している。人検出手段は、顔検出と同様に、画像処理して、パターン分析、パターン認識等を行い、画像中に人体のシルエットの姿があることが認識された場合に、人検出されたとする。   The image data processing unit 360 includes a human detection unit that determines that a human body is detected when a silhouette of a human body is recognized in the observed image. Similarly to face detection, the human detection means performs image processing, performs pattern analysis, pattern recognition, and the like, and it is assumed that a human is detected when it is recognized that a human body silhouette is present in the image.

なお本発明の画像処理を行う際の、顔検出とは、顔である部分の場所を検出することであり、顔認識とは、顔を検出したうえで、その顔の特徴情報から個人を特定する処理のことである。   When performing image processing according to the present invention, face detection refers to detecting the location of a part that is a face. Face recognition detects a face and then identifies an individual from the feature information of the face. It is a process to do.

マルチコプタ30は、マイクロフォン等の音声入力装置380、音や画像、映像等の出力装置390を備えている。音声入力装置380は、被探索者を発見した際に、該被探索者の音声を入力して探索センタの係員等との会話等に用いることができる。出力装置390は、例えばスピーカ等の音声出力装置、液晶ディスプレイ等の画像表示装置やプロジェクター等の画像投影装置等が挙げられる。出力装置390は、被探索者に対するメッセージの付与(伝達)、探索センタの係員が被探索者と会話を行うのに利用される   The multicopter 30 includes an audio input device 380 such as a microphone, and an output device 390 such as sound, image, and video. When the searchee is found, the voice input device 380 can input the searchee's voice and use it for conversation with a staff member of the search center. Examples of the output device 390 include an audio output device such as a speaker, an image display device such as a liquid crystal display, and an image projection device such as a projector. The output device 390 is used for giving (transmitting) a message to the searchee, and for a staff member of the search center to have a conversation with the searchee.

サーバ50は、被探索者Sの個体識別情報、依頼人の電話番号、メールアドレス等の通知先情報等の探索データの記録が可能なデータベース510と、被探索者Sが発見された際に依頼人に通知するための通知手段520、カメラから入力した探索者の画像を含む画像データと対比して該探索体が被探索者であるか否かの判別に用いられる個体識別手段530、前記データベース510に前記探索データを入力するための入力装置540等を備えている。通信ネットワーク90とサーバ50との通信は制御装置を介して行われる。   The server 50 includes a database 510 capable of recording search data such as individual identification information of the searchee S, the telephone number of the requester, and notification destination information such as an email address, and a request when the searchee S is discovered. Notification means 520 for notifying a person, individual identification means 530 used for determining whether or not the search object is a search target, in contrast to image data including an image of a searcher input from a camera, the database 510 includes an input device 540 for inputting the search data. Communication between the communication network 90 and the server 50 is performed via a control device.

データベース510に登録される探索データは、探索の範囲、被探索者の個体識別情報、依頼人の連絡先情報以外に、付加情報として、要追跡の有無のデータ、被探索者に対する依頼人からの音声メッセージ、映像メッセージ等が挙げられる。   The search data registered in the database 510 includes, in addition to the search range, the individual identification information of the searchee, and the contact information of the client, as additional information, whether or not tracking is required, the data from the client to the searcher Examples include voice messages and video messages.

データベース510に登録される被探索者の個体識別情報は、例えば個人の顔写真等の画像データ、個人の服装の色等の情報、個人の身長、体重等のデータ等が用いられる。   As the individual identification information of the searchee registered in the database 510, for example, image data such as a personal face photograph, information such as personal clothing color, data such as personal height and weight, and the like are used.

通知手段520は、音声、文字、画像等を通信可能な通信機器等であり、具体的には携帯電話、パソコン、ファクシミリ等が挙げられる。通知手段520が通知する通知先としては、携帯電話、管理センタ、インターネット等が挙げられる。通知手段520は、個体識別手段530により被探索体Sが発見された際に、制御装置550が連絡先をデータベース510から検索し、その連絡先に、通知手段520を用いて発見の通知を行うことができる。通知は、音声、文字、画像データ、それらを組み合わせたもの等を用いることができる。   The notification unit 520 is a communication device that can communicate voice, text, images, and the like, and specifically includes a mobile phone, a personal computer, a facsimile, and the like. Examples of the notification destination notified by the notification unit 520 include a mobile phone, a management center, and the Internet. When the search target S is discovered by the individual identification unit 530, the notification unit 520 causes the control device 550 to search the database 510 for a contact address, and notifies the contact point of the discovery using the notification unit 520. be able to. For the notification, voice, text, image data, a combination thereof, or the like can be used.

以下図1の人探索システムの探索手順について説明する。図3は人探索システムの手順を示すフローチャートである。探索手順として、例えば、次のステップで進めることができる。
S110:予め依頼人から提供された被探索データを登録するデータ登録ステップ。
S120:移動体がカメラで周囲を観察しながら探索範囲内を移動する移動ステップ。
S130:カメラの観察画像の中に人がいるか否かを判別して人検出を行う人検出ステップ。
S140:カメラの観察画像に顔があるか否かを判別して顔検出を行う顔検出ステップ。
S150:カメラの観察画像に予め定めた特徴部分を検出した場合、対象探索体を検出したと判断して、カメラの観察画像を画像データとして取り込む画像データ処理ステップ。
S160:画像データの対象探索体と被探索体の個体識別情報とを対比して対象探索体の個体認識を行う個体認識ステップ。
S170:個体認識ステップで画像データの対象探索体が個体識別情報と一致した場合、被探索体を発見したものとして、通知手段が依頼人に被探索体発見の通知を行う発見通知ステップ。以下、これらのステップについて説明する。
The search procedure of the human search system in FIG. 1 will be described below. FIG. 3 is a flowchart showing the procedure of the person search system. As a search procedure, for example, the following steps can be performed.
S110: A data registration step for registering search target data provided in advance by a client.
S120: A moving step in which the moving body moves within the search range while observing the surroundings with the camera.
S130: a person detection step of determining whether there is a person in the observation image of the camera and performing person detection.
S140: A face detection step of determining whether there is a face in the observation image of the camera and performing face detection.
S150: An image data processing step of determining that a target search object has been detected when a predetermined characteristic portion is detected in the observation image of the camera, and capturing the observation image of the camera as image data.
S160: An individual recognition step of performing individual recognition of the target search object by comparing the target search object of the image data with the individual identification information of the search object.
S170: A discovery notification step in which, when the object search object of the image data coincides with the individual identification information in the individual recognition step, the notification means notifies the client of the discovery of the search object as having detected the search object. Hereinafter, these steps will be described.

図3に示すように、先ず、データ登録ステップS210では、探索センタの作業者が依頼人から提供された探索データをサーバ50の入力装置540を用いてデータベース510に登録する。   As shown in FIG. 3, first, in a data registration step S <b> 210, search data provided by a client by a search center operator is registered in the database 510 using the input device 540 of the server 50.

次いで、移動ステップS120では、サーバ50の制御装置550から通信ネットワーク90を介して、マルチコプタ30に制御信号を送り、カメラ350で周囲を観察しながら所定の探索範囲を移動する。   Next, in a moving step S120, a control signal is sent from the control device 550 of the server 50 to the multicopter 30 via the communication network 90, and a predetermined search range is moved while observing the surroundings with the camera 350.

次いで、人検出ステップS130では、カメラ350の観察画像の中に人がいるか否かを判断して人検出を行う。人検出ステップS130で人が検出されなかった場合(NO)は移動ステップS120に戻り、マルチコプタ30は探索範囲内を更に移動する。人検出ステップ120で人が検出された場合(YES)次の顔検出ステップS140に進む。人検出ステップS120では、人体のシルエットを認識した際に人の検出と判別する。   Next, in the person detection step S130, it is determined whether or not there is a person in the observation image of the camera 350, and person detection is performed. If no person is detected in the person detection step S130 (NO), the process returns to the movement step S120, and the multicopter 30 further moves within the search range. If a person is detected in the person detection step 120 (YES), the process proceeds to the next face detection step S140. In the human detection step S120, it is determined that a person is detected when the silhouette of the human body is recognized.

顔検出ステップS140では、カメラの観察画像に顔の画像があるか否かを判別する。顔の画像が無い場合(NO)は移動ステップS120に戻り、マルチコプタ30を移動させる。マルチコプタ30の移動は、顔検出ができるように、人の顔の正面側等の位置に移動させる。一方、顔の画像が検出できた場合(YES)は、探索者を検出したと判断して画像データ処理ステップS150に進む。   In face detection step S140, it is determined whether or not there is a face image in the camera observation image. When there is no face image (NO), the process returns to the moving step S120, and the multicopter 30 is moved. The multicopter 30 is moved to a position such as the front side of a human face so that the face can be detected. On the other hand, if a face image can be detected (YES), it is determined that a searcher has been detected, and the process proceeds to image data processing step S150.

画像データ処理ステップS150では、カメラ350の画像を画像データ処理手段360により画像データとして記憶する。記憶された画像データは、制御装置により通信手段370を用いて通信ネットワーク90を介してサーバ50に送られる。   In the image data processing step S150, the image of the camera 350 is stored as image data by the image data processing means 360. The stored image data is sent to the server 50 via the communication network 90 using the communication means 370 by the control device.

次にサーバ50では、個体認識ステップS160を行う。個体認識ステップS160は、サーバ50に送られた画像データを、制御装置550を介して個体識別手段530に送り、データベースの個人識別情報として登録されている被探索者の顔情報を用いて、顔情報画像データの人(探索者)が被探索者であるか否かを判別する。判別は、登録されている単一或いは複数の顔情報と顔の画像データを対比して、予め定められた一致率を超える場合に、被探索体と一致したと判断して、次の発見通知ステップS170に進む。一方、対比の結果、一致率に届かなかった場合は、不一致として移動ステップS120に戻り、マルチコプタ30を移動させる。   Next, the server 50 performs an individual recognition step S160. In the individual recognition step S160, the image data sent to the server 50 is sent to the individual identification means 530 via the control device 550, and the face information of the search target registered as the personal identification information in the database is used. It is determined whether or not the person (searcher) of the information image data is a search target person. The determination is made by comparing the registered single or plural face information and face image data, and when it exceeds a predetermined matching rate, it is determined that the search object matches and the next discovery notification Proceed to step S170. On the other hand, as a result of the comparison, if the match rate has not been reached, the multi-copter 30 is moved by returning to the moving step S120 as a mismatch.

発見通知ステップS170では、被探索者Sを発見したとして、依頼人に、通知手段520を用いて被探索者の発見の通知を行う。通知は、予め登録されている通知先(携帯電話、管理センタ、インターネット)に、発見の事実を知らせる。   In the discovery notification step S <b> 170, it is assumed that the search target person S has been found, and the requester is notified of the search target person discovery using the notification means 520. In the notification, a discovery destination (a mobile phone, a management center, the Internet) registered in advance is notified of the fact of discovery.

発見通知ステップS170では、発見された場所の位置情報を追加して通知することができる。位置情報は、屋外であればマルチコプタ30のGPS受信機の位置情報を利用することができる。また屋内であれば、周囲の映像やマルチコプタが自己位置推定に用いた位置情報等を用いることができる。   In the discovery notification step S170, the location information of the discovered location can be added and notified. If the position information is outdoors, the position information of the GPS receiver of the multicopter 30 can be used. In addition, if it is indoors, surrounding video, position information used by the multicopter for self-position estimation, and the like can be used.

次いで、データベース510に探索データの付加情報の有無を照会して、付加情報が無い場合は、処理を終了する。また付加情報がある場合は、引き続きメッセージ付与ステップS190、追尾ステップS200等の処理を行う。   Next, the database 510 is queried for the presence or absence of additional information in the search data. If there is no additional information, the process is terminated. If there is additional information, processing such as message giving step S190 and tracking step S200 is continued.

メッセージ付与ステップS190は、マルチコプタ30の出力装置を用いて、予めデータベースに登録されている依頼人からの音声メッセージや映像メッセージ等を被探索者Sに伝達する。また、カメラ350、マイクロフォン等の音声入力装置380と画像、音声等の出力装置390を用いて、サーバ50側の管理センタの係員と被探索者Sとの間で音声通話や画像付通話等を行って、発見された被探索者とコミニケーションをとることも可能である。   In the message giving step S190, a voice message, a video message or the like from a client registered in the database in advance is transmitted to the search target person S using the output device of the multicopter 30. Further, by using a voice input device 380 such as a camera 350 and a microphone and an output device 390 for images, voices, etc., a voice call, a call with an image, or the like is performed between a staff member of the management center on the server 50 side and the search target S. It is also possible to go and communicate with the discovered search target.

追尾ステップS200では、データベースの探索データに要追跡のフラグを立てられた人物については、マルチコプタ30が被探索者Sを引き続き追尾するように、マルチコプタ30の飛行を制御して、被探索者Sの監視を継続する。   In the tracking step S200, the flight of the multicopter 30 is controlled so that the multicopter 30 continues to track the search target person S for the person whose tracking data is flagged in the search data of the database. Continue monitoring.

追尾ステップS200では、追尾して監視を行う場合、1台のマルチコプタ30では、同時に予め指定されていた探索範囲を探索することができなくなる。この場合、予備のマルチコプタを準備しておいて、追尾の開始と共に予備のマルチコプタを出動させて、指定された範囲の探索を引き継ぐようにすることができる。   In the tracking step S200, when tracking and monitoring are performed, the single multicopter 30 cannot search the search range designated in advance at the same time. In this case, a spare multicopter can be prepared and the spare multicopter can be activated at the start of tracking to take over the search of the designated range.

また、追尾ステップS200の追尾を、別のマルチコプタを出動させて行うようにすることもできる。この場合、全体監視用のマルチコプタと追尾監視用のマルチコプタを分けることで、それぞれに要請される機能に特化することができる。例えば、全体監視用のマルチコプタは、構造下部に360度カメラを装備したり、4方向に向けて4台のカメラを設置して同時に撮影処理する等、大型で長時間作動するものとし、一方、追尾用マルチコプタは、単一のカメラだけ搭載し、低騒音で小型の装置として構成することができる。   Further, the tracking of the tracking step S200 can be performed by dispatching another multicopter. In this case, by dividing the multi-copter for overall monitoring and the multi-copter for tracking monitoring, it is possible to specialize in functions required for each. For example, the multi-copter for overall monitoring is large and operates for a long time, such as equipped with a 360-degree camera at the bottom of the structure, or installed four cameras in four directions and simultaneously shooting, The tracking multicopter can be configured as a small device with only a single camera and low noise.

また全体監視用マルチコプタと追尾用マルチコプタを併用する場合、追尾用マルチコプタが十分小型であれば、全体監視用のマルチコプタに追尾用マルチコプタを搭載しておいて、追尾の際にここから出動するように構成してもよい。   Also, when using the multi-copter for general monitoring and the multi-copter for tracking together, if the multi-copter for tracking is sufficiently small, the multi-copter for tracking is mounted on the multi-copter for general monitoring, and it will be dispatched from here when tracking. It may be configured.

以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の改変が可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

本発明において被探索体である生体個体としては、上記した人に限定されず、犬、猫等のペット、その他の動物等の各種の生体の個体等に適用することができる。   In the present invention, the living individual that is a search target is not limited to the above-described person, but can be applied to various living individuals such as dogs, cats, and other animals, and other animals.

また上記実施例では、カメラで撮影した画像データをサーバに送って、画像サーバに設けた個体識別手段により個体認識ステップの処理を行っているが、マルチコプタのCPU等の性能が十分高性能で顔認識が可能であれば、マルチコプタに個体識別手段を設けて、サーバから被探索体の顔データのみを受け取り、マルチコプタ上のみで個体認識ステップを行うことも可能である。   In the above embodiment, the image data captured by the camera is sent to the server, and the individual recognition step is performed by the individual identification means provided in the image server. However, the performance of the multi-copter CPU is sufficiently high. If recognition is possible, it is also possible to provide individual identification means in the multicopter, receive only the face data of the search object from the server, and perform the individual recognition step only on the multicopter.

但し、顔認識の演算処理には高性能なCPUと大きなデータベースが必要であるのに対し、顔検出、人検出等の演算処理は、顔認識の演算処理と比較して軽量である。そのため、マルチコプタ等に高性能のCPUを搭載することはコスト等の点で現実的ではないこともあり、実施例で説明したように、画像データを通信ネットワーク経由でサーバに送り、サーバで顔認識の処理を行うのが合理的である。   However, calculation processing for face recognition requires a high-performance CPU and a large database, whereas calculation processing such as face detection and human detection is lighter than the calculation processing for face recognition. For this reason, mounting a high-performance CPU in a multi-copter or the like may not be realistic in terms of cost and the like. As described in the embodiment, image data is sent to a server via a communication network, and face recognition is performed by the server. It is reasonable to perform this process.

また上記実施例は、個体認識に可視光カメラを用いて、撮影した画像データの顔情報を利用した顔認識技術で被探索者を検出するものであるが、個体識別情報として、服装の色や柄等を用いてもよい。また、カメラとして赤外線カメラを用いた場合には、赤外線カメラにより得られる熱分布画像により、被探索体の温度を検知して、体温等の温度データを生体の個体識別情報として利用して、個体識別を行うようにすることも可能である。   In the above embodiment, a visible light camera is used for individual recognition, and a person to be searched is detected by face recognition technology using face information of captured image data. A handle or the like may be used. In addition, when an infrared camera is used as the camera, the temperature of the search object is detected from the heat distribution image obtained by the infrared camera, and temperature data such as body temperature is used as the individual identification information of the living body. It is also possible to perform identification.

また顔検出以外の他のデータを顔検出と併用して、個体認識の精度を向上させることもできる。他のデータとしては、被探索体の体重、身長等の大きさの情報、服装の色等が挙げられる。例えば、顔がマルチコプタのカメラを向いていない場合に、上記のデータは、有効である。   In addition, the accuracy of individual recognition can be improved by using data other than face detection together with face detection. Examples of other data include information on the body weight and height of the search target, clothing color, and the like. For example, the above data is effective when the face is not facing the multi-copter camera.

S 人(被探索体)
10 人探索システム(生体探索システム)
30 マルチコプタ
300 移動手段
350 カメラ
360 画像データ処理手段
370 通信手段
390 出力装置
50 サーバ
510 データベース
520 通知手段
530 個体識別手段
540 入力装置
90 通信ネットワーク
S people (searchee)
10 person search system (biological search system)
30 Multicopter 300 Moving means 350 Camera 360 Image data processing means 370 Communication means 390 Output device 50 Server 510 Database 520 Notification means 530 Individual identification means 540 Input device 90 Communication network

Claims (11)

生体個体である人を被探索体として探す生体探索システムであって、
無人移動体と、
前記無人移動体と通信ネットワークで接続されたサーバと、を備え、
前記無人移動体は、
周囲を観察するカメラと、
空間または地上を移動するための移動手段と、を有し、
前記サーバは、
前記被探索体の個体識別情報を記録可能なデータベースと、
前記カメラで撮影された人の特徴部分を前記個体識別情報と照合し、その人が前記被探索体か否かを判別する個体識別手段と、を有していることを特徴とする生体探索システム。
A biological search system for searching for a person who is a living individual as a search target,
An unmanned moving body,
A server connected to the unmanned mobile body via a communication network,
The unmanned mobile body is
A camera to observe the surroundings,
Moving means for moving in space or on the ground,
The server
A database capable of recording individual identification information of the search object;
A living body search system comprising: individual identification means for collating a characteristic portion of a person photographed by the camera with the individual identification information and determining whether or not the person is the object to be searched. .
前記無人移動体として、自律飛行可能な無人航空機を用いることを特徴とする請求項1に記載の生体探索システム。   The living body search system according to claim 1, wherein an unmanned aircraft capable of autonomous flight is used as the unmanned moving body. 生体個体である人を被探索体として探す生体探索システムであって、
自律飛行可能な無人航空機である無人移動体を備え、
前記無人移動体は、
周囲を観察するカメラと、
空間または地上を移動するための移動手段と、
前記被探索体の個体識別情報を記録可能なデータベースと、
前記カメラで撮影した画像から人の特徴部分を検出する画像データ処理手段と、
前記画像データ処理手段で検出した特徴部分を前記個体識別情報と照合し、その人が前記被探索体か否かを判別する個体識別手段と、を有することを特徴とする生体探索システム。
A biological search system for searching for a person who is a living individual as a search target,
It has an unmanned moving body that is an unmanned aerial vehicle capable of autonomous flight,
The unmanned mobile body is
A camera to observe the surroundings,
Moving means for moving in space or on the ground;
A database capable of recording individual identification information of the search object;
Image data processing means for detecting a human feature from an image taken by the camera;
A living body search system comprising: individual identification means for collating a characteristic portion detected by the image data processing means with the individual identification information and determining whether or not the person is the object to be searched.
前記特徴部分は人の顔であり、
前記画像データ処理手段は、前記カメラで撮影した画像から人を検出する人検出手段と、該人検出手段で検出された人の画像から顔を検出する顔検出手段と、を含むことを特徴とする請求項3に記載の生体探索システム。
The characteristic part is a human face;
The image data processing means includes human detection means for detecting a person from an image photographed by the camera, and face detection means for detecting a face from an image of the person detected by the person detection means, The living body search system according to claim 3.
前記人検出手段が前記画像から人を検出したときに、その人の顔が検出可能な位置に前記無人移動体を自動的に移動させることを特徴とする請求項4に記載の生体探索システム。   The living body search system according to claim 4, wherein when the person detecting unit detects a person from the image, the unmanned moving body is automatically moved to a position where the person's face can be detected. 前記無人移動体として、複数の前記無人航空機を用いることを特徴とする請求項2から請求項5のいずれか一項に記載の生体探索システム。   The biological search system according to any one of claims 2 to 5, wherein a plurality of the unmanned aircraft are used as the unmanned moving body. 前記個体識別手段により前記被探索体が検出されたときに、前記無人移動体が該被探索体を追尾することを特徴とする請求項1から請求項6のいずれか一項に記載の生体探索システム。   The living body search according to any one of claims 1 to 6, wherein when the search target is detected by the individual identification unit, the unattended moving body tracks the search target. system. 複数の前記無人移動体を備え、
前記被探索体の追尾を、該被探索体を撮影した前記無人移動体とは別の前記無人移動体に引継可能であることを特徴とする請求項7に記載の生体探索システム。
Comprising a plurality of the unmanned moving bodies,
The living body search system according to claim 7, wherein tracking of the search target object can be taken over by the unmanned mobile object different from the unmanned mobile object that images the search target object.
前記データベースにはさらに、前記被探索体を発見したときの通知先である通知先情報が登録されることを特徴とする請求項1から請求項8のいずれか一項に記載の生体探索システム。   The living body search system according to any one of claims 1 to 8, wherein notification information that is a notification destination when the search target is found is registered in the database. 前記無人移動体または前記サーバは、前記個体識別手段により前記被探索体が検出されたときに、該被探索体の位置情報を前記通知先に通知することを特徴とする請求項9に記載の生体探索システム。   The unmanned mobile body or the server notifies the notification destination of position information of the search target object when the search target object is detected by the individual identification unit. Biological search system. 前記無人移動体は前記カメラを複数台有していることを特徴とする請求項1から請求項10のいずれか一項に記載の生体探索システム。   The living body search system according to any one of claims 1 to 10, wherein the unmanned moving body includes a plurality of the cameras.
JP2018044840A 2018-03-13 2018-03-13 Biological search system Active JP6390015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018044840A JP6390015B2 (en) 2018-03-13 2018-03-13 Biological search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018044840A JP6390015B2 (en) 2018-03-13 2018-03-13 Biological search system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016049026A Division JP6340538B2 (en) 2016-03-11 2016-03-11 Biological search system

Publications (2)

Publication Number Publication Date
JP2018121351A JP2018121351A (en) 2018-08-02
JP6390015B2 true JP6390015B2 (en) 2018-09-19

Family

ID=63044022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018044840A Active JP6390015B2 (en) 2018-03-13 2018-03-13 Biological search system

Country Status (1)

Country Link
JP (1) JP6390015B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6774597B2 (en) * 2016-03-23 2020-10-28 株式会社Jvcケンウッド Unmanned mobile device, takeover method, program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4506381B2 (en) * 2004-09-27 2010-07-21 沖電気工業株式会社 Single actor and group actor detection device
JP5674406B2 (en) * 2010-09-30 2015-02-25 綜合警備保障株式会社 Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body
JP6029446B2 (en) * 2012-12-13 2016-11-24 セコム株式会社 Autonomous flying robot
JP6195450B2 (en) * 2013-01-31 2017-09-13 セコム株式会社 Autonomous flying robot
JP6022627B2 (en) * 2014-03-27 2016-11-09 株式会社電通 Evacuation support system, evacuation support management program, evacuation support terminal application program, and evacuation support method
JP6469962B2 (en) * 2014-04-21 2019-02-13 薫 渡部 Monitoring system and monitoring method

Also Published As

Publication number Publication date
JP2018121351A (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6340538B2 (en) Biological search system
US11097690B2 (en) Identifying and authenticating autonomous vehicles and passengers
US10370102B2 (en) Systems, apparatuses and methods for unmanned aerial vehicle
US10198954B2 (en) Method and apparatus for positioning an unmanned robotic vehicle
JP5674307B2 (en) Subject detection system and subject detection method
US10101196B2 (en) Device for UAV detection and identification
US10796132B2 (en) Public service system and method using autonomous smart car
US9237267B2 (en) Imaging systems, moving bodies, and imaging control methods for remote monitoring of a moving target
EP3619695A1 (en) System and method for threat monitoring, detection, and response
KR102559745B1 (en) Airport robot, and airport robot system including same
KR102440819B1 (en) Area patrol system with patrol drone
US11373398B2 (en) Methods and systems for operating a moving platform to determine data associated with a target person or object
JP2017163511A5 (en)
JPWO2018078863A1 (en) Drone control system, method and program
US20210171046A1 (en) Method and vehicle system for passenger recognition by autonomous vehicles
CN109634271A (en) A kind of indoor moving service robot and its control method
JP6390015B2 (en) Biological search system
CN209560365U (en) A kind of indoor moving service robot
US11893867B2 (en) Monitoring system and unmanned ground vehicle
JP7073729B2 (en) Shooting system
JP2019139642A (en) Device, system, and method for detecting locations
JP2019207636A (en) Image processor, image processing method and program
JP7057468B1 (en) Management system, management method and program
US20220188394A1 (en) Person specifying device, person specifying method, and recording medium
CN114071003B (en) Shooting method and system based on optical communication device

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180725

R150 Certificate of patent or registration of utility model

Ref document number: 6390015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250