JP2016177640A - Video monitoring system - Google Patents

Video monitoring system Download PDF

Info

Publication number
JP2016177640A
JP2016177640A JP2015058387A JP2015058387A JP2016177640A JP 2016177640 A JP2016177640 A JP 2016177640A JP 2015058387 A JP2015058387 A JP 2015058387A JP 2015058387 A JP2015058387 A JP 2015058387A JP 2016177640 A JP2016177640 A JP 2016177640A
Authority
JP
Japan
Prior art keywords
flying object
information
camera
video surveillance
surveillance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015058387A
Other languages
Japanese (ja)
Inventor
清高 渡邊
Kiyotaka Watanabe
清高 渡邊
三輪 祥太郎
Shotaro Miwa
祥太郎 三輪
広幸 蔦田
Hiroyuki Tsutada
広幸 蔦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015058387A priority Critical patent/JP2016177640A/en
Publication of JP2016177640A publication Critical patent/JP2016177640A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video monitoring system which properly performs flight control of a flying body by accurately estimating a location and a posture of the flying body even when the monitoring area is an indoor space.SOLUTION: The video monitoring system includes: a flying body 1 with a camera and an inclination sensor mounted; a stationary camera 2 installed in a monitoring area; parameter storage means 3 for storing space information on the monitoring area, location estimation means 4 for estimating location information on the flying body on the basis of image information imaged by the stationary camera and the space information; posture estimation means 5 for estimating posture information on the flying body on the basis of photographic images by the camera mounted in the flying body, inclination information detected by the inclination sensor and the location information on the flying body; and a flight movement control means 6 for controlling flight movement of the flying body on the basis of the location information on the flying body, the posture information on the flying body and the space information.SELECTED DRAWING: Figure 1

Description

本発明は、監視エリアに設置されたカメラと、このカメラの監視機能を補助するための飛行体とを備えた映像監視システムに関する。   The present invention relates to a video surveillance system including a camera installed in a surveillance area and a flying object for assisting the surveillance function of the camera.

公共施設や小売店舗、工場などを監視する機器として、カメラとレコーダ(映像記録装置)とから構成される映像監視システムが広く普及している。映像監視システムにおいては、カメラが撮影した映像を人間が目視でモニタリングすることが一般的であるが、人間による長時間のモニタリングは心身の負担が大きい。そこで、人間によるモニタリングを省力化するための技術として、画像認識技術を利用した人物の行動認識及び追跡技術が開示されている(例えば特許文献1参照)。   As equipment for monitoring public facilities, retail stores, factories, and the like, video surveillance systems including cameras and recorders (video recording devices) are widely used. In video surveillance systems, it is common for humans to visually monitor video captured by a camera, but long-term monitoring by humans is a burden on the mind and body. Thus, as a technique for saving human monitoring, a human action recognition and tracking technique using an image recognition technique is disclosed (for example, see Patent Document 1).

さらに、広いエリアを効率的に監視するため、移動型ロボットを用いて監視機能を補助するような映像監視技術が提案されている。特許文献2には、監視対象(侵入人物)に追従飛行しながらカメラで撮影する機能を有する飛行体(飛行ロボット)が開示されている。   Furthermore, in order to efficiently monitor a wide area, a video monitoring technique that assists a monitoring function using a mobile robot has been proposed. Patent Document 2 discloses a flying object (flying robot) having a function of photographing with a camera while following a monitored object (intruder).

特開2008−26974号公報JP 2008-26974 A 特開2014−149621号公報JP 2014-149621 A

奥富正敏編,「ディジタル画像処理」,CG−ARTS協会,2004,pp.252−255Edited by Masatoshi Okutomi, “Digital Image Processing”, CG-ARTS Association, 2004, pp. 252-255 Z. Zhang, "A flexible new technique for camera calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, No.11, pp.1330-1334, 2000.Z. Zhang, "A flexible new technique for camera calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, No.11, pp.1330-1334, 2000.

映像監視システムにおいて、カメラは1台で広い範囲を監視できるが、その監視範囲には制限がある。また、カメラから監視対象までの距離が離れるほど監視対象が小さく写る。例えば人物がカメラから遠く離れた位置にいる場合、カメラの撮影画像から人物の存在は把握できても、その人物の顔や行動の詳細まで把握できない。従って、監視エリア全体をカバーするには、監視エリアの広さに応じた数のカメラを設置する必要がある。従って、多数のカメラを備えた映像監視システムを導入するには非常にコストがかかるという問題がある。   In a video surveillance system, a single camera can monitor a wide range, but the monitoring range is limited. Further, the smaller the distance from the camera to the monitoring target, the smaller the monitoring target appears. For example, when a person is far away from the camera, the presence of the person can be grasped from the photographed image of the camera, but the details of the person's face and behavior cannot be grasped. Therefore, in order to cover the entire monitoring area, it is necessary to install a number of cameras corresponding to the size of the monitoring area. Therefore, there is a problem that it is very expensive to introduce a video surveillance system having a large number of cameras.

監視エリアが広い場合は、特許文献2で開示されているような飛行体を導入することにより、監視対象に近づいて画像を撮影することができる。この場合、飛行体が周囲の環境の認識や移動経路を決定するために、自己の現在の位置(自己位置)と姿勢とを推定する処理(自己位置推定処理)が必要となる。従って、飛行体が自己位置と姿勢とを検出できない場合、監視エリアから外れた方向へ飛行してしまうなど、飛行体としての機能(侵入人物の追尾や監視など)が継続できなくなるという問題がある。   When the monitoring area is wide, by introducing a flying object as disclosed in Patent Document 2, an image can be taken close to the monitoring target. In this case, in order for the flying object to recognize the surrounding environment and determine the movement path, a process (self-position estimation process) for estimating its current position (self-position) and posture is required. Therefore, when the flying object cannot detect its own position and posture, the function as the flying object (tracking or monitoring an intruding person) cannot be continued, such as flying away from the monitoring area. .

また、飛行体が屋外を飛行する場合は、GPS(global positioning system)受信機を利用することによって自己位置を推定できる。しかしながら、屋内ではGPS電波が受信できないので、自己位置を推定できずに監視が継続できないという問題がある。   Further, when the flying object flies outdoors, the self-position can be estimated by using a GPS (global positioning system) receiver. However, since GPS radio waves cannot be received indoors, there is a problem that self-position cannot be estimated and monitoring cannot be continued.

また、飛行体の姿勢については、例えば加速度センサを用いることにより、水平面に対する傾きを推定することは可能である。鉛直上向きの軸まわりの回転角(方位)についても、屋外であれば磁方位センサを利用して絶対方位を知ることができる。しかしながら、屋内では建物や屋根などの構造物の影響により、磁方位センサの精度が大幅に低下するので、自己位置が推定できずに監視が継続できないという問題がある。   As for the attitude of the flying object, the inclination with respect to the horizontal plane can be estimated by using, for example, an acceleration sensor. As for the rotation angle (azimuth) around the vertically upward axis, the absolute direction can be known by using a magnetic direction sensor when outdoors. However, since the accuracy of the magnetic direction sensor is greatly lowered due to the influence of structures such as buildings and roofs indoors, there is a problem that the self-position cannot be estimated and monitoring cannot be continued.

さらに、屋内構造は単純であり、窓、天井パネル等や什器が規則的に配置されることも多く、異なる位置でも風景や構造が似ている場合がある。従って、画像データに基づく自己位置推定を行う場合には誤った推定結果を得るという問題がある。またさらに、特許文献2ではレーザースキャナを用いて自己位置推定を行っているが、高い推定精度を得るためには高価なセンサが必要になるという問題がある。   Furthermore, the indoor structure is simple, and windows, ceiling panels, and fixtures are often regularly arranged, and the scenery and structure may be similar at different positions. Therefore, there is a problem that an erroneous estimation result is obtained when self-position estimation based on image data is performed. Furthermore, although Patent Document 2 performs self-position estimation using a laser scanner, there is a problem that an expensive sensor is required to obtain high estimation accuracy.

ビーコンや光学式マーカーなど、位置情報を伝達する手段を監視エリア内に隈無く設置すれば、飛行体に対して精密な位置情報を伝えることができるが、これらの装置を大量に監視エリアへ設置し、定期的なメンテナンスを行うには、非常にコストが増大するという問題がある。   Precise position information can be transmitted to the flying object by installing a means for transmitting position information such as beacons and optical markers in the monitoring area, but a large number of these devices are installed in the monitoring area. However, there is a problem that the cost is very high for performing the regular maintenance.

本発明の目的は以上の問題点を解決し、監視エリアが屋内空間であっても、飛行体の位置と姿勢とを高精度に推定して適切に飛行体を飛行制御する映像監視システムを提供することにある。   The object of the present invention is to solve the above problems and provide a video surveillance system for accurately controlling the flying object by accurately estimating the position and posture of the flying object even if the monitoring area is an indoor space. There is to do.

本発明に係る映像監視システムは、カメラと傾きセンサを搭載した飛行体と、監視エリアに設置する固定カメラと、監視エリアの空間情報を格納したパラメータ記憶手段と、固定カメラにより撮影された画像情報と、空間情報とに基づいて飛行体の位置情報を推定する位置推定手段と、飛行体に搭載されたカメラの撮影画像と、傾きセンサにより検出された傾き情報と、飛行体の位置情報とに基づいて、飛行体の姿勢情報を推定する姿勢推定手段と、飛行体の位置情報と、飛行体の姿勢情報と、空間情報とに基づいて、飛行体の飛行動作を制御する飛行動作制御手段とを備える。   An image monitoring system according to the present invention includes a flying object equipped with a camera and a tilt sensor, a fixed camera installed in the monitoring area, parameter storage means storing spatial information of the monitoring area, and image information captured by the fixed camera. And position estimation means for estimating the position information of the flying object based on the spatial information, a captured image of a camera mounted on the flying object, inclination information detected by the inclination sensor, and position information of the flying object. Based on attitude estimation means for estimating the attitude information of the flying object, flight information control means for controlling the flying action of the flying object based on the position information of the flying object, the attitude information of the flying object, and the spatial information; Is provided.

本発明に係る映像監視システムによれば、監視エリア側に設置した固定カメラの画像情報から飛行体の位置を推定し、同時に飛行体に搭載されるカメラの画像情報と傾き情報から飛行体の姿勢を推定する。そのため、従来は位置及び姿勢の推定が困難であった屋内空間においても、簡便な構成で飛行体の位置及び姿勢を高精度に推定することができ、飛行体の飛行動作を適切に制御することができる。   According to the video surveillance system of the present invention, the position of the flying object is estimated from the image information of the fixed camera installed on the monitoring area side, and at the same time, the attitude of the flying object from the image information and tilt information of the camera mounted on the flying object. Is estimated. Therefore, even in indoor spaces where it was difficult to estimate position and orientation in the past, the position and orientation of the flying object can be accurately estimated with a simple configuration, and the flying operation of the flying object can be controlled appropriately. Can do.

本発明の第1の実施の形態に係る映像監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video surveillance system which concerns on the 1st Embodiment of this invention. 図1の映像監視システムの構成を示す模式図である。It is a schematic diagram which shows the structure of the video monitoring system of FIG. 図1の飛行体1の構成を示す模式図である。It is a schematic diagram which shows the structure of the flying body 1 of FIG. 図1の固定カメラ2の模式図である。It is a schematic diagram of the fixed camera 2 of FIG. 図1の飛行体1が監視する監視エリア101のモデル化について説明するための図である。It is a figure for demonstrating modeling of the monitoring area 101 which the flying body 1 of FIG. 1 monitors. 固定カメラ2により撮影される画像221の模式図である。4 is a schematic diagram of an image 221 captured by a fixed camera 2. FIG. 飛行体1が備えるカメラ12により撮影される画像121の模式図である。It is a schematic diagram of the image 121 image | photographed with the camera 12 with which the flying body 1 is provided. 図5の監視エリア101を上から見た模式図である。It is the schematic diagram which looked at the monitoring area 101 of FIG. 5 from the top. 本発明の第2の実施の形態に係る映像監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video surveillance system which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る映像監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video surveillance system which concerns on the 3rd Embodiment of this invention.

以下、本発明に係る実施の形態について図面を参照して説明する。なお、以下の各実施の形態において、同様の構成要素については同一の符号を付して説明は省略する。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In the following embodiments, the same components are denoted by the same reference numerals, and description thereof is omitted.

第1の実施の形態.
図1は本発明の第1の実施の形態に係る映像監視システムの構成を示すブロック図である。図1の映像監視システムは、飛行体1と、複数の固定カメラ2と、パラメータ記憶部3と、位置推定部4と、姿勢推定部5と、飛行動作制御部6とを備えて構成される。ここで、各構成部には通信手段が備えられ、構成部間での有線または無線通信により、各種情報もしくは制御信号の送受信を行う。また、図1では、各構成部はそれぞれに分離しているが、複数の構成部が1個の筐体内にモジュール化されてもよいし、または各構成部が飛行体1もしくは固定カメラ2の筐体内に内蔵されてもよい。
First embodiment.
FIG. 1 is a block diagram showing a configuration of a video surveillance system according to the first embodiment of the present invention. The video monitoring system of FIG. 1 includes a flying object 1, a plurality of fixed cameras 2, a parameter storage unit 3, a position estimation unit 4, a posture estimation unit 5, and a flight motion control unit 6. . Here, each component is provided with communication means, and various information or control signals are transmitted and received by wired or wireless communication between the components. In FIG. 1, each component is separated from each other. However, a plurality of components may be modularized in a single housing, or each component may be a vehicle 1 or a fixed camera 2. It may be built in the housing.

図2は図1の映像監視システムの構成を示す模式図である。ここで、監視エリア101を監視する例が示されている。図2において、監視エリア101に3台の固定カメラ2A,2B,2Cが設置され、飛行体1が監視エリア内の人物102を撮影している様子を示している。図1の映像監視システムの各構成部の動作を図2を参照して以下に説明する。なお、図2には監視エリア101に3台の固定カメラ2A,2B,2Cを設置したが、2台以上のカメラ2が監視エリア102内に備えられてもよい。この場合には、複数の固定カメラ2のうち少なくとも2台が常に飛行体1の画像を捕獲できるように、固定カメラ2の設置台数と設置箇所、及び姿勢(向き)を調整する。   FIG. 2 is a schematic diagram showing the configuration of the video monitoring system of FIG. Here, an example of monitoring the monitoring area 101 is shown. In FIG. 2, three fixed cameras 2A, 2B, and 2C are installed in the monitoring area 101, and the flying object 1 is photographing the person 102 in the monitoring area. The operation of each component of the video surveillance system in FIG. 1 will be described below with reference to FIG. In FIG. 2, three fixed cameras 2 </ b> A, 2 </ b> B, and 2 </ b> C are installed in the monitoring area 101, but two or more cameras 2 may be provided in the monitoring area 102. In this case, the number of installed fixed cameras 2, the installation location, and the posture (orientation) are adjusted so that at least two of the fixed cameras 2 can always capture the image of the flying object 1.

図3は図1の飛行体1の構成を示す模式図である。ここで、飛行体1は、飛行による移動のために必要な機構と、カメラ12と、飛行体1の水平面に対する傾きを検出する傾きセンサと、充電池とを備えており、充電池からの電源供給により駆動する。図3において、飛行体1は、本体10と、4枚のロータ11と、カメラ12と、光源13とを備えて構成される。ロータ11とカメラ12と光源13とは本体10に取り付けられる。飛行体1は、4枚のロータ11の回転により飛行するクアッドコプター型の飛行体である。4枚のロータ11の回転数を変化させることにより、飛行体1の飛行速度、高度、方向及び姿勢を制御できる。また、傾きセンサは水平面に対する飛行体1の水平面に対する傾きを計測するために利用するもので、例えば加速度センサを用いる。なお、飛行体1は、クアッドコプター型に限らず、任意の飛行機構を用いることができる。また、飛行体1は、内蔵した充電池からの電源供給により駆動する構成の他、飛行体1に接続される有線の電源ケーブルから受電し駆動するように構成されてもよい。   FIG. 3 is a schematic diagram showing the configuration of the flying object 1 of FIG. Here, the flying object 1 includes a mechanism necessary for movement by flight, a camera 12, an inclination sensor that detects the inclination of the flying object 1 with respect to the horizontal plane, and a rechargeable battery. Driven by supply. In FIG. 3, the flying object 1 includes a main body 10, four rotors 11, a camera 12, and a light source 13. The rotor 11, the camera 12, and the light source 13 are attached to the main body 10. The flying object 1 is a quad-copter type flying object that flies by the rotation of four rotors 11. By changing the number of rotations of the four rotors 11, the flight speed, altitude, direction, and attitude of the flying object 1 can be controlled. The tilt sensor is used to measure the tilt of the flying object 1 with respect to the horizontal plane with respect to the horizontal plane. For example, an acceleration sensor is used. The flying object 1 is not limited to the quadcopter type, and any flying mechanism can be used. In addition to the configuration in which the flying object 1 is driven by power supply from a built-in rechargeable battery, the flying object 1 may be configured to receive and drive power from a wired power cable connected to the flying object 1.

光源13は、固定カメラ2により撮影した撮影画像の中からから飛行体1の位置を検出しやすくするために飛行体1に搭載される。この構成により、飛行体1と固定カメラ2との距離が離れている場合でも、固定カメラ2の撮影画像の中から飛行体1を検出しやすくなる。   The light source 13 is mounted on the flying object 1 in order to make it easier to detect the position of the flying object 1 from the captured image taken by the fixed camera 2. With this configuration, even when the distance between the flying object 1 and the fixed camera 2 is long, the flying object 1 can be easily detected from the captured image of the fixed camera 2.

ここで、飛行体1がどのような姿勢を取っている場合でも固定カメラ2で光源13を撮影できるように、飛行体1の筐体に光源13を配置することが好ましい。さらに、後述する位置推定部4が飛行体1の位置を推定する精度を向上させるため、飛行体1に備えられるカメラ12の光学中心になるべく近い位置に光源13を配置することが望ましい。なお、図1に示したブロック図において、映像監視システムは1台の飛行体1を備えて構成されるが、複数の飛行体1を備えて構成されてもよい。   Here, it is preferable to arrange the light source 13 in the housing of the flying object 1 so that the fixed camera 2 can photograph the light source 13 regardless of the attitude of the flying object 1. Furthermore, in order to improve the accuracy with which the position estimation unit 4 described later estimates the position of the flying object 1, it is desirable to arrange the light source 13 as close as possible to the optical center of the camera 12 provided in the flying object 1. In the block diagram shown in FIG. 1, the video monitoring system is configured to include one flying object 1, but may be configured to include a plurality of flying objects 1.

図4は図1の固定カメラ2の模式図である。図2において、固定カメラ2(2A〜2C)は、カメラ本体20と、取付脚21と、光源22とを備えて構成される。この構成により、飛行体1と固定カメラ2との距離が離れている場合でも、飛行体1が備えるカメラ12の撮影画像の中から固定カメラ2を検出しやすくなる。ここで、取付脚21と光源22とはカメラ本体20に取り付けられる。固定カメラ2は、取付脚21を監視エリア101の天井もしくは壁等に取り付けてカメラ本体20の姿勢を調整して監視エリア101に固定設置する。また、光源22は、固定カメラ2の光学中心になるべく近い位置に配置し、かつ固定カメラ2の周囲のどの方向からでも見えるように配置することが好ましい。また、光源22は、閃光光源であってもよく、この構成により、飛行体1と固定カメラ2との距離が離れている場合でも、飛行体1が備えるカメラ12の撮影画像の中から固定カメラ2の位置をさらに検出しやすくなる。   FIG. 4 is a schematic diagram of the fixed camera 2 of FIG. In FIG. 2, the fixed camera 2 (2 </ b> A to 2 </ b> C) includes a camera body 20, a mounting leg 21, and a light source 22. With this configuration, even when the distance between the flying object 1 and the fixed camera 2 is long, the fixed camera 2 can be easily detected from the captured images of the camera 12 included in the flying object 1. Here, the attachment leg 21 and the light source 22 are attached to the camera body 20. The fixed camera 2 is fixedly installed in the monitoring area 101 by attaching the mounting leg 21 to the ceiling or wall of the monitoring area 101 and adjusting the posture of the camera body 20. In addition, the light source 22 is preferably disposed at a position as close as possible to the optical center of the fixed camera 2 and is disposed so as to be visible from any direction around the fixed camera 2. Further, the light source 22 may be a flash light source. With this configuration, even when the distance between the flying object 1 and the fixed camera 2 is long, the fixed camera is selected from the images captured by the camera 12 included in the flying object 1. It becomes easier to detect the position of 2.

飛行体1は、監視エリア101の上空を飛行し、カメラ12で監視エリア101の画像を撮影し、撮影された画像情報を姿勢推定部5に出力する。飛行体1は、傾きセンサを用いて飛行体1の水平面に対する傾き情報を検出して当該検出された飛行体1の水平面に対する傾き情報を姿勢推定部5に出力する。   The flying object 1 flies over the monitoring area 101, captures an image of the monitoring area 101 with the camera 12, and outputs the captured image information to the posture estimation unit 5. The flying object 1 detects inclination information with respect to the horizontal plane of the flying object 1 using an inclination sensor, and outputs the detected inclination information with respect to the horizontal plane of the flying object 1 to the attitude estimation unit 5.

固定カメラ2は監視エリア101に複数設置され、監視エリア101の状況を撮影して画像情報を取得して位置推定部4に出力する。また、監視エリア101を飛行する飛行体1の位置を推定するための画像情報を取得し、当該取得された画像情報を位置推定部4に送信する。   A plurality of fixed cameras 2 are installed in the monitoring area 101, and the situation of the monitoring area 101 is photographed to acquire image information and output it to the position estimation unit 4. Further, the image information for estimating the position of the flying object 1 flying in the monitoring area 101 is acquired, and the acquired image information is transmitted to the position estimating unit 4.

パラメータ記憶部3は、位置推定部4及び姿勢推定部5の推定処理(後述)と、飛行動作制御部6で実行する飛行体1の飛行動作の制御(後述)とに必要な空間情報と、各カメラ12及び固定カメラ2のカメラパラメータとを格納する。カメラパラメータについての詳細は後述する。ここで、空間情報とは、飛行体1の飛行計画(飛行スケジュール、飛行コース等の飛行経路情報)を含む。   The parameter storage unit 3 includes spatial information necessary for estimation processing (described later) of the position estimation unit 4 and attitude estimation unit 5 and control of flight operation of the flying object 1 (described later) executed by the flight operation control unit 6; The camera parameters of each camera 12 and the fixed camera 2 are stored. Details of the camera parameters will be described later. Here, the spatial information includes a flight plan (flight schedule information such as a flight schedule and a flight course) of the flying object 1.

位置推定部4は、固定カメラ2で撮影した画像情報及び空間情報に基づいて、監視エリア101における飛行体1の3次元位置を推定し、当該推定された3次元位置情報を飛行体位置情報として姿勢推定部5に出力する。   The position estimation unit 4 estimates the three-dimensional position of the flying object 1 in the monitoring area 101 based on the image information and spatial information captured by the fixed camera 2, and uses the estimated three-dimensional position information as the flying object position information. Output to the posture estimation unit 5.

姿勢推定部5は、飛行体1のカメラ12により取得された画像情報と、位置推定部4から入力された飛行体位置情報と、傾きセンサから得られた飛行体1の水平面に対する傾き情報とに基づいて、飛行体1の姿勢情報を推定し、当該推定された飛行体1の姿勢を飛行体姿勢情報として飛行動作制御部6に出力する。ここで、姿勢推定部5は、飛行体1のカメラ12で撮影した撮影画像に固定カメラ2が写っていることを利用して姿勢を推定する。なお、撮影画像の中から固定カメラ2の位置を検出するために固定カメラ2には光源22を設けている。   The posture estimation unit 5 includes the image information acquired by the camera 12 of the flying object 1, the flying object position information input from the position estimation unit 4, and the inclination information with respect to the horizontal plane of the flying object 1 obtained from the inclination sensor. Based on this, the attitude information of the flying object 1 is estimated, and the estimated attitude of the flying object 1 is output to the flight operation control unit 6 as the flying object attitude information. Here, the posture estimation unit 5 estimates the posture using the fact that the fixed camera 2 is reflected in the captured image captured by the camera 12 of the flying object 1. The fixed camera 2 is provided with a light source 22 in order to detect the position of the fixed camera 2 from the captured image.

飛行動作制御部6は、位置推定部4で推定された飛行体位置情報と、姿勢推定部5で推定された飛行体姿勢情報とを、あらかじめパラメータ記憶部3に格納した飛行経路情報とそれぞれ比較し、当該比較結果に基づいて、飛行体1の飛行動作を制御する飛行制御情報を生成して飛行体1に送信する。ここで、飛行動作制御部6は、飛行体1の位置情報及び飛行体1の姿勢情報に基づいて実際の飛行経路を算出し、当該算出された飛行経路と、飛行機1の飛行経路情報とを比較して、当該比較結果に基づいて、飛行体1の飛行動作を制御する。ここで、飛行体1の位置及び姿勢があらかじめ格納した飛行経路から外れていると判断される場合には、飛行動作制御部6はあらかじめ格納した飛行経路に戻るような飛行制御情報を生成して飛行体1の飛行動作を制御する。   The flight operation control unit 6 compares the flying object position information estimated by the position estimation unit 4 and the flying object posture information estimated by the posture estimation unit 5 with the flight path information stored in the parameter storage unit 3 in advance. Then, based on the comparison result, flight control information for controlling the flight operation of the flying object 1 is generated and transmitted to the flying object 1. Here, the flight operation control unit 6 calculates an actual flight path based on the position information of the flying object 1 and the attitude information of the flying object 1, and calculates the calculated flight path and the flight path information of the airplane 1. In comparison, the flight operation of the flying object 1 is controlled based on the comparison result. Here, when it is determined that the position and posture of the flying object 1 are out of the flight path stored in advance, the flight operation control unit 6 generates flight control information to return to the flight path stored in advance. The flight operation of the flying object 1 is controlled.

上述したように、図1の映像監視システムでは、位置推定部4での飛行体1の位置の推定と、姿勢推定部5での飛行体1の姿勢推定と、飛行動作制御部6での飛行動作の制御とが繰り返される。この構成により、監視エリア101が屋内空間であっても簡便な構成で高精度に飛行体1の位置及び姿勢を推定し、飛行体1の飛行動作を制御することができる。   As described above, in the video surveillance system of FIG. 1, the position estimation unit 4 estimates the position of the flying object 1, the attitude estimation unit 5 estimates the attitude of the flying object 1, and the flight motion control unit 6 performs the flight. The operation control is repeated. With this configuration, even if the monitoring area 101 is an indoor space, the position and orientation of the flying object 1 can be estimated with high accuracy and the flying operation of the flying object 1 can be controlled with a simple structure.

次に、監視エリア101の空間のモデル化について説明する。   Next, the modeling of the space of the monitoring area 101 will be described.

図5は図1の飛行体1が監視する監視エリア101のモデル化について説明するための図である。図5において、監視エリア101の3次元空間に対し、互いに直交するX,Y,Z軸及び原点(0,0,0)を決定し、3次元座標系を定義する。各X,Y,Z軸の1単位は、例えば実空間の1センチメートルに対応させる。この座標系をワールド座標系と呼ぶ。 FIG. 5 is a diagram for explaining the modeling of the monitoring area 101 monitored by the aircraft 1 of FIG. In FIG. 5, the X W , Y W , Z W axis and the origin (0, 0, 0) orthogonal to each other are determined for the three-dimensional space of the monitoring area 101, and a three-dimensional coordinate system is defined. One unit of each X W , Y W , and Z W axis corresponds to, for example, 1 centimeter in real space. This coordinate system is called the world coordinate system.

同図に示すように、監視エリア101の床面101aは水平面に平行な平面であるとし、直交する2つのX,Y軸で形成される平面を床面101aと一致させる。さらに、床面101aに対して鉛直上向きの軸をZ軸とし、X,Y,Z軸によってワールド座標系が定義される。 As shown in the figure, the floor surface 101a of the monitoring area 101 is assumed to be a plane parallel to the horizontal plane, and a plane formed by two orthogonal X W and Y W axes is made to coincide with the floor surface 101a. Further, the Z W axis vertical upward axis to the floor surface 101a, X W, Y W, the world coordinate system is defined by Z W-axis.

次に、監視エリア101に複数の固定カメラ2を設置する。ここで、実空間の3次元座標系と固定カメラ2の2次元座標系の対応関係を記述するモデルを導入する。このモデルとしてもっとも一般的な透視投影モデルの概要を示す。透視投影モデルの詳細は、例えば非特許文献1に開示される。ここでは、レンズ歪みを無視した単純な透視投影モデルに基づいて説明する。なお、透視投影モデルではモデル化できないカメラについても、当該カメラに対応するモデルを導入することにより、本発明に係る映像監視システムを利用することが可能である。   Next, a plurality of fixed cameras 2 are installed in the monitoring area 101. Here, a model that describes the correspondence between the three-dimensional coordinate system of the real space and the two-dimensional coordinate system of the fixed camera 2 is introduced. An outline of the most general perspective projection model is shown as this model. Details of the perspective projection model are disclosed in Non-Patent Document 1, for example. Here, a description will be given based on a simple perspective projection model in which lens distortion is ignored. Note that the video surveillance system according to the present invention can be used for a camera that cannot be modeled by a perspective projection model by introducing a model corresponding to the camera.

まず、カメラの光学中心を原点とし、Z軸をカメラの光軸に一致させ、X軸とY軸とを画像の横方向と縦方向とそれぞれ平行に位置するX,Y,Z軸の3次元座標系を考える。この3次元座標系をカメラ座標系と呼ぶ。このとき、ワールド座標系とカメラ座標系との関係は以下の式で表すことができる。   First, the three-dimensional X, Y, and Z axes that have the optical center of the camera as the origin, the Z axis coincides with the optical axis of the camera, and the X axis and Y axis are positioned parallel to the horizontal and vertical directions of the image, respectively. Consider a coordinate system. This three-dimensional coordinate system is called a camera coordinate system. At this time, the relationship between the world coordinate system and the camera coordinate system can be expressed by the following equation.

Figure 2016177640
但し、
Figure 2016177640
Figure 2016177640
However,
Figure 2016177640

ここで行列Rは3×3の回転行列、ベクトルtは3次元の平行移動ベクトルであり、回転行列Rとベクトルtとを合わせてカメラの外部パラメータと呼ぶ。ここで、式(1)に対して、X=Y=Z=0を代入すると、ワールド座標系におけるカメラの光学中心座標(X,Y,Z)が以下のように求められる。 Here, the matrix R is a 3 × 3 rotation matrix, the vector t is a three-dimensional translation vector, and the rotation matrix R and the vector t are collectively referred to as an external parameter of the camera. Here, if X = Y = Z = 0 is substituted into Expression (1), the optical center coordinates (X 0 , Y 0 , Z 0 ) of the camera in the world coordinate system are obtained as follows.

Figure 2016177640
Figure 2016177640

次に、2次元のカメラ画像の位置を表す座標系として画像座標(u,v)を導入する。画像座標の1単位は画素に対応する。画像座標系の原点は画像のある適当な位置、例えば画像の左上に定めるとする。このように各座標系を定めると、画像座標系とカメラ座標系との関係は以下の式で表すことができる。   Next, image coordinates (u, v) are introduced as a coordinate system representing the position of the two-dimensional camera image. One unit of image coordinates corresponds to a pixel. It is assumed that the origin of the image coordinate system is determined at an appropriate position of the image, for example, the upper left of the image. When each coordinate system is defined in this way, the relationship between the image coordinate system and the camera coordinate system can be expressed by the following equation.

Figure 2016177640
Figure 2016177640

ここで、f、fはカメラの焦点距離(単位は画素)、(c,c)は画像座標系における光軸と画像面との交点の位置(画像中心)であり、これらの定数をまとめてカメラの内部パラメータと呼ぶ。 Here, f u and f v are focal lengths (units are pixels) of the camera, and (c u , c v ) are positions of intersections of the optical axis and the image plane (image center) in the image coordinate system. The constants are collectively referred to as camera internal parameters.

また、ワールド座標系と画像座標系との関係は、上述した式(1)及び式(2)から以下の式で表すことができる。   Further, the relationship between the world coordinate system and the image coordinate system can be expressed by the following equations from the above-described equations (1) and (2).

Figure 2016177640
Figure 2016177640

上述したように、実空間の3次元座標系(ワールド座標系)とカメラの2次元座標系(画像座標系)とは、式(4)の右辺に現れるパラメータにより関係付けられる。これら外部パラメータと内部パラメータとを合わせてカメラパラメータと呼ぶ。   As described above, the three-dimensional coordinate system (world coordinate system) in the real space and the two-dimensional coordinate system (image coordinate system) of the camera are related by the parameter appearing on the right side of Equation (4). These external parameters and internal parameters are collectively referred to as camera parameters.

また、図1の映像監視システムの事前準備作業として、監視エリア101に設置する固定カメラ2のそれぞれに対してキャリブレーションを実行する。キャリブレーションとは、上述したカメラパラメータを求める作業のことを指す。また、飛行体1のカメラ12についても、あらかじめキャリブレーションを実行して内部パラメータを求める。ここで、キャリブレーションにより取得されたカメラパラメータは、パラメータ記憶部3に記憶(格納)される。   Further, as a preparatory work of the video monitoring system in FIG. 1, calibration is executed for each of the fixed cameras 2 installed in the monitoring area 101. Calibration refers to the work of obtaining the camera parameters described above. The camera 12 of the flying object 1 is also calibrated in advance to obtain internal parameters. Here, the camera parameters acquired by the calibration are stored (stored) in the parameter storage unit 3.

上述したキャリブレーション手法としては、例えばZhangの手法(非特許文献2参照)のような既存の手法を用いることができる。なお、例えば飛行体1が監視エリア101で飛行可能な範囲をワールド座標系で定義した情報や、飛行体1を監視エリア101で巡回飛行させる場合はその飛行経路情報などをパラメータ記憶部3に格納してもよい。   As the calibration method described above, for example, an existing method such as the Zhang method (see Non-Patent Document 2) can be used. For example, information defining the range in which the flying object 1 can fly in the monitoring area 101 in the world coordinate system, or the flight route information when the flying object 1 makes a round flight in the monitoring area 101 are stored in the parameter storage unit 3. May be.

次に、位置推定部4が飛行体1の3次元空間中の位置を推定する手順を述べる。   Next, a procedure for the position estimation unit 4 to estimate the position of the flying object 1 in the three-dimensional space will be described.

図6は固定カメラ2により撮影される画像221の模式図である。ここで、複数の固定カメラ2のうち1台に注目し、その撮影画像の座標(u,v)で飛行体1が検出されたと仮定する。上述したように、例えば飛行体1の光源13から放出される光を検出することにより容易に実現できる。 FIG. 6 is a schematic diagram of an image 221 captured by the fixed camera 2. Here, it is assumed that one of the plurality of fixed cameras 2 is focused and the flying object 1 is detected at the coordinates (u A , v A ) of the captured image. As described above, this can be easily realized by detecting light emitted from the light source 13 of the flying object 1, for example.

固定カメラ2の視野に飛行体1および人物102が入っており、それぞれ撮影画像221の中に写っている。図6では、飛行体1が備える光源13が発光している様子の撮影画像を模式的に示している。   The flying object 1 and the person 102 are in the field of view of the fixed camera 2 and are shown in the captured image 221. In FIG. 6, the picked-up image of a mode that the light source 13 with which the flying body 1 is light-emitting is shown typically.

式(3)より、当該カメラの光学中心(X,Y,Z)と飛行体1の3次元座標を結ぶ直線の、カメラ座標系での方向ベクトルdは以下のように表すことができる。 From equation (3), the direction vector d in the camera coordinate system of the straight line connecting the optical center (X 0 , Y 0 , Z 0 ) of the camera and the three-dimensional coordinates of the aircraft 1 can be expressed as follows: it can.

Figure 2016177640
Figure 2016177640

式(5)のベクトルdの左からR−1を乗算すると、ワールド座標系における直線の方向ベクトルdが求められる。方向ベクトルdは以下の式で表される。 Multiplying by R −1 from the left of the vector d in equation (5), a straight direction vector d W in the world coordinate system is obtained. Direction vector d W is expressed by the following equation.

Figure 2016177640
Figure 2016177640

ここで、カメラ光学中心(X,Y,Z)を通り、方向ベクトルdに平行な直線の式は、パラメータt(tは全ての実数を動く)を用いて、以下の式で表すことができる。 Here, the equation of a straight line that passes through the camera optical center (X 0 , Y 0 , Z 0 ) and is parallel to the direction vector d W is expressed by the following equation using the parameter t (t moves all real numbers): Can be represented.

Figure 2016177640
Figure 2016177640

ある時点において、同時に撮影された複数の固定カメラ2の画像から飛行体1を検出したとき、位置推定部4はまず上述の手順により、固定カメラ2の光学中心と飛行体1の3次元座標とを結ぶ直線の式(7)を求める。すべての固定カメラ2についてこの直線を求め、これらの直線の交点を計算することにより、ワールド座標系における飛行体1の位置を求めることができる。   At a certain point in time, when the flying object 1 is detected from the images of a plurality of fixed cameras 2 photographed at the same time, the position estimation unit 4 first determines the optical center of the fixed camera 2 and the three-dimensional coordinates of the flying object 1 according to the procedure described above. Equation (7) of a straight line connecting The position of the flying object 1 in the world coordinate system can be obtained by obtaining this straight line for all the fixed cameras 2 and calculating the intersection of these straight lines.

なお、固定カメラ2の撮影画像から飛行体1を容易に認識できるようにするため、光源13は閃光光源としてもよい。この構成により、飛行体1と固定カメラ2との距離が離れている場合でも、固定カメラ2の撮影画像の中から飛行体1を検出しやすくなる。さらに、位置推定部4の制御により、光源13の点灯のタイミングを固定カメラ2の撮像タイミングと同期させるようにしてもよい。すなわち、光源13は、固定カメラ2が撮像するタイミングに同期して発光する。この構成により、固定カメラ2の撮影画像の中から飛行体1を検出する精度がさらに向上する。   The light source 13 may be a flash light source so that the flying object 1 can be easily recognized from the captured image of the fixed camera 2. With this configuration, even when the distance between the flying object 1 and the fixed camera 2 is long, the flying object 1 can be easily detected from the captured image of the fixed camera 2. Furthermore, the lighting timing of the light source 13 may be synchronized with the imaging timing of the fixed camera 2 under the control of the position estimation unit 4. That is, the light source 13 emits light in synchronization with the timing when the fixed camera 2 captures an image. With this configuration, the accuracy of detecting the flying object 1 from the captured image of the fixed camera 2 is further improved.

また、映像監視システムを複数の飛行体1で構成してもよく、その場合には、それぞれの飛行体1の位置を独立に推定できるように、飛行体1が備える光源13の点灯のタイミングをずらすように制御してもよい。   In addition, the video surveillance system may be composed of a plurality of flying objects 1, and in that case, the lighting timing of the light source 13 provided in the flying object 1 is set so that the position of each flying object 1 can be estimated independently. You may control so that it may shift.

上記の手順により推定される、ワールド座標系における飛行体1の位置は、飛行体1が備えるカメラ12の光学中心Pの座標と同一とみなし、以下説明する。   The position of the flying object 1 in the world coordinate system estimated by the above procedure is assumed to be the same as the coordinates of the optical center P of the camera 12 included in the flying object 1, and will be described below.

続いて、姿勢推定部5が飛行体1の姿勢を推定する手順を示す。   Subsequently, a procedure in which the posture estimation unit 5 estimates the posture of the flying object 1 will be shown.

姿勢推定部5は、飛行体1からの傾き情報から、水平面に平行なX,Y軸まわりの回転角を求めることが可能である。ここで、残りのZ軸まわりの回転角(カメラ12の光軸とX軸とがなす角)を推定する手順を示す。 The attitude estimation unit 5 can obtain the rotation angle about the X W and Y W axes parallel to the horizontal plane from the tilt information from the flying object 1. Here, a procedure for estimating the rotation angle about the remaining Z W-axis (the optical axis and the X W axis and forms angle of the camera 12).

図7は飛行体1が備えるカメラ12により撮影される画像121の模式図である。図7において、カメラ12の視野に固定カメラ2および人物102が入っており、それぞれ撮影画像121に写っている。図7では、固定カメラ2が備える光源22が発光している様子の撮影画像を模式的に示している。   FIG. 7 is a schematic diagram of an image 121 taken by the camera 12 included in the flying object 1. In FIG. 7, the fixed camera 2 and the person 102 are in the field of view of the camera 12, and each is shown in the captured image 121. FIG. 7 schematically shows a captured image in which the light source 22 included in the fixed camera 2 emits light.

図8は図5の監視エリア101を上から見た模式図である。ここで、飛行体1のカメラ12の光学中心をP、カメラ12の光軸と画像平面の交点をc、焦点距離をfとする。ここで、各交点c及び焦点距離は、カメラ12の画像中心と焦点距離とにそれぞれ対応し、上述のカメラキャリブレーションによって得られるパラメータである。   FIG. 8 is a schematic view of the monitoring area 101 of FIG. 5 as viewed from above. Here, the optical center of the camera 12 of the flying object 1 is P, the intersection of the optical axis of the camera 12 and the image plane is c, and the focal length is f. Here, each intersection point c and focal length are parameters obtained by the above-described camera calibration corresponding to the image center and focal length of the camera 12, respectively.

また、図8の点Qに設置された固定カメラが、カメラ12の視野に入っているとする。この固定カメラ2の位置(ワールド座標)は、上述のカメラキャリブレーションによってカメラの外部パラメータとして取得される。姿勢推定部5は、カメラ12の画像に写っている固定カメラ2が、複数の固定カメラ2のいずれであるかが判別できると仮定する。これは、例えば固定カメラ2が備える光源22の点灯のタイミングを、カメラ12が撮影するタイミングと同期させるようにすることにより実現できる。この構成により、飛行体1が備えるカメラ12の撮影画像の中から固定カメラ2を検出する精度が向上し、複数の固定カメラ2の識別が容易となる。   Further, it is assumed that the fixed camera installed at the point Q in FIG. The position (world coordinates) of the fixed camera 2 is acquired as an external parameter of the camera by the above-described camera calibration. It is assumed that the posture estimation unit 5 can determine which of the plurality of fixed cameras 2 is the fixed camera 2 shown in the image of the camera 12. This can be realized, for example, by synchronizing the lighting timing of the light source 22 included in the fixed camera 2 with the timing when the camera 12 captures an image. With this configuration, the accuracy of detecting the fixed camera 2 from the captured image of the camera 12 included in the flying object 1 is improved, and the plurality of fixed cameras 2 can be easily identified.

さらに、点Qに設置された固定カメラの、画像平面への投影点をuとおく。カメラ12の撮影画像上の点uは、上述のように固定カメラ2が備える光源22から放出される光を画像から検出することにより求められる。   Further, u is a projection point on the image plane of the fixed camera installed at the point Q. The point u on the captured image of the camera 12 is obtained by detecting light emitted from the light source 22 included in the fixed camera 2 from the image as described above.

ここで、飛行体1が備えるカメラ12の光学中心Pと固定カメラQを結ぶ直線と、飛行体1が備えるカメラ12の光軸とのなす角度φは、図8を参照して、以下の式で表すことができる。   Here, an angle φ formed by a straight line connecting the optical center P of the camera 12 included in the flying object 1 and the fixed camera Q and the optical axis of the camera 12 included in the flying object 1 is expressed by the following equation with reference to FIG. Can be expressed as

Figure 2016177640
Figure 2016177640

従って、点Qの画像上への投影点uが得られれば、既知のカメラパラメータc及びfを用いて角度φを求めることができる。ここで、カメラ12の光学中心Pの座標は、位置推定部4にて求められる。また、固定カメラQの座標についても、固定カメラの光学中心座標とカメラの位置を近似的に同一であると考えれば、上述のカメラキャリブレーションを実行することにより、式(2)から得られる。従って、直線PQの方向ベクトルと、式(8)より求められる角度φから、図8のカメラ12の光軸とX軸とがなす角θを求めることができる。 Therefore, if the projection point u of the point Q on the image is obtained, the angle φ can be obtained using the known camera parameters c and f. Here, the coordinates of the optical center P of the camera 12 are obtained by the position estimation unit 4. Also, the coordinates of the fixed camera Q can be obtained from the equation (2) by executing the above-described camera calibration, assuming that the optical center coordinates of the fixed camera and the camera position are approximately the same. Therefore, it is possible to determine the direction vector of the straight line PQ, from the angle φ obtained from the equation (8), the optical axis and the X W axis and angle formed θ of the camera 12 in FIG. 8.

以上の手順により、姿勢推定部5は飛行体1の姿勢、すなわち3次元座標系の3軸それぞれについての回転角を推定することができる。なお、固定カメラ2が備える光源22は閃光光源としてもよい。この構成とすると、飛行体1のカメラ12で撮影した画像から固定カメラ2の位置をさらに検出しやすくなる。また、飛行体1のカメラ12が撮影するタイミングと光源22の点灯のタイミングとを同期させるように姿勢推定部5を制御してもよい。   By the above procedure, the posture estimation unit 5 can estimate the posture of the flying object 1, that is, the rotation angle for each of the three axes of the three-dimensional coordinate system. The light source 22 provided in the fixed camera 2 may be a flash light source. With this configuration, it becomes easier to detect the position of the fixed camera 2 from the image captured by the camera 12 of the flying object 1. Further, the posture estimation unit 5 may be controlled so that the timing when the camera 12 of the flying object 1 captures and the lighting timing of the light source 22 are synchronized.

以上の実施の形態に係る映像監視システムによれば、監視エリア101側に設置した固定カメラ2の画像情報から飛行体1の位置を推定し、この位置推定結果と、飛行体1のカメラ12により撮影された撮影画像と、飛行体1の水平面に対する傾き情報とから飛行体1の姿勢を推定することができる。従って、GPSや磁方位センサ等が利用できない屋内環境においても、高精度に飛行体1の位置と姿勢を推定することが可能となる。従って、飛行体1に対する適切な動作を制御することができる。さらに、位置情報を伝達する手段を監視エリア101内に設置する必要がないので、当該手段に対するメンテナンスする必要がなくなる。従って、映像監視システムの運用コストを低減することが可能となる。   According to the video monitoring system according to the above embodiment, the position of the flying object 1 is estimated from the image information of the fixed camera 2 installed on the monitoring area 101 side, and the position estimation result and the camera 12 of the flying object 1 are used. The attitude of the flying object 1 can be estimated from the taken image and the inclination information of the flying object 1 with respect to the horizontal plane. Therefore, it is possible to estimate the position and posture of the flying object 1 with high accuracy even in an indoor environment where GPS, a magnetic bearing sensor, or the like cannot be used. Therefore, it is possible to control an appropriate operation for the flying object 1. Further, since it is not necessary to install a means for transmitting position information in the monitoring area 101, it is not necessary to perform maintenance on the means. Therefore, it is possible to reduce the operating cost of the video surveillance system.

第2の実施の形態.
図9は本発明の第2の実施の形態に係る映像監視システムの構成を示すブロック図である。図9の映像監視システムは、図1の映像監視システムに比較すると、飛行動作制御部6の代わりに飛行動作制御部6Aを備え、監視エリア101に侵入した移動物体を認識する移動物体認識部7をさらに備えたことを特徴とする。
Second embodiment.
FIG. 9 is a block diagram showing a configuration of a video surveillance system according to the second embodiment of the present invention. Compared to the video monitoring system of FIG. 1, the video monitoring system of FIG. 9 includes a flight motion control unit 6A instead of the flight motion control unit 6, and a moving object recognition unit 7 that recognizes a moving object that has entered the monitoring area 101. Is further provided.

移動物体認識部7は、固定カメラ2の撮影画像に基づいて監視エリア101の移動物体を認識する。移動物体認識部7は、パラメータ記憶部3に格納された空間情報に基づいて、認識された移動物体の位置情報を生成して飛行動作制御部6Aに送信する。ここで、移動物体認識部7は、飛行体1のカメラ12で移動物体を撮影した撮影画像に基づいて移動物体を認識するように構成されてもよい。   The moving object recognition unit 7 recognizes the moving object in the monitoring area 101 based on the captured image of the fixed camera 2. The moving object recognizing unit 7 generates position information of the recognized moving object based on the spatial information stored in the parameter storage unit 3 and transmits the position information to the flight motion control unit 6A. Here, the moving object recognition unit 7 may be configured to recognize a moving object based on a captured image obtained by photographing the moving object with the camera 12 of the flying object 1.

移動物体認識部7が監視エリア101の移動物体を検出する手段としては、既存の物体検出手法を用いることができる。既存の物体検出手法として、例えば人物の顔を検出する顔検出アルゴリズムがある。ある一人の人物の顔が複数の固定カメラ2から同時に検出できれば、位置推定部4が飛行体1の3次元空間中の位置を推定する手順と同様に、ワールド座標系における顔の3次元位置を求めることができる。ただし、一般に顔検出アルゴリズムは検出可能な顔の大きさに制限があり、画像上である程度の面積(例えば500画素程度以上)で人物の顔が写っている場合のみに適用することができる。   As a means for the moving object recognition unit 7 to detect a moving object in the monitoring area 101, an existing object detection method can be used. As an existing object detection method, for example, there is a face detection algorithm for detecting a human face. If the face of a single person can be detected simultaneously from a plurality of fixed cameras 2, the position estimation unit 4 determines the three-dimensional position of the face in the world coordinate system in the same manner as the procedure for estimating the position of the flying object 1 in the three-dimensional space. Can be sought. However, the face detection algorithm is generally limited in the size of the face that can be detected, and can be applied only when a human face is captured in a certain area (for example, about 500 pixels or more) on the image.

また、移動物体を検出するための別の方法の例として、視体積交差法がある。これは、対象物の周囲に配置された複数のカメラで対象物を撮影し、その対象物のシルエット形状に基づいて、対象物が存在しうる空間中の範囲を推定する方法である。対象物のシルエット形状は、例えば背景差分アルゴリズムによって抽出できる。   Another example of a method for detecting a moving object is a visual volume intersection method. This is a method of photographing an object with a plurality of cameras arranged around the object, and estimating a range in the space where the object can exist based on the silhouette shape of the object. The silhouette shape of the object can be extracted by, for example, a background difference algorithm.

飛行動作制御部6Aは、図1の飛行動作制御部6に比較すると、さらに移動物体認識部7からの移動物体の位置情報に基づいて、移動物体の位置まで飛行体1を誘導するように制御する飛行制御情報を生成して飛行体1に送信する。   Compared with the flight operation control unit 6 in FIG. 1, the flight operation control unit 6 </ b> A is further controlled to guide the flying object 1 to the position of the moving object based on the position information of the moving object from the moving object recognition unit 7. Flight control information to be generated is transmitted to the aircraft 1.

ここで、移動物体とは、本実施の形態に係る映像監視システムが監視すべき対象、例えば監視エリア101に侵入した人物のことである。監視エリア101に設置された固定カメラ2と移動物体との距離が遠く離れている場合、固定カメラ2の撮影画像から物体が侵入したことは検出されても、その物体の種別までは識別できない。そこで、監視エリア101に侵入した移動物体を固定カメラ2で認識し、その位置へ飛行体1を誘導するように飛行動作を制御することにより、飛行体1が移動物体に近づいてカメラ12で撮影することが可能となる。   Here, the moving object is a target to be monitored by the video monitoring system according to the present embodiment, for example, a person who has entered the monitoring area 101. When the distance between the fixed camera 2 installed in the monitoring area 101 and the moving object is far away, even if it is detected from the captured image of the fixed camera 2 that the object has entered, the type of the object cannot be identified. Therefore, a moving object that has entered the monitoring area 101 is recognized by the fixed camera 2, and the flying object 1 approaches the moving object and is photographed by the camera 12 by controlling the flight operation to guide the flying object 1 to that position. It becomes possible to do.

本実施の形態に係る映像監視システムは、第1の実施の形態に係る映像監視システムに比較すると、さらに移動物体認識部7から送信される移動物体の位置情報に基づき、飛行動作を制御することができる。この構成により、監視エリア101を移動する人物等の物体の位置を把握できるため、飛行体1が移動体の動きに追従しながら移動体の撮影を継続することができる。例えば、飛行体1が備えるカメラ12により侵入人物の顔を撮影できるよう、人物の正面に回り込むような飛行動作を計画し、飛行制御情報を飛行体1へ送信する。   Compared with the video monitoring system according to the first embodiment, the video monitoring system according to the present embodiment further controls the flight operation based on the position information of the moving object transmitted from the moving object recognition unit 7. Can do. With this configuration, since the position of an object such as a person moving in the monitoring area 101 can be grasped, it is possible to continue shooting the moving object while the flying object 1 follows the movement of the moving object. For example, a flight operation that goes around the front of the person is planned so that the camera 12 included in the flying object 1 can capture the face of the invading person, and flight control information is transmitted to the flying object 1.

以上の実施の形態に係る映像監視システムによれば、第1の実施の形態に係る映像監視システムに比較すると、さらに監視エリア101に侵入した移動物体の位置を認識して飛行体1をその移動物体の位置まで近づいて撮影することができる。従って、侵入物体に関する詳細な情報を確認(識別)することが可能となる。また、飛行体1が備えるカメラ12の視野から侵入物体が外れた時も、移動物体認識部7が固定カメラ2の撮影画像に基づいて侵入物体の位置を認識できるので、飛行体1が侵入物体の動きに追従するように飛行動作を即座に変更し、カメラでの撮影を継続することが可能となる。   According to the video surveillance system according to the above embodiment, the position of the moving object that has entered the surveillance area 101 is further recognized and the vehicle 1 is moved as compared with the video surveillance system according to the first embodiment. You can get close to the object and take a picture. Therefore, it is possible to confirm (identify) detailed information about the intruding object. In addition, even when the intruding object is out of the field of view of the camera 12 included in the flying object 1, the moving object recognizing unit 7 can recognize the position of the intruding object based on the captured image of the fixed camera 2. It is possible to immediately change the flight operation so as to follow the movement of the camera and continue shooting with the camera.

第3の実施の形態.
本実施の形態に係る映像監視システムは、上述した実施の形態に比較すると、飛行動作しないときに飛行体1を滞留させる装置(後述する結合装置8)をさらに備えたことを特徴とする。この構成により、飛行体1が結合装置8に結合している間は、飛行体1のカメラ12は固定カメラ2と同様の動作を行うことが可能となる。
Third embodiment.
The video monitoring system according to the present embodiment is characterized by further including a device (a coupling device 8 to be described later) for retaining the flying object 1 when the flight operation is not performed, as compared with the above-described embodiment. With this configuration, the camera 12 of the flying object 1 can perform the same operation as that of the fixed camera 2 while the flying object 1 is coupled to the coupling device 8.

図10は本発明の第3の実施の形態に係る映像監視システムの構成を示すブロック図である。図10の映像監視システムは、図1の映像監視システムに比較すると、位置推定部4の代わりに位置推定部4Aを備え、姿勢推定部5の代わりに姿勢推定部5Aを備え、結合装置8をさらに備えたことを特徴とする。ここで、結合装置8は飛行体1を監視エリア101の天井または壁に滞留させる。   FIG. 10 is a block diagram showing a configuration of a video surveillance system according to the third embodiment of the present invention. Compared with the video monitoring system of FIG. 1, the video monitoring system of FIG. 10 includes a position estimation unit 4A instead of the position estimation unit 4, a posture estimation unit 5A instead of the posture estimation unit 5, and a coupling device 8. It is further provided with a feature. Here, the coupling device 8 causes the flying object 1 to stay on the ceiling or wall of the monitoring area 101.

図10において、結合装置1は、飛行体1と例えば飛行体1の飛行制御により結合すると、結合装置8と飛行体1とが結合している状態であることを示す情報を生成して位置推定部4及び姿勢推定部5にそれぞれ送信する。   In FIG. 10, when the coupling device 1 is coupled to the flying object 1 by, for example, flight control of the flying object 1, information indicating that the coupling device 8 and the flying object 1 are coupled is generated to estimate the position. To the unit 4 and the posture estimation unit 5, respectively.

図10において、結合装置8は監視エリア101の天井または壁等に1台以上固定して取り付けられ、飛行体1との結合に必要な結合機構を有する。結合機構として、例えばアーム、ジョイント機構等を用いる。また、磁力により結合装置8と飛行体1とを吸着させ、飛行体1を支持してもよい。さらに、飛行体1の構成を内蔵電池駆動とする場合には、結合装置8は、飛行体1が結合装置8と結合している間に充電可能なように接続端子(接触端子)が備えられ、当該接続端子を介して給電できる給電機能もしくは非接触給電機能を備えてもよい。   In FIG. 10, one or more coupling devices 8 are fixedly attached to the ceiling or wall of the monitoring area 101 and have a coupling mechanism necessary for coupling to the flying object 1. For example, an arm or a joint mechanism is used as the coupling mechanism. Further, the coupling device 8 and the flying object 1 may be attracted by the magnetic force to support the flying object 1. Further, when the configuration of the flying object 1 is driven by a built-in battery, the coupling device 8 is provided with a connection terminal (contact terminal) so that it can be charged while the flying object 1 is coupled to the coupling device 8. A power feeding function or a non-contact power feeding function that can feed power via the connection terminal may be provided.

位置推定部4Aは、図1の位置推定部4に比較すると、結合装置8から飛行体1が結合している状態であることを示す情報を受信すると、結合装置8と飛行体1とが結合している時の位置情報を出力するようにしてもよい。ここで、位置情報は、結合装置8の取付位置であり位置情報としてパラメータ記憶部3に格納される。   When the position estimation unit 4A receives information indicating that the flying object 1 is coupled from the coupling device 8 as compared with the position estimation unit 4 of FIG. 1, the coupling device 8 and the flying object 1 are coupled. The position information at the time of performing may be output. Here, the position information is an attachment position of the coupling device 8 and is stored in the parameter storage unit 3 as position information.

姿勢推定部5Aは、図1の姿勢推定部5に比較すると、結合装置8から飛行体1が結合している状態であることを示す情報を受信すると、結合装置8と飛行体1とが結合している時の姿勢情報を出力するようにしてもよい。ここで、姿勢情報は、結合装置8の取付位置に基づいて算出される姿勢情報であり事前に計算されてパラメータ記憶部3に格納される。   When the posture estimation unit 5A receives information indicating that the flying object 1 is coupled from the coupling device 8 as compared to the posture estimation unit 5 of FIG. 1, the coupling device 8 and the flying vehicle 1 are coupled. You may make it output the attitude | position information at the time of doing. Here, the posture information is posture information calculated based on the attachment position of the coupling device 8 and is calculated in advance and stored in the parameter storage unit 3.

以上のように構成された第3の実施の形態に係る映像監視システムの動作について以下に説明する。なお、第1の実施の形態に係る映像監視システムとの相違点のみ説明する。   The operation of the video surveillance system according to the third embodiment configured as described above will be described below. Only differences from the video monitoring system according to the first embodiment will be described.

飛行体1が監視エリア101を飛行する際は、飛行動作制御部6から飛行体1へ飛行開始の制御情報を送信する。そして、飛行体1は結合装置8と例えば飛行体1の飛行制御により分離し、監視エリア101の飛行を開始する。飛行を停止する時もしくは飛行体1の内蔵電池が枯渇した時は、飛行動作制御部6は飛行体1に対して結合装置8の位置へ向かって飛行するような制御情報を出力し、結合装置8に接近して結合する。   When the flying object 1 flies over the monitoring area 101, the flight operation control unit 6 transmits flight start control information to the flying object 1. Then, the flying object 1 is separated from the coupling device 8 by the flight control of the flying object 1, for example, and starts flying in the monitoring area 101. When the flight is stopped or when the built-in battery of the flying object 1 is depleted, the flight operation control unit 6 outputs control information that causes the flying object 1 to fly toward the position of the coupling device 8. Close to 8 and join.

なお、飛行体1と結合装置8との例えば飛行体1の飛行制御による結合により飛行体1の位置と姿勢のいずれか一方もしくは両方が一意的に決定されるように、結合装置8の結合機構が構成されてもよい。この構成により、結合装置8と結合している飛行体1の位置及び姿勢の一方もしくは両方を事前に求めておくことが可能となる。このとき、位置推定部4Aは、飛行体1が結合している状態であることを示す情報を結合装置8から受信したとき、固定カメラ2の撮影画像に基づいた飛行体1の位置推定結果を出力する代わりに、事前に求めておいた結合装置8と飛行体1とが結合している時の位置情報を出力するようにしてもよい。同様に、姿勢推定部5Aは、飛行体1が結合している状態であることを示す情報を結合装置8から受信したとき、飛行体1から送信される画像情報と傾き情報に基づく姿勢推定結果を出力する代わりに、事前に求めて置いた結合装置8と飛行体1とが結合している時の姿勢情報を出力するようにしてもよい。   Note that the coupling mechanism of the coupling device 8 is such that one or both of the position and the attitude of the flying object 1 are uniquely determined by coupling the flying object 1 and the coupling device 8 by, for example, flight control of the flying object 1. May be configured. With this configuration, it is possible to obtain in advance one or both of the position and posture of the flying object 1 coupled to the coupling device 8. At this time, when the position estimation unit 4A receives information indicating that the flying object 1 is in the combined state from the combining device 8, the position estimating unit 4A obtains the position estimation result of the flying object 1 based on the captured image of the fixed camera 2. Instead of outputting, position information when the combining device 8 and the flying object 1 that have been obtained in advance may be output may be output. Similarly, the posture estimation unit 5A receives a posture estimation result based on image information and tilt information transmitted from the flying object 1 when receiving information from the combining device 8 indicating that the flying object 1 is in a combined state. Instead of outputting the attitude information, the attitude information when the coupling device 8 obtained in advance and the aircraft 1 are coupled may be output.

さらに、飛行体1が結合装置8と結合している間、飛行体1が備えるカメラ12に対し、固定カメラ2と同様の機能を備えることが可能となる。この場合には、飛行体1が結合装置8と結合している状態で、飛行体1が備えるカメラ12に対して事前にキャリブレーションを行い、取得されたパラメータをパラメータ記憶部3に記憶する。従って、飛行体1が結合装置8と結合している間は、飛行体1が備えるカメラ12を固定カメラ2と同様に利用することができる。   Furthermore, while the flying object 1 is coupled to the coupling device 8, the camera 12 included in the flying object 1 can have the same function as the fixed camera 2. In this case, calibration is performed in advance on the camera 12 included in the flying object 1 in a state where the flying object 1 is coupled to the coupling device 8, and the acquired parameters are stored in the parameter storage unit 3. Therefore, while the flying vehicle 1 is coupled to the coupling device 8, the camera 12 included in the flying vehicle 1 can be used in the same manner as the fixed camera 2.

以上の実施の形態に係る映像監視システムによれば、第1の実施の形態に係る映像監視システムに比較すると、さらに飛行動作を行わない間は結合装置8と結合させることにより、内蔵電池に充電しながら滞留することが可能となる。また、飛行体1が結合装置8と結合している間は固定カメラ2と同一の機能を備えることにより、飛行体1の内蔵電池の残量とあらかじめ計画された飛行動作等の条件に応じた、柔軟な飛行動作の決定が可能となる。   According to the video surveillance system according to the above embodiment, as compared with the video surveillance system according to the first embodiment, the built-in battery is charged by being coupled with the coupling device 8 while not performing the flight operation. It is possible to stay while. Further, while the flying object 1 is coupled to the coupling device 8, the same function as that of the fixed camera 2 is provided, so that the remaining amount of the built-in battery of the flying object 1 and the conditions such as the flight operation planned in advance are met. This makes it possible to determine flexible flight behavior.

さらに、映像監視システムにおいて、複数の飛行体1を備え、結合装置8との結合による充電と飛行動作とを、複数の飛行体1で交互に行うように構成されてもよい。この構成により、内蔵電池の残量が少ない飛行体1が結合装置8と結合して充電している間、別の飛行体1が監視エリア101を飛行すること(協調動作)が可能となる。従って、1つの飛行体1の電池がなくなっても、別の飛行体1を飛行動作させることにより、連続的に監視エリア101を監視することが可能となる。   Further, the video surveillance system may include a plurality of flying bodies 1 and may be configured to alternately perform charging and flying operation by coupling with the coupling device 8 by the plurality of flying bodies 1. With this configuration, it becomes possible for another aircraft 1 to fly over the monitoring area 101 (cooperative operation) while the aircraft 1 with a small remaining amount of the built-in battery is coupled to the coupling device 8 and charging. Therefore, even if the battery of one flying object 1 runs out, it becomes possible to continuously monitor the monitoring area 101 by operating another flying object 1 in flight.

変形例1.
以上説明した各実施の形態を適宜組み合わせた構成を採ることも可能である。その場合には、組み合わせた実施の形態が奏する各効果が組み合わされた効果を得ることができる。例えば、本発明の第2の実施の形態と第3の実施の形態を組み合わせ、移動物体認識部7と結合装置8の両方を備える映像監視システムを構成する。すると、飛行体1は、平時は結合装置8と結合しながら内蔵電池の充電を行い、移動物体認識部7が監視エリア101に移動物体(侵入人物)を認識した時、飛行体1は結合装置8から分離し、移動物体の位置へと飛行させるように飛行動作を決定することが可能となる。
Modification 1
It is also possible to adopt a configuration in which the embodiments described above are appropriately combined. In that case, it is possible to obtain an effect obtained by combining the effects produced by the combined embodiment. For example, a video surveillance system including both the moving object recognition unit 7 and the coupling device 8 is configured by combining the second embodiment and the third embodiment of the present invention. Then, the flying object 1 charges the built-in battery while being coupled with the coupling device 8 during normal times, and when the moving object recognition unit 7 recognizes the moving object (intruder) in the monitoring area 101, the flying object 1 is coupled to the coupling device. It is possible to determine the flight operation so as to separate from 8 and fly to the position of the moving object.

以上詳述したように、本発明に係る映像監視システムによれば、監視エリアが屋内空間であっても、飛行体の位置と姿勢を高精度に推定して適切な飛行体の飛行制御が可能となる。   As described above in detail, according to the video surveillance system according to the present invention, even if the surveillance area is an indoor space, it is possible to accurately control the flight of the flying object by accurately estimating the position and posture of the flying object. It becomes.

1−1 飛行体、2 固定カメラ、3 パラメータ記憶部、4,4A 位置推定部、5,5A 姿勢推定部、6,6A 飛行動作制御部、7 移動物体認識部、8 結合装置。   1-1 flying object, 2 fixed camera, 3 parameter storage unit, 4, 4A position estimation unit, 5, 5A attitude estimation unit, 6, 6A flight operation control unit, 7 moving object recognition unit, 8 coupling device.

Claims (12)

カメラと傾きセンサを搭載した飛行体と、
監視エリアに設置する固定カメラと、
上記監視エリアの空間情報を格納したパラメータ記憶手段と、
上記固定カメラにより撮影された画像情報と、上記空間情報とに基づいて飛行体の位置情報を推定する位置推定手段と、
上記飛行体に搭載されたカメラの撮影画像と、上記傾きセンサにより検出された傾き情報と、上記飛行体の位置情報とに基づいて、上記飛行体の姿勢情報を推定する姿勢推定手段と、
上記飛行体の位置情報と、上記飛行体の姿勢情報と、上記空間情報とに基づいて、上記飛行体の飛行動作を制御する飛行動作制御手段とを備えた映像監視システム。
An aircraft equipped with a camera and tilt sensor;
A fixed camera installed in the surveillance area;
Parameter storage means storing spatial information of the monitoring area;
Position estimation means for estimating position information of the flying object based on image information captured by the fixed camera and the spatial information;
Attitude estimation means for estimating attitude information of the flying object based on a captured image of a camera mounted on the flying object, inclination information detected by the inclination sensor, and position information of the flying object;
A video surveillance system comprising flight operation control means for controlling the flight operation of the flying object based on the position information of the flying object, the attitude information of the flying object, and the spatial information.
上記飛行動作制御手段は、上記飛行体の位置情報及び上記飛行体の姿勢情報に基づいて実際の飛行経路を算出し、当該算出された飛行経路と、上記飛行機の飛行経路情報とを比較して、当該比較結果に基づいて、上記飛行体の飛行動作を制御する請求項1記載の映像監視システム。   The flight operation control means calculates an actual flight path based on the position information of the flying object and the attitude information of the flying object, and compares the calculated flight path with the flight path information of the airplane. The video surveillance system according to claim 1, wherein the flight operation of the flying object is controlled based on the comparison result. 上記固定カメラにより撮影された画像情報に基づいて、上記監視エリア内を移動する物体を認識し、当該認識された移動物体の位置情報を推定する移動物体認識手段をさらに備えた請求項1又は2記載の映像監視システム。   The moving object recognition means which recognizes the object which moves in the said monitoring area based on the image information image | photographed with the said fixed camera, and estimates the positional information on the recognized moving object is provided. The video surveillance system described. 上記飛行動作制御手段は、上記移動物体認識手段により推定される移動物体の位置情報に基づいて、上記飛行体の飛行動作を制御する請求項3記載の映像監視システム。   4. The video surveillance system according to claim 3, wherein the flight motion control means controls the flight motion of the flying object based on the position information of the moving object estimated by the moving object recognition means. 上記飛行体を結合させる結合装置をさらに備えた請求項1〜4のうちのいずれか1つに記載の映像監視システム。   The video surveillance system according to claim 1, further comprising a coupling device that couples the flying object. 上記結合装置は、上記飛行体と結合する結合機構を備えた請求項5記載の映像監視システム。   The video surveillance system according to claim 5, wherein the coupling device includes a coupling mechanism coupled to the flying object. 上記飛行体は、第1光源を備えた請求項1〜6のうちのいずれか1つに記載の映像監視システム。 The video surveillance system according to claim 1, wherein the flying object includes a first light source. 上記第1光源は、閃光光源である請求項7記載の映像監視システム。 The video surveillance system according to claim 7, wherein the first light source is a flash light source. 上記第1光源は、上記固定カメラが撮像するタイミングに同期して発光する請求項7又は8に記載の映像監視システム。 The video surveillance system according to claim 7 or 8, wherein the first light source emits light in synchronization with a timing at which the fixed camera captures an image. 上記固定カメラは、第2光源を備えた請求項1〜9のうちのいずれか1つに記載の映像監視システム。 The video surveillance system according to any one of claims 1 to 9, wherein the fixed camera includes a second light source. 上記第2光源は閃光光源である請求項10記載の映像監視システム。 The video surveillance system according to claim 10, wherein the second light source is a flash light source. 上記第2光源は、上記飛行体が備えるカメラが撮像するタイミングに同期して発光する請求項10又は11に記載の映像監視システム。 The video surveillance system according to claim 10 or 11, wherein the second light source emits light in synchronization with a timing at which a camera included in the flying object captures an image.
JP2015058387A 2015-03-20 2015-03-20 Video monitoring system Pending JP2016177640A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015058387A JP2016177640A (en) 2015-03-20 2015-03-20 Video monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015058387A JP2016177640A (en) 2015-03-20 2015-03-20 Video monitoring system

Publications (1)

Publication Number Publication Date
JP2016177640A true JP2016177640A (en) 2016-10-06

Family

ID=57070333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015058387A Pending JP2016177640A (en) 2015-03-20 2015-03-20 Video monitoring system

Country Status (1)

Country Link
JP (1) JP2016177640A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077760A (en) * 2016-11-11 2018-05-17 株式会社富士通エフサス Monitoring system, monitoring method, and monitoring program
JP6343366B1 (en) * 2017-04-21 2018-06-13 株式会社Aerial Lab Industries Information transmission method at the time of disaster
WO2019172335A1 (en) * 2018-03-08 2019-09-12 日本電信電話株式会社 Flight control device, method, program, and storage medium
JP2020013242A (en) * 2018-07-17 2020-01-23 富士ゼロックス株式会社 Robot control system, robot device and program
JP2020115140A (en) * 2020-03-17 2020-07-30 株式会社Subaru Position measuring system of moving body
JP2020144591A (en) * 2019-03-06 2020-09-10 パナソニック株式会社 Moving object body device and moving body managing method
JP2020528999A (en) * 2017-07-27 2020-10-01 ウエスチングハウス・エレクトリック・カンパニー・エルエルシー A method of locating a remotely controlled vehicle in a workspace and a remote inspection system using such a method
WO2021090352A1 (en) * 2019-11-05 2021-05-14 楽天株式会社 Control device and control method for controlling flight of aircraft
JP2021109618A (en) * 2020-01-15 2021-08-02 住友重機械工業株式会社 Flying body, three-dimensional position and attitude measurement device, and three-dimensional position and attitude measurement method
US11086020B2 (en) 2017-11-10 2021-08-10 Subaru Corporation Position measurement system for movable body
JP2021157494A (en) * 2020-03-27 2021-10-07 株式会社エヌ・ティ・ティ・データ Autonomous flying object and flight control method
WO2022054655A1 (en) * 2020-09-14 2022-03-17 ソニーグループ株式会社 Mobile device, image capturing system, and mobile device control method
JP2022548009A (en) * 2019-09-12 2022-11-16 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション object movement system

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077760A (en) * 2016-11-11 2018-05-17 株式会社富士通エフサス Monitoring system, monitoring method, and monitoring program
JP6343366B1 (en) * 2017-04-21 2018-06-13 株式会社Aerial Lab Industries Information transmission method at the time of disaster
JP2018182703A (en) * 2017-04-21 2018-11-15 株式会社Aerial Lab Industries Information transmission method during disaster
JP2020528999A (en) * 2017-07-27 2020-10-01 ウエスチングハウス・エレクトリック・カンパニー・エルエルシー A method of locating a remotely controlled vehicle in a workspace and a remote inspection system using such a method
US11460304B2 (en) 2017-07-27 2022-10-04 Westinghouse Electric Company Llc Method of locating a remotely operated vehicle within a workspace and remote inspection system employing such method
JP7346308B2 (en) 2017-07-27 2023-09-19 ウエスチングハウス・エレクトリック・カンパニー・エルエルシー Method for locating a remotely operated vehicle within a workspace and remote inspection system using such method
US11086020B2 (en) 2017-11-10 2021-08-10 Subaru Corporation Position measurement system for movable body
WO2019172335A1 (en) * 2018-03-08 2019-09-12 日本電信電話株式会社 Flight control device, method, program, and storage medium
CN110722548A (en) * 2018-07-17 2020-01-24 富士施乐株式会社 Robot control system, robot device, and storage medium
JP2020013242A (en) * 2018-07-17 2020-01-23 富士ゼロックス株式会社 Robot control system, robot device and program
JP2020144591A (en) * 2019-03-06 2020-09-10 パナソニック株式会社 Moving object body device and moving body managing method
JP7281306B2 (en) 2019-03-06 2023-05-25 パナソニックホールディングス株式会社 Mobile object management device and mobile object management method
JP2022548009A (en) * 2019-09-12 2022-11-16 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション object movement system
CN113079698A (en) * 2019-11-05 2021-07-06 乐天株式会社 Control device and control method for controlling flight of aircraft
JP6934116B1 (en) * 2019-11-05 2021-09-08 楽天グループ株式会社 Control device and control method for controlling the flight of an aircraft
WO2021090352A1 (en) * 2019-11-05 2021-05-14 楽天株式会社 Control device and control method for controlling flight of aircraft
JP2021109618A (en) * 2020-01-15 2021-08-02 住友重機械工業株式会社 Flying body, three-dimensional position and attitude measurement device, and three-dimensional position and attitude measurement method
JP7440272B2 (en) 2020-01-15 2024-02-28 住友重機械工業株式会社 Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method
JP2020115140A (en) * 2020-03-17 2020-07-30 株式会社Subaru Position measuring system of moving body
JP2021157494A (en) * 2020-03-27 2021-10-07 株式会社エヌ・ティ・ティ・データ Autonomous flying object and flight control method
JP7421396B2 (en) 2020-03-27 2024-01-24 株式会社Nttデータ Autonomous flying vehicle and flight control method
WO2022054655A1 (en) * 2020-09-14 2022-03-17 ソニーグループ株式会社 Mobile device, image capturing system, and mobile device control method

Similar Documents

Publication Publication Date Title
JP2016177640A (en) Video monitoring system
JP5618840B2 (en) Aircraft flight control system
WO2018195955A1 (en) Aircraft-based facility detection method and control device
JP3905116B2 (en) Detection area adjustment device
JP5543696B2 (en) Target navigation for vehicles using blinking optical beacons
JP5775632B2 (en) Aircraft flight control system
JP2019125354A (en) Information processor, system, method, and program
CN104217439B (en) Indoor visual positioning system and method
CN106681510B (en) Pose recognition device, virtual reality display device and virtual reality system
US10481679B2 (en) Method and system for optical-inertial tracking of a moving object
JP2006086591A (en) Mobile body tracing system, photographing apparatus, and photographing method
CN115065816B (en) Real geospatial scene real-time construction method and real-time construction device
CN109773783B (en) Patrol intelligent robot based on space point cloud identification and police system thereof
WO2019051832A1 (en) Movable object control method, device and system
CN108259827B (en) Method, device, AR equipment and system for realizing security
JP2022089269A (en) Calibration device and calibration method
KR20120099952A (en) Sensor system, and system and method for preparing environment map using the same
JP2006304342A (en) Detection range adjustment device
JP2017201757A (en) Image acquisition system, image acquisition method, and image processing method
JP2011095112A (en) Three-dimensional position measuring apparatus, mapping system of flying object, and computer program
WO2021250914A1 (en) Information processing device, movement device, information processing system, method, and program
CN115540849A (en) Laser vision and inertial navigation fusion positioning and mapping device and method for aerial work platform
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
CN110445982B (en) Tracking shooting method based on six-degree-of-freedom equipment
JP2016118994A (en) Monitoring system