JP2014146287A - Photographing system - Google Patents

Photographing system Download PDF

Info

Publication number
JP2014146287A
JP2014146287A JP2013016027A JP2013016027A JP2014146287A JP 2014146287 A JP2014146287 A JP 2014146287A JP 2013016027 A JP2013016027 A JP 2013016027A JP 2013016027 A JP2013016027 A JP 2013016027A JP 2014146287 A JP2014146287 A JP 2014146287A
Authority
JP
Japan
Prior art keywords
image
flying robot
illumination
flying
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013016027A
Other languages
Japanese (ja)
Other versions
JP6195449B2 (en
Inventor
Yoshitaka Hamaishi
佳孝 濱石
Yasuyuki Tauchi
康之 田内
Masato Yamano
正人 山納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013016027A priority Critical patent/JP6195449B2/en
Publication of JP2014146287A publication Critical patent/JP2014146287A/en
Application granted granted Critical
Publication of JP6195449B2 publication Critical patent/JP6195449B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To attain a photographing system that allows a flying robot to quickly photograph a characteristic of a vehicle trespassing on a surveillance area.SOLUTION: The photographing system is composed of a flying robot having a photographing function and capable of flying and moving over a surveillance area and a control section causing the flying robot to photograph a trespassing object present in the surveillance area. The flying robot has: illumination means that has a prescribed irradiation intensity characteristic or more in a plurality of wavelength bands and can control a light-on and light-off; and photographing means that acquires a light-on image having the trespassing object photographed when the illumination means is lighted on and a light-off image having the trespassing object photographed when the illumination means is lighted off. The control section has: color detection means that detects color information on the trespassing object by comparison of the light-on image with the light-off image; and output means that outputs at least the color information.

Description

本発明は、監視領域に進入した自動車等の進入物体を飛行ロボットから撮影する撮影システムに関し、特に、自動車の車体色を特定する情報を適切に撮影する撮影システムに関する。   The present invention relates to an imaging system that images an approaching object such as an automobile that has entered a monitoring area from a flying robot, and more particularly, to an imaging system that appropriately captures information that identifies the vehicle body color of the automobile.

従来、建物とその周辺の監視領域に各種センサを設置し、センサが異常を検出すると、異常検知した場所に移動ロボットが移動して監視領域を撮影する監視システムが提案されている。
例えば、特許文献1には、火災を検出するセンサや侵入者を検出するセンサからの信号に基づいて、地上走行型の移動ロボットが異常発生の場所に移動して異常状況を撮影する監視システムが開示されている。このような監視システムは、駐車場が設けられているような工場やショッピングモールなど広範囲な監視領域を監視することがある。特許文献1のシステムでは、移動ロボットは、センサが異常を検知した場所まで走行して、その異常発生場所の撮影や監視センタへの通報などを実行している。
2. Description of the Related Art Conventionally, there has been proposed a monitoring system in which various sensors are installed in a building and its surrounding monitoring area, and when the sensor detects an abnormality, the mobile robot moves to the place where the abnormality is detected and images the monitoring area.
For example, Patent Document 1 discloses a monitoring system in which a ground-traveling mobile robot moves to a place where an abnormality occurs and images an abnormal situation based on signals from a sensor that detects a fire or a sensor that detects an intruder. It is disclosed. Such a monitoring system may monitor a wide monitoring area such as a factory or a shopping mall where a parking lot is provided. In the system of Patent Document 1, the mobile robot travels to a place where the sensor detects an abnormality, and performs imaging of the place where the abnormality has occurred, notification to the monitoring center, and the like.

特開2009−181270号公報JP 2009-181270 A

ところで、工場等の建物に侵入して工場内の物品を盗むような賊は、金庫等の運び出しや逃走を容易にするために自動車を使用することが多い。つまり、工場等の駐車場に自動車を駐車し、その後に工場内に侵入を試みることが多い。監視システムにとって、賊を特定するためには、自動車に関連する情報は有用であり、特に自動車の車体色の情報は、検問や指名手配を行った際に不審車両の特定に活用できるなど、その後の捜査にとって非常に有用な情報となる。 By the way, bandits that infiltrate buildings such as factories and steal goods in factories often use automobiles to facilitate carrying out and escape of safes. That is, it is often the case that a car is parked in a parking lot of a factory or the like and then invades the factory. For monitoring systems, information related to automobiles is useful for identifying bandits, and in particular, information on the body color of automobiles can be used to identify suspicious vehicles when conducting inspections or nominations. It will be very useful information for the investigation.

従来の監視システムでは、例えば駐車場のゲートにセンサが設置されている場合、ゲートで自動車を検出し、移動ロボットがそのセンサの設置場所であるゲートに到着およびその途中を撮影して得られた画像を処理し、自動車の車体色を判別して、その情報をセンタに送信することが可能である。この際、監視システムは、自動車を特定するのに有用な情報を得るように撮影するのが好ましい。 In the conventional monitoring system, for example, when a sensor is installed at the gate of the parking lot, the vehicle is detected by the gate, and the mobile robot arrives at the gate where the sensor is installed and images the middle of it. It is possible to process the image, determine the body color of the car, and send the information to the center. At this time, it is preferable that the monitoring system captures information so as to obtain information useful for identifying the automobile.

しかしながら、自動車の駐車方法は、賊の性格や駐車場の状況などによって、予め予想できるものではない。このため、自動車の車体色が分かるように、移動ロボットが自動車を撮影するのが困難になる場合がある。   However, the car parking method cannot be predicted in advance depending on the character of the bandits or the parking conditions. For this reason, it may be difficult for the mobile robot to photograph the car so that the body color of the car can be recognized.

例えば、カラーの可視光カメラを用いて自動車を撮影し、車体色を判別しようとしても、昼間に得られた画像と夕方に得られた画像とでは、太陽光の影響で色合いが変化し、自動車が白色であっても夕方に撮影すると橙色と判別される可能性がある。さらには夜間であっても、駐車場に設置されている照明装置や、近隣の商業施設の外壁に設置された電飾広告装置からの光成分によっては、人の目視による色と異なる印象の色合いになる可能性があるという課題があった。   For example, even if you try to shoot a car using a color visible light camera and try to determine the color of the car body, the color of the image obtained in the daytime and the image obtained in the evening changes due to the influence of sunlight. Even if is white, it may be determined to be orange when taken in the evening. Even at night, depending on the light components from lighting equipment installed in parking lots and illuminated advertising equipment installed on the outer wall of a nearby commercial facility, the color of the impression may differ from the color visually seen by humans. There was a problem that it might become.

さらには、移動ロボットが車体色を判別するための専用の照明装置も備えており、その照明装置を点灯した状態での画像を取得して車体色の判別を行おうとしても、移動ロボットが自動車の車体の平らに近い面に正対するよう位置することができるとは限らない。車体を斜めに見込む位置で撮影すると、専用の照明装置を備えたにもかかわらず、既に述べた自動車の周囲の光成分が映り込み、その影響が無視できず、正確な色判定ができないという課題があった。 Furthermore, the mobile robot is also equipped with a dedicated lighting device for discriminating the color of the vehicle body. Even if an attempt is made to determine the color of the vehicle body by acquiring an image with the lighting device turned on, the mobile robot is It is not always possible to be positioned so as to face the nearly flat surface of the vehicle body. When shooting at a position where the car body is viewed diagonally, the light component around the car is reflected even though it is equipped with a dedicated lighting device, and the influence cannot be ignored and accurate color determination cannot be performed. was there.

そこで、本発明は、飛行ロボットが、監視領域に進入した自動車の特徴の一つである車体色を判別可能に撮影できる撮影システムの実現を目的とする。 Accordingly, an object of the present invention is to realize an imaging system in which a flying robot can image a vehicle body color, which is one of the characteristics of an automobile that has entered a monitoring area, in a distinguishable manner.

本発明は、かかる目的を達成するために、撮影機能を有し監視領域を飛行移動できる飛行ロボットと、飛行ロボットに監視領域に存在する進入物体を撮影させる制御部から構成される撮影システムであって、飛行ロボットは、複数の波長帯域において所定以上の照射強度特性を有し点灯と消灯を制御可能な照明手段と、照明手段の点灯時に進入物体を撮影した点灯時画像および照明手段の消灯時に進入物体を撮影した消灯時画像を取得する撮影手段と、を備え、制御部は、点灯画像と消灯画像との比較により進入物体の色彩情報を検出する色彩検出手段と、少なくとも色彩情報を出力する出力手段と、を有することを特徴とした撮影システムを提供する。 In order to achieve the above object, the present invention is an imaging system including a flying robot having an imaging function and capable of flying in a monitoring area, and a control unit that causes the flying robot to image an approaching object existing in the monitoring area. The flying robot has an illumination characteristic that has an irradiation intensity characteristic that is greater than or equal to a predetermined value in a plurality of wavelength bands, can be controlled to be turned on and off, an on-time image that captures an entering object when the lighting unit is turned on, and an illumination unit that is turned off. An imaging unit that captures an image of the entering object when it is extinguished, and the control unit outputs at least the color information, and a color detecting unit that detects the color information of the entering object by comparing the lighting image and the extinguishing image. And an output means.

これにより、本発明は、照明の点灯時と消灯時にそれぞれ取得した画像を比較することにより、環境光の影響を排除して、進入物体の色を精度良く判定することができる。 Accordingly, the present invention can accurately determine the color of the approaching object by eliminating the influence of the ambient light by comparing the images acquired when the illumination is turned on and off.

また、飛行ロボットは、さらに、照明手段が所定以上の照射強度特性を有する波長帯域に対応した帯域透過フィルタを複数有し、色彩検出手段は、撮影手段が、同一の帯域透過フィルタを介して取得した点灯時画像および消灯時画像を比較して色彩情報を検出することが好適である。 The flying robot further includes a plurality of band transmission filters corresponding to the wavelength bands in which the illumination unit has an irradiation intensity characteristic equal to or higher than a predetermined value, and the color detection unit is acquired by the imaging unit via the same band transmission filter. It is preferable to detect the color information by comparing the lighted image and the lighted image.

これにより、照明の点灯時と消灯時にそれぞれ取得する画像について、撮影手段に入射される光の波長成分を既知のものに制御することが可能となり、どの波長成分について強い反射光が得られたかがわかるため、撮像手段がモノクロタイプであっても色判定ができる。 This makes it possible to control the wavelength components of the light incident on the photographing means to known ones for the images acquired when the illumination is turned on and off, and for which wavelength components strong reflected light is obtained. Therefore, color determination can be performed even if the imaging means is a monochrome type.

また、照明手段は、互いに異なる波長の光を照射する複数の発光ダイオードとするのが好適である。 Further, it is preferable that the illumination unit is a plurality of light emitting diodes that irradiate light having different wavelengths.

これにより、可視光領域でほぼ均一な照射特性を持つ理想的な白色光源が入手できなくても、消費電力と発熱量の点で有利な複数の発光ダイオード(LED)を用いることで色判定が可能となる。 As a result, even if an ideal white light source having almost uniform irradiation characteristics in the visible light region is not available, color determination can be performed by using a plurality of light emitting diodes (LEDs) advantageous in terms of power consumption and heat generation. It becomes possible.

また、撮影システムは、さらに、監視領域の監視空間マップにおける物体位置を計測する物体センサを有し、制御部は、さらに、監視領域を表す監視空間マップを記憶する記憶部と、物体センサが計測した物体位置の変化から進入物体を検出する物体センサ信号解析手段と、進入物体の一部と正対する撮影位置に飛行ロボットを飛行させる飛行制御手段とを有し、色彩検出手段は、飛行ロボットが撮影位置に飛行した時に取得された点灯時画像と消灯時画像とを用いて色彩情報を検出することが好適である。 The imaging system further includes an object sensor that measures the object position in the monitoring space map of the monitoring area, the control unit further stores a monitoring space map that represents the monitoring area, and the object sensor measures An object sensor signal analyzing means for detecting an approaching object from the change in the object position, and a flight control means for causing the flying robot to fly to a shooting position facing a part of the approaching object. It is preferable to detect color information using the on-time image and the off-time image acquired when flying to the imaging position.

これにより、飛行ロボットを進入物体の一部と正対する位置に飛行させてから撮影することで自動車の周囲の光成分の映り込みを避け、照明から照射した光を色判定に十分な強度にて反射光としてとらえることが可能となり、色判定の精度が向上する。 By taking a picture after flying the flying robot to a position facing the part of the approaching object, it avoids the reflection of light components around the car, and the light emitted from the illumination has sufficient intensity for color determination. It can be captured as reflected light, and the accuracy of color determination is improved.

これにより本発明は、環境光の影響を受けやすい環境においても、監視領域に進入した自動車の特徴の一つである車体色を判別可能に撮影できる。   As a result, the present invention can photograph the vehicle body color, which is one of the characteristics of the automobile that has entered the monitoring area, even in an environment that is susceptible to ambient light.

飛行ロボットの飛行イメージを説明する図Illustration explaining the flying image of a flying robot 飛行ロボットの機能ブロック図Functional block diagram of a flying robot 監視システムの全体構成図Overall configuration diagram of the monitoring system 警備装置の機能ブロック図Functional block diagram of security equipment ロボ制御モジュールの機能ブロック図Functional block diagram of the robot control module 飛行ロボットの撮影条件を示す図Diagram showing shooting conditions for flying robot 車体色パラメータを示す図Diagram showing vehicle color parameters レーザセンサの検知エリアを示す図Diagram showing the detection area of the laser sensor 自動車検出時の撮影と車体色判別フローShooting and car body color discrimination flow when detecting a car 第2の実施の形態における飛行ロボットの機能ブロック図Functional block diagram of a flying robot in the second embodiment 第2の実施の形態における撮像の手段の構成を示す図The figure which shows the structure of the imaging means in 2nd Embodiment. 第2の実施の形態における自動車検出時の撮影と車体色判別フローShooting and body color discrimination flow at the time of automobile detection in the second embodiment 第2の実施の形態における記憶部の車体色パラメータを示す図The figure which shows the vehicle body color parameter of the memory | storage part in 2nd Embodiment

以下、本発明にかかる撮影システムを監視システムに適用した第1の実施の形態について説明する。   Hereinafter, a first embodiment in which an imaging system according to the present invention is applied to a monitoring system will be described.

図3は、監視システム1の全体構成を模式に示した図である。監視システム1は、監視領域Eに設置される警備装置2、飛行ロボット3、レーザセンサ4、建物内センサ5と、ネットワークを介して接続される監視センタ内に設置されたセンタ装置6から構成されている。センタ装置6は、警備装置2とIP網にて接続され、警備装置2から飛行ロボット3の撮影した画像や建物内センサ5の検知信号などを受信し、モニタに表示する。なお、監視員は、このモニタを視て監視領域Eの状況を把握し、適切な対応を実行する。また、ネットワークをIP網として説明しているが、一般公衆回線網、携帯電話網など画像の送受信に支障がなければこれに限るものではない。 FIG. 3 is a diagram schematically illustrating the overall configuration of the monitoring system 1. The monitoring system 1 includes a security device 2, a flying robot 3, a laser sensor 4, a building sensor 5 installed in a monitoring area E, and a center device 6 installed in a monitoring center connected via a network. ing. The center device 6 is connected to the security device 2 via an IP network, receives an image taken by the flying robot 3 from the security device 2, a detection signal from the in-building sensor 5, and the like, and displays it on the monitor. The monitor looks at this monitor to grasp the status of the monitoring area E and performs an appropriate response. Although the network is described as an IP network, the network is not limited to this as long as there is no problem in image transmission / reception such as a general public line network or a mobile phone network.

飛行ロボット3は、警備装置2からの無線による飛行制御信号を受信して、所定の目標位置まで撮影しながら飛行し、撮影した画像を警備装置2に送信する。図2は、飛行ロボット3の機能ブロックを示した図である。
飛行ロボット3は、警備装置2との無線通信を行うためのアンテナ31、上昇/下降/方向転換/前進などの飛行するための4つのロータ32、ロータ32に駆動力を提供するモータ等からなるロータ駆動部33、鉛直下方にレーザーを投受光して自機の現在高度を計測する高度センサ34、水平方向かつ周囲にレーザーを投受光して自機の周辺状況を計測する測距センサ35、監視領域Eに進入した自動車をカラー画像にて撮影するカメラ36、自動車の色判定のために点灯し可視光領域において略一様な照射強度を有するLED照明や白熱電灯からなる照明37、カメラ36の視野および照明37の照射範囲に撮影対象の自動車が含まれるようカメラ36と照明37の方向を変える雲台3852、雲台3852を動かすための雲台駆動部3851、飛行ロボット3の全体を制御するロボ制御部38、飛行ロボット3の各部に電気を供給するリチウムポリマー電池である電源39から構成されている。
The flying robot 3 receives a wireless flight control signal from the security device 2, flies while photographing to a predetermined target position, and transmits the photographed image to the security device 2. FIG. 2 is a diagram showing functional blocks of the flying robot 3.
The flying robot 3 includes an antenna 31 for performing wireless communication with the security device 2, four rotors 32 for flying such as ascending / descending / turning direction / advancing, a motor for providing driving force to the rotor 32, and the like. A rotor drive unit 33; a height sensor 34 that projects and receives a laser beam vertically downward to measure the current altitude of the own device; a distance measurement sensor 35 that projects a laser beam in the horizontal direction and surroundings to measure the surrounding situation of the own device; A camera 36 that captures a car that has entered the monitoring area E with a color image, an LED 37 that is turned on for color determination of the automobile and has a substantially uniform irradiation intensity in the visible light area, an illumination 37 that includes an incandescent lamp, and a camera 36 The pan head 3852 for changing the direction of the camera 36 and the illumination 37 so that the subject vehicle is included in the field of view and the illumination range of the illumination 37, and the pan head drive unit for moving the pan head 3852 851, and a flight Robo control unit 38 for controlling the entire robot 3, the power supply 39 is a lithium polymer battery for supplying electricity to each part of the flying robots 3.

また、ロボ制御部38は、アンテナ31を介して警備装置2との無線通信を制御する通信制御手段381、カメラ36の撮影開始/終了やカメラ36が撮影した画像を取得して通信制御手段381から警備装置2へ送信するなどの処理をするカメラ制御手段382、測距センサ35および高度センサ34が測定した高度情報および自機周辺物体と自機との距離データなどをスキャンデータとして通信制御手段381から警備装置2へ送信するなどの処理をするスキャン手段383、警備装置2からの飛行制御信号に基づいてロータ駆動部33を制御して飛行ロボット3を目標位置に飛行するように制御する飛行制御手段384、雲台駆動部3851を制御する雲台制御手段385から構成されている。 The robot control unit 38 also acquires communication control means 381 for controlling wireless communication with the security device 2 via the antenna 31, acquisition start / end of the camera 36 and images taken by the camera 36, and communication control means 381. Control means 382 for performing processing such as transmission to the security device 2 from the camera, altitude information measured by the distance measuring sensor 35 and altitude sensor 34 and distance data between the object surrounding the own apparatus and the own apparatus as scan data, and communication control means The scanning unit 383 that performs processing such as transmission from the security device 381 to the security device 2, and the flight that controls the rotor drive unit 33 based on the flight control signal from the security device 2 to control the flying robot 3 to fly to the target position. The control unit 384 includes a pan head control unit 385 that controls the pan head drive unit 3851.

次に、図1、図4を参照して、警備装置2について詳細に説明する。図1に示す監視領域Eの建屋Bの内部に警備装置2は設置されている。警備装置2は、建屋B内への侵入者を検知するための適宜の場所に設置された建物内センサ5、監視領域E内であって駐車場等の建屋Bの外を検知領域とするレーザセンサ4とそれぞれ接続されている。 Next, the security device 2 will be described in detail with reference to FIGS. 1 and 4. The security device 2 is installed inside the building B in the monitoring area E shown in FIG. The security device 2 includes a sensor 5 in the building installed at an appropriate location for detecting an intruder into the building B, a laser in the monitoring area E and outside the building B such as a parking lot. Each sensor 4 is connected.

図4は、警備装置2の機能ブロックを示す図である。警備装置2は、監視領域Eを監視センタが監視する警備セット状態と監視センタで監視しない警備解除状態との切替え操作を行う警備モード切替部21と、レーザセンサ4や建物内センサ5などの各種センサからの信号の入力を受けるセンサインタフェース22、飛行ロボット3と通信を行う飛行ロボット通信部25、飛行ロボット3が撮影した画像、各種センサが検知した異常信号などについて、監視センタ6とネットワークを介して通信を行う監視センタ通信部26、警備装置2の処理に必要なプログラムや各種のデータ、パラメータなどを記憶しているROM/RAMなどの周辺部品にて構成される記憶部24、および警備装置2の全体を統括制御するCPU、MPUなどから成る警備制御部23から構成されている。 FIG. 4 is a diagram illustrating functional blocks of the security device 2. The security device 2 includes a security mode switching unit 21 for performing a switching operation between a security set state monitored by the monitoring center and a security release state not monitored by the monitoring center, a laser sensor 4 and a sensor 5 in the building. A sensor interface 22 that receives input of signals from the sensors, a flying robot communication unit 25 that communicates with the flying robot 3, images captured by the flying robot 3, abnormal signals detected by various sensors, and the like via the monitoring center 6 and the network. A monitoring center communication unit 26 that performs communication, a storage unit 24 composed of peripheral components such as ROM / RAM storing programs and various data and parameters necessary for the processing of the security device 2, and the security device 2 is composed of a security control unit 23 composed of a CPU, MPU, etc. for overall control.

ここで、記憶部24に記憶されている情報について説明する。監視空間マップ241は、監視領域Eを3次元にて表現した情報であって、地面から飛行ロボット3の飛行に必要な程度の高さまでの監視空間を表現したマップ情報である。本実施の形態では、監視領域Eと外部を仕切る塀の存在、建屋B、レーザセンサ4の設置位置などの予め監視空間内に存在している物体の情報が記憶されている。なお、監視空間マップ241には、建屋B内部の3次元情報も入っており、例えば扉や窓のように人が出入り可能な場所が登録されている。   Here, information stored in the storage unit 24 will be described. The monitoring space map 241 is information that represents the monitoring area E in three dimensions, and is map information that represents the monitoring space from the ground to a height required for the flight of the flying robot 3. In the present embodiment, information on objects existing in the monitoring space in advance, such as the presence of a fence that separates the monitoring area E from the outside, the building B, and the installation position of the laser sensor 4 is stored. Note that the monitoring space map 241 also includes three-dimensional information inside the building B, and places where people can enter and exit are registered, such as doors and windows.

建物内センサ配置情報242は、各建物内センサ5の監視場所の監視空間マップ241における位置情報である。これは、予め警備計画によって決められており、建物内センサ5ごとに監視空間マップ241上の位置が対応付けられている。 The in-building sensor arrangement information 242 is position information in the monitoring space map 241 of the monitoring location of each in-building sensor 5. This is determined in advance by a security plan, and a position on the monitoring space map 241 is associated with each in-building sensor 5.

レーザセンサパラメータ243は、レーザセンサ4の監視空間マップ241における位置、レーザセンサ4の検知領域における位置と監視空間マップ241上の位置との対応関係を含む情報であり、レーザセンサ4にて物体検知した位置を監視空間マップ241上の位置に変換するためのパラメータである。 The laser sensor parameter 243 is information including the correspondence between the position of the laser sensor 4 in the monitoring space map 241 and the position in the detection area of the laser sensor 4 and the position on the monitoring space map 241. It is a parameter for converting the determined position into a position on the monitoring space map 241.

なお、各種パラメータ244は、そのほかに警備装置2が監視領域Eを監視するために必要な監視センタ6のIPアドレスや飛行ロボット3との通信のためのデータなど種々必要なパラメータである。記憶部24には、これら以外に警備装置2の機能を実現するための各種プログラムが記憶されている。 The various parameters 244 are various other parameters such as the IP address of the monitoring center 6 required for the security device 2 to monitor the monitoring area E and data for communication with the flying robot 3. In addition to these, the storage unit 24 stores various programs for realizing the functions of the security device 2.

車体色パラメータ245は、撮影対象の自動車の車体色を判定するための情報である。これについては図7を用いて後述する。 The vehicle body color parameter 245 is information for determining the vehicle body color of the automobile to be imaged. This will be described later with reference to FIG.

次に、警備制御部23について詳細に説明する。なお、警備制御部23は、記憶部24には図示していないソフトウエアモジュールを読み出して、CPU等にて各処理を行うものである。 Next, the security control unit 23 will be described in detail. The security control unit 23 reads a software module (not shown) in the storage unit 24 and performs each process by a CPU or the like.

レーザセンサ解析モジュール231は、センサインタフェース22から入力されるレーザセンサ4の信号を解析処理するソフトウエアである。具体的には、レーザセンサ4がレーザー光にて検知エリアを走査した探査信号を時系列に解析する。検知エリアに新たな進入物体等がなければ、時系列に入力されるレーザセンサ4の探査信号はあまり変化しないので、移動物体なしとの解析結果となる。
他方、検知エリアに新たな進入物体等があれば、レーザセンサ4の探査信号に変化が生じるので、変化が出た検知エリアでの位置を解析して求める。更に、記憶部24のレーザセンサパラメータ243を用いて、監視空間マップ241上の位置に変換し、進入物体の位置・大きさ・移動方向を算出し、進入物体を監視空間マップ241上で追跡する。また、進入物体が停止すると、その後の信号の変化がなくなるので、追跡していた自動車等の物体が、駐車したと判定することができる。
また、レーザセンサ解析モジュール231の解析結果は、後述する異常判定モジュール232やロボ制御モジュール233に出力される。
The laser sensor analysis module 231 is software for analyzing the signal of the laser sensor 4 input from the sensor interface 22. Specifically, the search signal obtained by scanning the detection area with the laser beam by the laser sensor 4 is analyzed in time series. If there is no new approaching object or the like in the detection area, the search signal of the laser sensor 4 input in time series does not change so much, and the analysis result indicates that there is no moving object.
On the other hand, if there is a new approaching object or the like in the detection area, the search signal of the laser sensor 4 changes, so the position in the detection area where the change has occurred is obtained by analysis. Further, using the laser sensor parameter 243 of the storage unit 24, the position is converted into a position on the monitoring space map 241 to calculate the position / size / movement direction of the approaching object, and the approaching object is tracked on the monitoring space map 241. . Further, when the approaching object stops, there is no change in the signal thereafter, so it can be determined that the object such as the automobile being tracked is parked.
The analysis result of the laser sensor analysis module 231 is output to an abnormality determination module 232 and a robot control module 233 described later.

異常判定モジュール232は、警備モード切替部21からの警備セット/解除信号、建物内センサ5、レーザセンサ4からの信号を受信し、監視領域Eに異常が発生したか否かを判定する。異常判定モジュール232は、警備モード切替部21から警備セット信号を受信すると監視領域Eを警戒する警備セットモードとし、警備解除信号を受信すると監視領域Eを警戒していない警備解除モードに設定する。
そして、警備解除モードでは、建物内センサ5やレーザセンサ4からの検知信号を受信しても、特段の処理は行わない。
他方、警備セットモードでは、建物内センサ5やレーザセンサ4からの検知信号を受信すると異常発生と判定し、監視センタ通信部26から監視センタ6に異常通報する。
異常通報とともに、ロボ制御モジュール233に対して飛行ロボット3の起動制御を実行する。そして、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を監視センタ通信部26から監視センタ6に送信する処理を異常状態の解除がされるまで継続する。なお、異常状態の解除方法は種々存在するが、本発明との関連性が低いので説明は省略する。
The abnormality determination module 232 receives a security set / release signal from the security mode switching unit 21 and signals from the in-building sensor 5 and the laser sensor 4 and determines whether an abnormality has occurred in the monitoring area E. When receiving the security set signal from the security mode switching unit 21, the abnormality determination module 232 sets the monitoring area E to the security set mode that warns, and when receiving the security release signal, sets the monitoring area E to the security release mode that is not warning.
In the security release mode, no special processing is performed even if a detection signal from the in-building sensor 5 or the laser sensor 4 is received.
On the other hand, in the security set mode, when a detection signal from the in-building sensor 5 or the laser sensor 4 is received, it is determined that an abnormality has occurred, and the monitoring center communication unit 26 notifies the monitoring center 6 of the abnormality.
Along with the abnormality report, activation control of the flying robot 3 is executed for the robot control module 233. And the process which transmits the image which the flying robot 3 received from the flying robot communication part 25 image | photographed from the monitoring center communication part 26 to the monitoring center 6 is continued until an abnormal state is cancelled | released. Although there are various methods for canceling the abnormal state, the description thereof is omitted because it is not relevant to the present invention.

ロボ制御モジュール233は、異常判定モジュール232にて飛行ロボット3の起動信号を受けると、飛行ロボット通信部25から飛行ロボット3の飛行制御を行う。 When the robot control module 233 receives the activation signal of the flying robot 3 from the abnormality determination module 232, the robot control module 233 performs flight control of the flying robot 3 from the flying robot communication unit 25.

ここで、図5を参照してロボ制御モジュール233を詳細に説明する。図5は、ロボ制御モジュール233の機能ブロック図である。ロボ制御モジュール233は、飛行ロボット3が到達するべき目標位置を決める目標位置設定手段イと、目標位置設定手段イが設定した目標位置に到達するための飛行経路を算出する飛行経路算出手段ロと、飛行経路算出手段ロが算出した飛行経路にて飛行するように飛行ロボット3へ飛行制御信号を生成して送信するロボ制御手段ハと、飛行ロボット3の監視空間マップ241上における現在の飛行位置を算出する飛行位置算出手段ニから構成されている。 Here, the robot control module 233 will be described in detail with reference to FIG. FIG. 5 is a functional block diagram of the robot control module 233. The robot control module 233 includes target position setting means A for determining a target position to be reached by the flying robot 3, flight path calculation means RO for calculating a flight path for reaching the target position set by the target position setting means A, Robo control means C for generating and transmitting a flight control signal to the flying robot 3 so as to fly along the flight path calculated by the flight path calculation means B, and a current flight position on the monitoring space map 241 of the flying robot 3 Flight position calculating means D for calculating

目標位置設定手段イは、レーザセンサ解析モジュール231が自動車の駐車を検出すると、監視空間マップ241における当該自動車の側面の真横の位置であって、自動車全体を撮影できる程度にその自動車から離れ、1m程度の高度を目標位置に設定する。同時に、飛行ロボット3が自動車の側面全体を撮影可能とするために、目標位置設定手段イは、飛行ロボット3に搭載されている照明37とカメラ36を水平方向に向けるように雲台制御手段385への制御信号を出力するよう設定する。目標位置を自動車の側面真横の位置とするのは、自動車の車体は緩やかな曲面で構成されていることが多いため、照明37から照射した光をできるだけカメラ36で捉えられるよう平面に正対していると考えても差し支えないドア付近を撮影するようにするためである。 When the laser sensor analysis module 231 detects parking of the vehicle, the target position setting means a is located right next to the side surface of the vehicle in the monitoring space map 241 and is away from the vehicle so that the entire vehicle can be photographed. Set a certain altitude as the target position. At the same time, in order for the flying robot 3 to be able to photograph the entire side surface of the vehicle, the target position setting means a is a pan head control means 385 so that the illumination 37 and the camera 36 mounted on the flying robot 3 are directed horizontally. Set to output control signal to. The target position is set to a position directly beside the side surface of the automobile. Since the body of an automobile is often configured with a gently curved surface, the light emitted from the illumination 37 is opposed to a plane so that it can be captured by the camera 36 as much as possible. This is so that the vicinity of the door can be taken even if it is considered to be.

または、目標位置設定手段イは、レーザセンサ解析モジュール231が算出した進入物体である自動車の監視空間マップ241上の位置の直上の5m程度の高度を目標位置とする。なお、ここで、5m程度というのは、飛行ロボット3が自動車の全体を撮影可能な程度の高さである。同時に、飛行ロボット3が自動車の全体を撮影可能とするために、目標位置設定手段イは、飛行ロボット3に搭載されている照明37とカメラ36を鉛直下方向に向けるように雲台制御手段385への制御信号を出力するよう設定する。
目標位置を自動車の直上の位置とするのは、目標位置を自動車の側面にする場合と同じくできるだけ照明37から照射した光をできるだけカメラ36で捉えられるよう天井部分を撮影するためである。
Alternatively, the target position setting means a sets the altitude of about 5 m immediately above the position on the monitoring space map 241 of the automobile that is the approaching object calculated by the laser sensor analysis module 231 as the target position. Here, about 5 m is a height that allows the flying robot 3 to photograph the entire automobile. At the same time, in order for the flying robot 3 to be able to photograph the entire vehicle, the target position setting means a is a pan head control means 385 so that the illumination 37 and the camera 36 mounted on the flying robot 3 are directed vertically downward. Set to output control signal to.
The reason for setting the target position directly above the automobile is to photograph the ceiling so that the camera 36 can capture as much light as possible from the illumination 37 as much as possible when the target position is set to the side of the automobile.

なお、本実施の形態では、車体色の判定は、後述する画像処理モジュール234が行っているが、監視センタ6のモニタに表示された飛行ロボット3が撮影した画像を監視員が目視して確認判定し、確認できた旨の信号を警備装置2に送信するようにしてもよい。 In the present embodiment, the vehicle body color is determined by the image processing module 234, which will be described later, but the monitor visually confirms the image captured by the flying robot 3 displayed on the monitor of the monitoring center 6. A signal indicating that the determination has been made and confirmed may be transmitted to the security device 2.

図4に戻って、画像処理モジュール234は、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を処理する。
画像処理モジュール234が行う自動車を撮影した画像から車体色を判定する処理について、図6と図7を参照して説明する。
Returning to FIG. 4, the image processing module 234 processes the image captured by the flying robot 3 received from the flying robot communication unit 25.
Processing for determining the vehicle body color from an image of a car taken by the image processing module 234 will be described with reference to FIGS.

図6(a)は、飛行ロボット3が自動車7を右側面から撮影する様子を模式的に示している。飛行ロボット3は、ロボ制御モジュール233の目標位置設定手段イが設定した自動車7の右側面まで飛行する。そして、ロボ制御モジュール233が出力した飛行制御信号に含まれている雲台3852を制御するための信号を参照して、雲台駆動部3851により、照明37とカメラ36が水平方向に向くよう雲台3852を駆動させる。
飛行ロボット3が自動車7の右側面まで飛行し、照明37とカメラ36が水平方向を向くと、ロボ制御手段38は照明37を点灯して、カメラ制御手段382により制御されたカメラ36は自動車7の右側面を含む画像を取得する。続いて、ロボ制御手段38は照明37を消灯して、同じく自動車7の右側面を含む画像を取得する。そして、取得した画像をアンテナ31から送信し、警備装置2は、飛行ロボット通信部35にて受信し、画像処理モジュール234に入力する。
FIG. 6A schematically shows a state in which the flying robot 3 images the automobile 7 from the right side. The flying robot 3 flies to the right side surface of the automobile 7 set by the target position setting means a of the robot control module 233. Then, referring to a signal for controlling the pan head 3852 included in the flight control signal output from the robot control module 233, the pan head driving unit 3851 causes the light 37 and the camera 36 to face in the horizontal direction. The table 3852 is driven.
When the flying robot 3 flies up to the right side of the automobile 7 and the illumination 37 and the camera 36 face the horizontal direction, the robot control means 38 turns on the illumination 37 and the camera 36 controlled by the camera control means 382 is in the automobile 7. An image including the right side of is acquired. Subsequently, the robot control unit 38 turns off the illumination 37 and acquires an image including the right side surface of the automobile 7. Then, the acquired image is transmitted from the antenna 31, and the security device 2 is received by the flying robot communication unit 35 and input to the image processing module 234.

図6(b)に示す画像I4は、飛行ロボット3が自動車を右側面から撮影したカラー画像である。なお、自動車の車体色が左右で異なる可能性を考慮する場合は、右側と右側の両方の画像を用いることとなる。
画像処理モジュール234は、画像I4を取得すると、自動車のタイヤ・車体・窓などの自動車の特徴情報を用いたセグメンテーション法により、画像中から自動車部分の領域71を特定して、自動車の画像を図6(c)のように抽出する。
An image I4 illustrated in FIG. 6B is a color image obtained by the flying robot 3 capturing a vehicle from the right side. In addition, when considering the possibility that the vehicle body color of the automobile is different between right and left, both the right and right images are used.
When the image processing module 234 acquires the image I4, the image processing module 234 identifies the region 71 of the vehicle portion from the image by the segmentation method using the feature information of the vehicle such as the tire, the vehicle body, and the window of the vehicle, and displays the image of the vehicle. Extract as shown in 6 (c).

図6(d)は、飛行ロボット3が自動車7を直上から撮影する様子を模式的に示している。飛行ロボット3は、ロボ制御モジュール233の目標位置設定手段イが設定した自動車7の直上まで飛行する。そして、ロボ制御モジュール233が出力した飛行制御信号に含まれている雲台3852を制御するための信号を参照して、雲台駆動部3851により、照明37とカメラ36が鉛直下方向に向くよう雲台3852を駆動させる。
飛行ロボット3が自動車7の直上まで飛行し、照明37とカメラ36が鉛直下方向を向くとロボ制御手段38は照明37を点灯して、カメラ制御手段382により制御されたカメラ36は自動車7の上面、特に天井部分を含む画像を取得する。続いて、ロボ制御手段38は照明37を消灯して、同じく自動車7の上面を含む画像を取得する。そして、取得した画像をアンテナ31から送信し、警備装置2は、飛行ロボット通信部35にて受信し、画像処理モジュール234に入力する。
FIG. 6D schematically shows a state in which the flying robot 3 photographs the automobile 7 from directly above. The flying robot 3 flies to the position immediately above the automobile 7 set by the target position setting means a of the robot control module 233. Then, referring to the signal for controlling the pan head 3852 included in the flight control signal output from the robot control module 233, the pan head drive unit 3851 causes the illumination 37 and the camera 36 to face vertically downward. The pan head 3852 is driven.
When the flying robot 3 flies just above the automobile 7 and the illumination 37 and the camera 36 face vertically downward, the robot control means 38 turns on the illumination 37, and the camera 36 controlled by the camera control means 382 is connected to the automobile 7. An image including the top surface, particularly the ceiling portion, is acquired. Subsequently, the robot control unit 38 turns off the illumination 37 and acquires an image including the upper surface of the automobile 7. Then, the acquired image is transmitted from the antenna 31, and the security device 2 is received by the flying robot communication unit 35 and input to the image processing module 234.

図6(e)に示す画像I5は、飛行ロボット3が自動車を直上から撮影したカラー画像である。
画像処理モジュール234は、画像I5を取得すると、自動車の車体・窓などの自動車の特徴情報を用いたセグメンテーション法により、画像中から自動車部分の領域73を特定して、自動車の画像を図6(f)のように抽出する。
飛行ロボット3を自動車の側面または直上に移動させる理由は、前述通り、照明37から照射した光をできるだけカメラ36にて捉えるためであり、飛行ロボット3の位置が自動車の側面か直上かの違いは色の判定には影響を与えない。そこで、以下では、図6(a)〜(c)を用いて説明する。
An image I5 shown in FIG. 6E is a color image taken by the flying robot 3 from directly above the automobile.
When the image processing module 234 obtains the image I5, the image processing module 234 identifies a region 73 of the vehicle portion from the image by a segmentation method using vehicle feature information such as the vehicle body / window of the vehicle, and displays the image of the vehicle in FIG. Extract as shown in f).
The reason for moving the flying robot 3 to the side of the automobile or directly above is to capture the light emitted from the illumination 37 with the camera 36 as much as possible, as described above. The difference between the position of the flying robot 3 being the side of the automobile or directly above is as follows. It does not affect the color determination. Therefore, the following description will be made with reference to FIGS.

画像処理モジュール234は、自動車の画像から、そのほぼ中心付近の小領域72(図6(f)では符号74で示される領域)のカラー情報(RGB値)を調べる。そのために小領域72の含まれる各画素についてRGB値を調べて、その小領域72全体の画素値について集計し、RGB値それぞれの平均輝度を求める。
自動車の画像全体ではなく、小領域72についてカラー情報(RGB値)を調べるのは、飛行ロボット3を自動車の側面または直上に移動させて、カメラ36と照明37と正対する面に照明37からの光を照射しても、小領域72の外では照明37から照射した光はカメラ36では捉えることができない方向に反射することが考えられるためである。この場合、小領域72の外に位置する画素からカラー情報(RGB値)を調べても、色判定の精度が望めない。
但し、照明37から照射した光が強すぎ、カメラ36で取得した画像中で白く飽和して映ってしまう場合には、その飽和した領域のすぐ外側の飽和していない領域からRGB値の平均輝度を求めることとする。白く飽和したか否かは、RGB値の輝度表現にて、いずれの成分値もほぼ最高の値、例えば255に近い値となったか否かで判定できる。
The image processing module 234 examines color information (RGB values) of a small area 72 (an area indicated by reference numeral 74 in FIG. 6F) near the center of the car image. For this purpose, the RGB values of each pixel included in the small area 72 are checked, and the pixel values of the entire small area 72 are totaled to obtain the average luminance of each of the RGB values.
The color information (RGB values) of the small area 72, not the entire image of the automobile, is checked by moving the flying robot 3 to the side of the automobile or directly above the plane facing the camera 36 and the illumination 37 from the illumination 37. This is because even if the light is irradiated, the light irradiated from the illumination 37 outside the small area 72 may be reflected in a direction that cannot be captured by the camera 36. In this case, even if color information (RGB values) is examined from pixels located outside the small area 72, the accuracy of color determination cannot be expected.
However, if the light emitted from the illumination 37 is too strong and appears to be saturated white in the image acquired by the camera 36, the average luminance of the RGB values from the non-saturated area immediately outside the saturated area. Is determined. Whether or not it is saturated white can be determined by determining whether or not any component value is almost the highest value, for example, a value close to 255 in the luminance expression of the RGB values.

このRGB値それぞれの平均輝度を、照明37を点灯したときにカメラ36が取得した点灯時画像、照明37を消灯したときにカメラ36が取得した消灯時画像のそれぞれから求める。以下、点灯時画像から求めた小領域72の平均輝度を点灯平均輝度、消灯時画像から求めた小領域72の平均輝度を消灯平均輝度と呼ぶことにする。
画像処理モジュール234は、点灯平均輝度のRGB値から消灯平均輝度のRGB値をそれぞれ引き算する。その結果を以下、反射平均輝度と呼ぶことにする。そして、画像処理モジュール234は、図7に示す車体色パラメータ245を参照し、小領域72の色を特定する。
The average luminance of each of the RGB values is obtained from the on-time image acquired by the camera 36 when the illumination 37 is turned on and the off-image obtained by the camera 36 when the illumination 37 is turned off. Hereinafter, the average luminance of the small area 72 obtained from the lighting image is referred to as lighting average luminance, and the average luminance of the small area 72 obtained from the lighting image is referred to as extinguishing average luminance.
The image processing module 234 subtracts the RGB value of the turn-off average brightness from the RGB value of the turn-on average brightness. The result is hereinafter referred to as reflection average luminance. Then, the image processing module 234 refers to the vehicle body color parameter 245 shown in FIG.

即ち、画像処理モジュール234は、求めた反射平均輝度のRGB値の組合せを図7に示す車体色パラメータ245を参照し、最も近い組合せをその小領域の色と特定する。
図7に示す車体色パラメータ245は、無彩色の白色、黒色、灰色を含む8つの色が、RGB値としてどのような組合せとして表現されるかを示したものである。
That is, the image processing module 234 refers to the body color parameter 245 shown in FIG. 7 for the obtained combination of RGB values of the reflection average luminance, and identifies the closest combination as the color of the small area.
The vehicle body color parameter 245 shown in FIG. 7 indicates how the eight colors including achromatic white, black, and gray are expressed as RGB values.

例えば、小領域72のRGB値の反射平均輝度の組合せが(220,30,60)であった場合、自動車7の車体色は赤色と特定する。同様に、小領域72のRGB値の反射平均輝度の組合せが(110,110,110)であった場合には、各成分が均等の明るさであるので、自動車7の車体色は灰色と特定する。 For example, when the combination of the reflection average luminances of the RGB values of the small area 72 is (220, 30, 60), the vehicle body color of the automobile 7 is specified as red. Similarly, when the combination of the reflection average luminances of the RGB values of the small area 72 is (110, 110, 110), each component has the same brightness, so that the body color of the automobile 7 is specified as gray. To do.

消灯平均輝度は、照明36を消灯したときに得られた輝度であり、監視領域Eの環境光の成分のみを捉えたものである。これに対して点灯平均輝度は、照明36を点灯したときに得られた輝度であるため、監視領域Eの環境光の成分に加えて、照明36の光の成分をも捉えたものとなっている。従って、点灯平均輝度から消灯平均輝度を引いて得られた反射平均輝度は、環境光の成分が含まれず、照明36のみによる輝度値となっている。すなわち、照明37は可視光領域において略一様な照射強度を有するものを用いており、反射平均輝度は、環境光の影響を受けず、自動車7の車体色を捉えた輝度値となっている。そこで、反射平均輝度を用いることで、監視領域Eに元々設置されている照明装置や、太陽光の影響を排除して自動車7の車体色を正確に判定できる。   The average extinction luminance is the luminance obtained when the illumination 36 is extinguished, and captures only the component of the ambient light in the monitoring area E. On the other hand, since the lighting average luminance is the luminance obtained when the illumination 36 is lit, it captures the light component of the illumination 36 in addition to the ambient light component of the monitoring region E. Yes. Therefore, the reflection average brightness obtained by subtracting the turn-off average brightness from the turn-on average brightness does not include the ambient light component, and is a brightness value only by the illumination 36. That is, the illumination 37 has a substantially uniform irradiation intensity in the visible light region, and the reflection average luminance is a luminance value that captures the body color of the automobile 7 without being affected by the ambient light. . Therefore, by using the reflection average luminance, it is possible to accurately determine the body color of the automobile 7 by eliminating the influence of the illumination device originally installed in the monitoring region E and sunlight.

図3に戻って、レーザセンサ4は、屋外に設置されて、監視領域Eの駐車場や建屋Bの周囲への進入を監視している。図8は、レーザセンサ4の検知エリアを示した図である。同図に示すように、レーザセンサ4−1が監視領域Eの左上から建屋B方向を検知エリアとして設置され、レーザセンサ4−2が監視領域Eの右下から建屋B方向の裏手を検知エリアとするように設置されている。 Returning to FIG. 3, the laser sensor 4 is installed outdoors, and monitors the approach of the monitoring area E to the parking lot and the surroundings of the building B. FIG. 8 is a diagram showing a detection area of the laser sensor 4. As shown in the figure, the laser sensor 4-1 is installed from the upper left of the monitoring area E as the detection area in the direction of the building B, and the laser sensor 4-2 is detected from the lower right of the monitoring area E in the direction of the building B. It is installed so that.

レーザセンサ4は、予め設定された検知エリアを走査するように、放射状にレーザー光である探査信号を送信し、検知エリア内の物体に反射して戻ってきた探査信号を受信する。そして、送信と受信の時間差から物体までの距離を算出し、その探査信号を送信した方向と算出した距離を求める。 The laser sensor 4 transmits a search signal that is a laser beam in a radial manner so as to scan a preset detection area, and receives the search signal that is reflected back to the object in the detection area. Then, the distance to the object is calculated from the time difference between transmission and reception, and the direction in which the search signal is transmitted and the calculated distance are obtained.

そしてレーザセンサ4は、所定周期で検知エリアを走査した走査単位の結果を警備装置2に送信する。これにより、警備装置2のレーザセンサ解析モジュール231にて、監視領域Eにおける屋外での物体の配置状況や進入物体の有無、自動車の追跡などが可能となる。本実施の形態では、地上を走行する自動車の進入監視を目的としているため、水平方向に1段での走査としているが、監視目的によっては、鉛直方向に複数段の走査をするようにしてもよい。 And the laser sensor 4 transmits the result of the scanning unit which scanned the detection area with the predetermined period to the security apparatus 2. As a result, the laser sensor analysis module 231 of the security device 2 can perform the outdoor object placement state in the monitoring area E, the presence or absence of an approaching object, the tracking of an automobile, and the like. In this embodiment, since the purpose is to monitor the approach of a vehicle traveling on the ground, scanning is performed in one step in the horizontal direction. However, depending on the purpose of monitoring, scanning in a plurality of steps may be performed in the vertical direction. Good.

建物内センサ5(5a〜5f)は、図1に示すように、建屋B内の各所に適宜に設置されている。例えば、窓や扉には、窓や扉の開閉を検出するマグネットセンサ、ガラス窓にはガラス破壊センサ、部屋の内部には人体を検出する赤外線センサ、画像にて侵入者などを検出する画像センサなどが適宜の場所に設置されている。なお、建物内センサ5ごとに、監視空間マップ241上の検知箇所と対応付けて警備装置2に建物内センサ配置情報242として記憶されている。 The in-building sensors 5 (5a to 5f) are appropriately installed at various locations in the building B as shown in FIG. For example, for a window or door, a magnet sensor that detects opening or closing of the window or door, a glass breakage sensor for a glass window, an infrared sensor that detects a human body inside a room, or an image sensor that detects an intruder in an image Etc. are installed in appropriate places. Each building sensor 5 is stored in the security device 2 as building sensor arrangement information 242 in association with a detection location on the monitoring space map 241.

次に、このように構成された監視システム1の動作イメージについて、図1を参照して説明する。図1は、警備セットモード中に、自動車7が進入した後、駐車されたときの状況を示している。自動車7が進入してくると、レーザセンサ4の信号に基づき、警備装置2にて異常を検出する。そして、警備装置2は、異常の発生に伴って監視センタ6に異常通報するとともに、飛行ロボット3の制御を開始する。建物内センサ5のいずれかが人体を検出したことを、飛行ロボット3の制御の開始の条件に加えても良い。   Next, an operation image of the monitoring system 1 configured as described above will be described with reference to FIG. FIG. 1 shows a situation when the vehicle 7 is parked after entering the vehicle during the security set mode. When the automobile 7 enters, the security device 2 detects an abnormality based on the signal from the laser sensor 4. Then, the security device 2 notifies the monitoring center 6 of an abnormality when the abnormality occurs, and starts control of the flying robot 3. The fact that any of the in-building sensors 5 has detected a human body may be added to the condition for starting the control of the flying robot 3.

ここで、警備装置2による自動車7の色判定の処理について、図9を参照して説明する。図9は、自動車7の検出時における警備装置2の処理フローである。まず、自動車7を検出すると、目標位置設定手段イは、レーザセンサ解析モジュール231が解析した自動車7の重心位置から、所定の距離離れた高度1m程度の位置を監視空間マップ241上の位置を目標位置に設定する(S91)。
自動車7の重心位置からの所定距離とは、飛行ロボット3が備えるカメラ37が自動車7の側面全体を撮影できる程度の距離であり、カメラ37の撮像素子の大きさやレンズの焦点距離などから適宜決められる。
自動車7の重心位置は、レーザセンサ解析モジュール231が、レーザセンサ4からの信号を処理することで検出できる。
Here, the color determination process of the automobile 7 by the security device 2 will be described with reference to FIG. FIG. 9 is a processing flow of the security device 2 when the automobile 7 is detected. First, when the automobile 7 is detected, the target position setting means a sets the position on the monitoring space map 241 to a position at an altitude of about 1 m away from the center of gravity of the automobile 7 analyzed by the laser sensor analysis module 231. The position is set (S91).
The predetermined distance from the position of the center of gravity of the automobile 7 is a distance that allows the camera 37 of the flying robot 3 to capture the entire side surface of the automobile 7, and is determined as appropriate based on the size of the imaging element of the camera 37, the focal length of the lens, and the like. It is done.
The position of the center of gravity of the automobile 7 can be detected by the laser sensor analysis module 231 processing a signal from the laser sensor 4.

そして、飛行経路算出手段ロは、ステップS71にて設定された目標位置、飛行ロボット3の現在位置、監視空間マップ241を用いて既定の経路探索アルゴリズムにより、飛行経路を計算する。既定の経路探索アルゴリズムは、現在位置と目標位置を設定すれば、監視空間マップ241の配置状況および飛行ロボット3の大きさ等を考慮して、安全にかつ最短で到着できる経路を算出する。
さらに、ロボ制御手段ハは、飛行ロボット3が飛行経路算出手段ロの算出した経路を飛行できるように、飛行ロボット3の制御信号を算出する。具体的な制御信号は、飛行ロボット3にある4つのロータ32のそれぞれの回転数である。そして、飛行ロボット通信部25から無線信号にて制御信号を送信する(S92)。
Then, the flight path calculation means b calculates the flight path by a predetermined path search algorithm using the target position set in step S71, the current position of the flying robot 3, and the monitoring space map 241. The predetermined route search algorithm calculates a route that can be reached safely and in the shortest in consideration of the arrangement state of the monitoring space map 241 and the size of the flying robot 3 if the current position and the target position are set.
Further, the robot control means C calculates a control signal for the flying robot 3 so that the flying robot 3 can fly along the route calculated by the flight path calculation means B. A specific control signal is the number of rotations of each of the four rotors 32 in the flying robot 3. Then, a control signal is transmitted by radio signal from the flying robot communication unit 25 (S92).

なお、飛行ロボット3は、起動信号を受信するまでは、所定の待機位置に所在しているので、その位置が現在位置となっている。その他のときは、飛行ロボット3のスキャン手段383が取得したスキャンデータを受信し、このスキャンデータが監視空間マップ241に合致する場所を算出することにより、飛行ロボット3の現在位置を算出する。なお、本実施の形態では、スキャンデータに基づいて現在位置を算出しているが、これに限らず飛行ロボット3にGPS信号の受信機能を設けて、GPS信号に基づいて現在位置を算出してもよい。 Since the flying robot 3 is located at a predetermined standby position until the activation signal is received, that position is the current position. In other cases, the current position of the flying robot 3 is calculated by receiving the scan data acquired by the scanning means 383 of the flying robot 3 and calculating the location where this scan data matches the monitoring space map 241. In the present embodiment, the current position is calculated based on the scan data. However, the present invention is not limited to this, and the flying robot 3 is provided with a GPS signal receiving function, and the current position is calculated based on the GPS signal. Also good.

飛行ロボット3は、アンテナ31から制御信号を受信すると、受信した制御信号に基づいて飛行する。具体的には、アンテナ31から受信した制御信号を飛行制御手段384に入力し、ロータ駆動部33から各ロータ32の回転数を個別に制御して飛行する。 When the flying robot 3 receives the control signal from the antenna 31, the flying robot 3 flies based on the received control signal. Specifically, the control signal received from the antenna 31 is input to the flight control means 384, and the number of rotations of each rotor 32 is individually controlled from the rotor drive unit 33 to fly.

ここで、図9に示すフローに記載しなかったが、飛行ロボット3が最初に制御信号を受信すると、カメラ制御手段382がカメラ36を起動および、撮影した画像を警備装置2に送信を開始する。また、スキャン手段383が測距センサ35、高度センサ34を起動し、スキャンデータを警備装置2に送信を開始する。ちなみに、図1は、飛行ロボット3が駐車場所を探している自動車7を、側面方向および直上の位置から自動車7の全体像を撮影している状況を示している。 Here, although not described in the flow shown in FIG. 9, when the flying robot 3 first receives a control signal, the camera control means 382 activates the camera 36 and starts transmitting the captured image to the security device 2. . In addition, the scanning unit 383 activates the distance measuring sensor 35 and the altitude sensor 34 and starts transmitting scan data to the security device 2. Incidentally, FIG. 1 shows a situation in which the flying robot 3 is photographing the whole image of the automobile 7 looking for a parking place from the side surface direction and a position immediately above.

次に、警備装置2は、飛行ロボット3が、自動車7を、照明37を点灯した状態で撮影した点灯時画像を取得する(S93)。警備装置2は、取得した点灯時画像を、記憶部24の図示しない一時記憶領域に一時記憶する。 Next, the security device 2 acquires a lighting-time image in which the flying robot 3 has photographed the automobile 7 with the illumination 37 turned on (S93). The security device 2 temporarily stores the acquired lighting image in a temporary storage area (not shown) of the storage unit 24.

続いて警備装置2は、飛行ロボット3が、自動車7を、照明37を消灯した状態で撮影した消灯時画像を取得する(S94)。警備装置2は、取得した消灯時画像を、記憶部24の図示しない一時記憶領域に一時記憶する。 Subsequently, the security device 2 acquires an off-time image obtained when the flying robot 3 captures the automobile 7 with the illumination 37 turned off (S94). The security device 2 temporarily stores the acquired unlit image in a temporary storage area (not shown) of the storage unit 24.

画像処理モジュール234は、ステップS93で取得した点灯時画像から点灯平均輝度を算出し、ステップS94で取得した消灯時画像から消灯平均輝度を算出して、反射平均輝度を求める。そして、車体色パラメータ245を参照して、自動車7の車体色を判定する(S95)。具体的な方法は、画像処理モジュール234の説明箇所で述べたとおりである。 The image processing module 234 calculates the lighting average luminance from the lighting image acquired in step S93, calculates the lighting average luminance from the lighting image acquired in step S94, and obtains the reflection average luminance. Then, the vehicle body color of the automobile 7 is determined with reference to the vehicle body color parameter 245 (S95). A specific method is as described in the description of the image processing module 234.

警備制御部23は、画像処理モジュール234が判定した車体色の情報を、監視センタ通信部26を経由して監視センタに送信する。飛行ロボット3が撮影した消灯時画像と点灯時画像の少なくともいずれかを同時に送信すると、監視センタに設置されているセンタ装置6のモニタに表示が可能であるので、監視員の目視確認に活用できる。 The security control unit 23 transmits vehicle body color information determined by the image processing module 234 to the monitoring center via the monitoring center communication unit 26. If at least one of the unlit image and the unlit image captured by the flying robot 3 is transmitted at the same time, it can be displayed on the monitor of the center device 6 installed in the monitoring center. .

以上のように、本発明にかかる撮影システムを適用した監視システムは、不審車両が監視領域に進入してきた自動車の車体色を、環境光の影響を受けずに判定可能であり、車体色の情報を自動的に、あるいは監視員が電話や無線にて然るべき連絡先に通知できる。例えば、検問や指名手配を行うにあたって、不審車両を特定するための有用な情報とすることができる。さらには自動車を撮影した画像を監視センタのモニタに表示させ、監視員が目視確認することで、微妙な色を人間の知識で補いつつ、車種情報なども通知することができる。 As described above, the monitoring system to which the imaging system according to the present invention is applied can determine the vehicle body color of the automobile in which the suspicious vehicle has entered the monitoring area without being affected by the environmental light, and the vehicle body color information. Can be sent automatically to the appropriate contact by telephone or radio. For example, it is possible to use useful information for identifying a suspicious vehicle when performing an inspection or a wanted arrangement. Furthermore, by displaying an image of a car on the monitor of the monitoring center and visually confirming by a monitor, it is possible to notify vehicle type information and the like while supplementing delicate colors with human knowledge.

次に、本発明にかかる撮影システムの第2の実施形態である監視システムについて述べる。これまで述べてきた監視システムでは、飛行ロボット3に搭載されたカメラ36はカラーカメラであることを前提に、撮影した画像からカラー情報(RGB値)を取得するものとしたが、以下に述べる第2の実施の形態では、モノクロカメラを使った場合について述べる。 Next, a monitoring system that is a second embodiment of the photographing system according to the present invention will be described. In the monitoring system described so far, the color information (RGB value) is acquired from the photographed image on the assumption that the camera 36 mounted on the flying robot 3 is a color camera. In the second embodiment, a case where a monochrome camera is used will be described.

図10は、第2の実施の形態にかかる飛行ロボット3の機能ブロック図であり、図2に対応するものである。以下では、図2の説明と共通する部分はその説明を省略するが、図2と比較して、カメラ36bがモノクロカメラであることと、フィルタホイール駆動部3861、フィルタホイール3862、ロボ制御部38にフィルタ制御手段386が追加されていることが異なる。 FIG. 10 is a functional block diagram of the flying robot 3 according to the second embodiment, and corresponds to FIG. In the following, the description of the parts common to the description of FIG. 2 is omitted, but the camera 36b is a monochrome camera, and the filter wheel driving unit 3861, the filter wheel 3862, and the robot control unit 38, as compared with FIG. The difference is that a filter control means 386 is added.

図11(a)に第2の実施の形態にかかる、飛行ロボット3に搭載される撮像機能に関連する機器構成を模式的に示す。
照明37は、第1の実施例と同じなので説明を省略する。
第2の実施の形態では、自動車を撮影する手段として、モノクロタイプのカメラ36bを用いる。モノクロタイプのカメラでは、カメラからの出力には色情報が含まれないが、それを補うため、フィルタホイール3862と、それを駆動するためのフィルタホイール駆動部3861を備えている。
FIG. 11A schematically shows a device configuration related to the imaging function mounted on the flying robot 3 according to the second embodiment.
Since the illumination 37 is the same as that of the first embodiment, description thereof is omitted.
In the second embodiment, a monochrome type camera 36b is used as means for photographing a car. In the monochrome type camera, color information is not included in the output from the camera, but in order to compensate for this, a filter wheel 3862 and a filter wheel driving unit 3861 for driving it are provided.

図11(b)は、フィルタホイール3862の構成を示す図である。フィルタホイール3862には、光の波長に関し、透過特性の異なる5枚のバンドパス(帯域透過)タイプのフィルタ3862a〜eが装着されている。また各フィルタの透過特性1100を図11(c)に模式的に示している。
フィルタ3862aは、430[nm]にピークがある透過特性を有し、主に紺色の光を透過する性質を持つ。透過特性を示すグラフを図11(c)の符号1100aに示す。
フィルタ3862bは、480[nm]にピークがある透過特性を有し、主に深緑色の光を透過する性質を持つ。透過特性を示すグラフを図11(c)の符号1100bに示す。
フィルタ3862cは、520[nm]にピークがある透過特性を有し、主に緑色の光を透過する性質を持つ。透過特性を示すグラフを図11(c)の符号1100cに示す。
フィルタ3862dは、580[nm]にピークがある透過特性を有し、主に橙色の光を透過する性質を持つ。透過特性を示すグラフを図11(c)の符号1100dに示す。
フィルタ3862eは、630[nm]にピークがある透過特性を有し、主に赤色の光を透過する性質を持つ。透過特性を示すグラフを図11(c)の符号1100eに示す。
FIG. 11B is a diagram showing the configuration of the filter wheel 3862. The filter wheel 3862 is equipped with five bandpass (band transmission) type filters 3862a to 3862e having different transmission characteristics with respect to the wavelength of light. Further, the transmission characteristic 1100 of each filter is schematically shown in FIG.
The filter 3862a has a transmission characteristic having a peak at 430 [nm], and mainly has a property of transmitting amber light. A graph showing the transmission characteristics is shown by reference numeral 1100a in FIG.
The filter 3862b has a transmission characteristic having a peak at 480 [nm], and mainly has a property of transmitting dark green light. A graph showing the transmission characteristics is shown by reference numeral 1100b in FIG.
The filter 3862c has a transmission characteristic having a peak at 520 [nm], and mainly has a characteristic of transmitting green light. A graph showing the transmission characteristics is shown by reference numeral 1100c in FIG.
The filter 3862d has a transmission characteristic having a peak at 580 [nm], and mainly has a property of transmitting orange light. A graph showing the transmission characteristics is shown by reference numeral 1100d in FIG.
The filter 3862e has a transmission characteristic having a peak at 630 [nm], and mainly has a property of transmitting red light. A graph showing the transmission characteristics is shown by reference numeral 1100e in FIG.

フィルタ3862fは、各波長帯について一様な透過特性を有する透明のフィルタを装着する。これは、上記何れのフィルタを介して撮影しても、人間の目には、実際とは大きく明るさが異なる画像が得られるが、そのような画像は監視センタ6にいる監視員が目視確認するには適さない。そこで、実際と同じ明るさの画像を表示するため、透過波長に依らず撮影する際に用いられるものである。透明のフィルタ3862fの代わりに、何もフィルタ類を有さず、カメラ36bのレンズが直接露出するようにしてもよい。
なお、図11に示したフィルタの枚数と、それぞれのフィルタが有する透過特性は例示であり、互いに透過特性のピークが重ならないよう、かつ可視光波長領域において均等な間隔でピークを有するように構成するのが好適である。
The filter 3862f is equipped with a transparent filter having uniform transmission characteristics for each wavelength band. This is because even if the image is taken through any of the above-mentioned filters, the human eye can obtain an image that is significantly different from the actual brightness, but such an image is visually confirmed by a monitor in the monitoring center 6. Not suitable for. Therefore, in order to display an image having the same brightness as that in practice, it is used when photographing regardless of the transmission wavelength. Instead of the transparent filter 3862f, there may be no filters and the lens of the camera 36b may be directly exposed.
It should be noted that the number of filters shown in FIG. 11 and the transmission characteristics of each filter are merely examples, and the transmission characteristics have peaks that do not overlap with each other and that have equal intervals in the visible light wavelength region. It is preferable to do this.

次に、第2の実施の形態における、警備装置2による自動車7の色判定の処理について、図12を参照して説明する。図12は、第1の実施の形態における図9に対応するものであり、図9のステップS91とS92とS96は、図12のステップS121とS122とS125とそれぞれ同様なので説明は省略する。 Next, color determination processing of the automobile 7 by the security device 2 in the second embodiment will be described with reference to FIG. FIG. 12 corresponds to FIG. 9 in the first embodiment. Steps S91, S92, and S96 in FIG. 9 are the same as steps S121, S122, and S125 in FIG.

飛行ロボット3は、自動車7の右側面の全体を撮影できる位置に飛行すると、まず照明37を点灯して、カメラ36bにて撮影する(S123)。その際、カメラ制御手段382がカメラ36bを制御して、自動車7の右側面の全体を含む画像を1枚取得するたびに、フィルタ制御手段386が、フィルタホイール3862をフィルタ1枚分だけ回転するように制御信号をフィルタホイール駆動部3861に出力する。これを図11(b)に示すフィルタ3862a〜eの枚数である5回繰り返す。なお、フィルタ3862fによる画像は目視確認用であり色判定には用いないので、必須ではない。 When the flying robot 3 flies to a position where the entire right side surface of the automobile 7 can be photographed, first the illumination 37 is turned on and the camera 36b photographs the image (S123). At that time, each time the camera control unit 382 controls the camera 36b to acquire one image including the entire right side surface of the automobile 7, the filter control unit 386 rotates the filter wheel 3862 by one filter. Thus, the control signal is output to the filter wheel drive unit 3861. This is repeated 5 times, which is the number of filters 3862a to e shown in FIG. Note that the image by the filter 3862f is not essential because it is for visual confirmation and is not used for color determination.

次に、飛行ロボット3は、照明37を消灯して、カメラ36bにて撮影する。その際、照明37を点灯して撮影した場合と同様に、カメラ制御手段382がカメラ36bを制御して、自動車7の右側面の全体を含む画像を1枚取得するたびに、フィルタ制御手段386が、フィルタホイール3862をフィルタ1枚分だけ回転するように制御信号をフィルタホイール駆動部3861に出力する。これを図11(b)に示すフィルタ3862a〜eの枚数である5回繰り返す。なお、フィルタ3862fによる画像は目視確認用であり色判定には用いないので、必須ではない。 Next, the flying robot 3 turns off the illumination 37 and takes a picture with the camera 36b. At this time, as in the case of shooting with the illumination 37 turned on, each time the camera control unit 382 controls the camera 36b to acquire one image including the entire right side surface of the automobile 7, the filter control unit 386 However, the control signal is output to the filter wheel drive unit 3861 so that the filter wheel 3862 is rotated by one filter. This is repeated 5 times, which is the number of filters 3862a to e shown in FIG. Note that the image by the filter 3862f is not essential because it is for visual confirmation and is not used for color determination.

照明37の点灯の有無に対してフィルタ3862a〜eそれぞれを用いた撮影を行うことで合計10枚の画像が取得されることになる。
そして、それぞれの画像から、第1の実施の形態における図6(c)に示した小領域72における輝度情報を用い、図13に示す車体色パラメータ245bを参照して車体の色を判定する(S124)。
図13の車体色パラメータ245bは、第1の実施の形態における図4に示した車体色パラメータ245に相当するものである。第2の実施の形態では、フィルタ3862a〜eを用い、照明37の点灯時に取得した点灯時画像と消灯時に取得した消灯時画像から小領域72の輝度値について、第1の実施の形態と同様に反射平均輝度を求める。
A total of ten images are acquired by performing imaging using each of the filters 3862a to e for whether or not the illumination 37 is turned on.
Then, using the luminance information in the small area 72 shown in FIG. 6C in the first embodiment, the color of the vehicle body is determined from each image with reference to the vehicle body color parameter 245b shown in FIG. S124).
The vehicle body color parameter 245b in FIG. 13 corresponds to the vehicle body color parameter 245 shown in FIG. 4 in the first embodiment. In the second embodiment, the filters 3862a to e are used, and the luminance value of the small region 72 from the on-image obtained when the illumination 37 is turned on and the off-image obtained when the illumination 37 is turned off is the same as in the first embodiment. The average reflection brightness is obtained.

まずフィルタ3862aがカメラ36bの前に位置したときの、点灯時画像における点灯時平均輝度から、消灯時画像における消灯時平均輝度を引き算して反射平均輝度を求める。この処理を以下フィルタ3862b〜eまで繰り返し、合計5つの反射平均輝度を求め、図13の車体色パラメータ245bと比較して、最も近いものを特定する。
5つの反射平均輝度を、フィルタ3862aに対応するものから順番に並べた場合、それが例えば(10,15,8,12,235)となった場合、最も近いのは赤色の(0,0,0,0,255)であるので、監視領域Eに存在し、飛行ロボット3が撮影する自動車7の車体色は赤色であると画像処理モジュール234は判定する。同様に例えば5つの反射平均輝度を並べた場合に、(120,115,130,124,119)であった場合には自動車7の車体色は灰色であると、画像処理モジュール245は判定する。
First, when the filter 3862a is positioned in front of the camera 36b, the reflection average luminance is obtained by subtracting the average luminance at the time when the image is turned off from the average luminance when the image is turned on. This process is repeated for filters 3862b to 3862e to obtain a total of five reflection average luminances, and the closest one is specified by comparison with the vehicle body color parameter 245b of FIG.
When the five reflection average luminances are arranged in order from the one corresponding to the filter 3862a, for example, when it is (10, 15, 8, 12, 235), the closest is red (0, 0, 0, 0, 255), the image processing module 234 determines that the vehicle body color of the automobile 7 that exists in the monitoring area E and is photographed by the flying robot 3 is red. Similarly, for example, when five reflection average luminances are arranged, and when it is (120, 115, 130, 124, 119), the image processing module 245 determines that the vehicle body color of the automobile 7 is gray.

第2の実施の形態では、色情報の出力は本来不可能なモノクロタイプのカメラ36bを用いるが、色判定に十分な数の帯域透過フィルタを用いることで、順次自動車7からの色ごとの反射強度を求めることで、色判定が可能となる。この際、第1の実施の形態と同様に照明37の点灯時の輝度から、消灯時の輝度を引き算することで、環境光の影響を排除した状態で判定できる。 In the second embodiment, the monochrome type camera 36b that cannot output color information is used. However, by using a sufficient number of band transmission filters for color determination, the reflection from the automobile 7 sequentially for each color. The color can be determined by obtaining the intensity. At this time, as in the first embodiment, the luminance at the time of turning off the illumination 37 is subtracted from the luminance at the time of turning off the lighting 37, so that the determination can be made in a state where the influence of the ambient light is eliminated.

以上述べてきた第1の実施の形態、第2の実施の形態の何れの場合も、照明の点灯時に取得した画像と消灯時に取得した画像との比較により、監視領域の環境光の影響を排除して自動車の色判定が可能となる。特に自動車の車体において、ほぼ平らな面が広がっていると考えられるドア部分や天井部分を撮影すべく、車体の側方や車体の上方に飛行ロボットを飛行させてから撮影することで、環境光の映り込みを避けた状態で照明から照射された光がほぼ全てカメラで捉え、正確な色判定が可能となる。 In both cases of the first embodiment and the second embodiment described above, the influence of ambient light in the monitoring area is eliminated by comparing the image acquired when the illumination is turned on with the image acquired when the illumination is turned off. Thus, the color of the car can be determined. Especially in the body of an automobile, in order to photograph the door part and ceiling part that are considered to have a substantially flat surface, it is possible to capture the ambient light by shooting after flying the flying robot to the side of the car body or above the car body. In this state, almost all of the light emitted from the illumination is captured by the camera, and accurate color determination is possible.

なお、本発明にかかる実施の形態として、別の形態も考えられる。
例えば、これまでの説明では、飛行ロボットに搭載する照明は、少なくとも可視光領域において略一様な照射強度を有するLED照明や白熱電灯からなるものとして説明してきたが、色判定処理に必要な波長を照射するLEDを複数並べて、それぞれのLEDを点灯させたときの画像を取得して色判定に用いても良い。
第1の実施の形態では、RGBそれぞれの光を照射するLEDを並べて、赤色のLEDのみを光らせたときの点灯時画像、緑色のLEDのみを光らせたときの点灯時画像、青色のLEDのみを光らせたときの点灯時画像をそれぞれ取得して色判定を行う。
第2の実施の形態では、フィルタホイールに装着した帯域透過フィルタのピーク波長と同じ波長の光を照射するLEDを並べて、フィルタホイールの回転と各LEDの発光を同期させ取得した点灯時画像を取得する。例えば、赤色を照射するLEDの点灯時に赤色を透過するフィルタをカメラの前に位置させて点灯時画像を取得する。同様に他のフィルタについても点灯時画像を取得すれば色判定が可能となる。

In addition, another form is also considered as embodiment concerning this invention.
For example, in the description so far, the illumination mounted on the flying robot has been described as being composed of LED illumination or incandescent lamp having substantially uniform irradiation intensity at least in the visible light region, but the wavelength required for the color determination processing A plurality of LEDs that emit light may be arranged, and an image obtained when each LED is turned on may be acquired and used for color determination.
In the first embodiment, LEDs for irradiating RGB light are arranged, and a lighting image when only a red LED is lit, a lighting image when only a green LED is lit, and only a blue LED are displayed. Each of the lighting images when illuminated is obtained and color determination is performed.
In the second embodiment, LEDs that emit light having the same wavelength as the peak wavelength of the band-pass filter attached to the filter wheel are arranged, and the on-time image obtained by synchronizing the rotation of the filter wheel and the light emission of each LED is obtained. To do. For example, when a LED that emits red light is turned on, a filter that transmits red light is positioned in front of the camera to acquire an image when lighted. Similarly, color determination can be performed for other filters by acquiring lighting images.

1・・・監視システム
2・・・警備装置(制御部)
3・・・飛行ロボット
4・・・レーザセンサ(物体センサ)
5・・・建物内センサ
1 ... Monitoring system 2 ... Security device (control unit)
3 ... Flying robot 4 ... Laser sensor (object sensor)
5 ... In-building sensor

Claims (4)

撮影機能を有し監視領域を飛行移動できる飛行ロボットと、前記飛行ロボットに前記監視領域に存在する進入物体を撮影させる制御部から構成される撮影システムであって、
前記飛行ロボットは、
複数の波長帯域において所定以上の照射強度特性を有し点灯と消灯を制御可能な照明手段と、
前記照明手段の点灯時に前記進入物体を撮影した点灯時画像および前記照明手段の消灯時に前記進入物体を撮影した消灯時画像を取得する撮影手段と、
を備え、
前記制御部は、
前記点灯画像と前記消灯画像との比較により前記進入物体の色彩情報を検出する色彩検出手段と、
少なくとも前記色彩情報を出力する出力手段と、
を有することを特徴とした撮影システム。
An imaging system comprising a flying robot having an imaging function and capable of flying in a monitoring area, and a control unit that causes the flying robot to image an approaching object existing in the monitoring area,
The flying robot is
Illumination means having illumination intensity characteristics that are greater than or equal to a predetermined value in a plurality of wavelength bands and capable of controlling turning on and off,
An imaging unit that acquires an on-time image obtained by imaging the approaching object when the illumination unit is turned on and an off-time image obtained by imaging the approaching object when the illumination unit is turned off.
With
The controller is
Color detection means for detecting color information of the approaching object by comparing the lighting image and the extinguishing image;
Output means for outputting at least the color information;
An imaging system characterized by comprising:
前記飛行ロボットは、さらに、前記照明手段が所定以上の照射強度特性を有する波長帯域に対応した帯域透過フィルタを複数有し、
前記色彩検出手段は、前記撮影手段が、同一の前記帯域透過フィルタを介して取得した前記点灯時画像および前記消灯時画像を比較して前記色彩情報を検出する
ことを特徴とした請求項1に記載の撮影システム。
The flying robot further includes a plurality of band transmission filters corresponding to wavelength bands in which the illumination unit has an irradiation intensity characteristic equal to or higher than a predetermined value,
2. The color detection unit according to claim 1, wherein the photographing unit detects the color information by comparing the lighting-time image and the lighting-time image acquired through the same band-pass filter. The shooting system described.
前記照明手段は、
互いに異なる波長の光を照射する複数の発光ダイオードからなることを特徴とした請求項1または2に記載の撮影システム。
The illumination means includes
The imaging system according to claim 1 or 2, comprising a plurality of light emitting diodes for irradiating light of different wavelengths.
前記撮影システムは、さらに、前記監視領域の監視空間マップにおける物体位置を計測する物体センサを有し、
前記制御部は、さらに、
前記監視領域を表す監視空間マップを記憶する記憶部と、
前記物体センサが計測した物体位置の変化から前記進入物体を検出する物体センサ信号解析手段と、
前記進入物体の一部と正対する撮影位置に前記飛行ロボットを飛行させる飛行制御手段と
を有し、
前記色彩検出手段は、前記飛行ロボットが前記撮影位置に飛行した時に取得された前記点灯時画像と前記消灯時画像とを用いて前記色彩情報を検出する
ことを特徴とした請求項1〜3のいずれか一つに記載の撮影システム。

The imaging system further includes an object sensor that measures an object position in a monitoring space map of the monitoring area,
The control unit further includes:
A storage unit for storing a monitoring space map representing the monitoring area;
Object sensor signal analysis means for detecting the approaching object from a change in the object position measured by the object sensor;
Flight control means for flying the flying robot at a shooting position facing a part of the approaching object;
The said color detection means detects the said color information using the said image at the time of lighting when the said flying robot flew to the said imaging | photography position, and the said image at the time of extinction. The imaging system according to any one of the above.

JP2013016027A 2013-01-30 2013-01-30 Shooting system Active JP6195449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013016027A JP6195449B2 (en) 2013-01-30 2013-01-30 Shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013016027A JP6195449B2 (en) 2013-01-30 2013-01-30 Shooting system

Publications (2)

Publication Number Publication Date
JP2014146287A true JP2014146287A (en) 2014-08-14
JP6195449B2 JP6195449B2 (en) 2017-09-13

Family

ID=51426469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013016027A Active JP6195449B2 (en) 2013-01-30 2013-01-30 Shooting system

Country Status (1)

Country Link
JP (1) JP6195449B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302339A (en) * 1994-04-29 1995-11-14 Internatl Business Mach Corp <Ibm> System and method for processing of object image
JPH11339179A (en) * 1998-05-26 1999-12-10 Hitachi Ltd Flying object utilizing system
JP2000121438A (en) * 1998-10-12 2000-04-28 Fuji Xerox Co Ltd Color image measuring apparatus
JP2001343288A (en) * 2000-06-06 2001-12-14 Nippon Telegr & Teleph Corp <Ntt> Method for measuring object color and device for the same
JP2002329289A (en) * 2001-05-07 2002-11-15 Matsushita Electric Ind Co Ltd Method and device for detecting vehicle
JP2006086591A (en) * 2004-09-14 2006-03-30 Canon Inc Mobile body tracing system, photographing apparatus, and photographing method
JP2006146378A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302339A (en) * 1994-04-29 1995-11-14 Internatl Business Mach Corp <Ibm> System and method for processing of object image
JPH11339179A (en) * 1998-05-26 1999-12-10 Hitachi Ltd Flying object utilizing system
JP2000121438A (en) * 1998-10-12 2000-04-28 Fuji Xerox Co Ltd Color image measuring apparatus
JP2001343288A (en) * 2000-06-06 2001-12-14 Nippon Telegr & Teleph Corp <Ntt> Method for measuring object color and device for the same
JP2002329289A (en) * 2001-05-07 2002-11-15 Matsushita Electric Ind Co Ltd Method and device for detecting vehicle
JP2006086591A (en) * 2004-09-14 2006-03-30 Canon Inc Mobile body tracing system, photographing apparatus, and photographing method
JP2006146378A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉田 勝, 上から近づいて不審者を監視、セコムが防犯用に空飛ぶ小型監視ロボットを開発, JPN6017000184, 26 December 2012 (2012-12-26), ISSN: 0003476245 *

Also Published As

Publication number Publication date
JP6195449B2 (en) 2017-09-13

Similar Documents

Publication Publication Date Title
US9196056B2 (en) Electro-optical system and method for analyzing images of a scene to identify the presence of a target color
JP6155032B2 (en) Shooting system
US20160247375A1 (en) Fire Detection Apparatus Utilizing A Camera
KR101835552B1 (en) Control center system of working environment for smart factory
US20140043478A1 (en) Security camera assembly
JP2014192784A (en) Monitoring system
JP6140436B2 (en) Shooting system
CN109142935A (en) Crusing robot
US20180029835A1 (en) Monitoring system of a passenger conveyor, a passenger conveyor, and a monitoring method thereof
TWI326353B (en) Anomaly detection system and method
JP6195447B2 (en) Shooting system
JP6172958B2 (en) Shooting system
KR101309121B1 (en) System and method for managing safety in parking lot
AU2014350268B2 (en) Presence detection of an object in a lift
CN104969542A (en) Monitor system
JP6163302B2 (en) Monitoring system
JP6189284B2 (en) Image sensing device
JP5982273B2 (en) Shooting system
KR20180046792A (en) Using image monitoring system, such as emergency call button and fire detection sensor and park display
CN111086451A (en) Head-up display system, display method and automobile
JP6195449B2 (en) Shooting system
US9507050B2 (en) Entity detection system and method for monitoring an area
CN115171327A (en) Method for vehicle fire monitoring and vehicle fire monitoring system
CN209055603U (en) Crusing robot
JP2000113351A (en) Image device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170815

R150 Certificate of patent or registration of utility model

Ref document number: 6195449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250