JP6195447B2 - Shooting system - Google Patents

Shooting system Download PDF

Info

Publication number
JP6195447B2
JP6195447B2 JP2013013815A JP2013013815A JP6195447B2 JP 6195447 B2 JP6195447 B2 JP 6195447B2 JP 2013013815 A JP2013013815 A JP 2013013815A JP 2013013815 A JP2013013815 A JP 2013013815A JP 6195447 B2 JP6195447 B2 JP 6195447B2
Authority
JP
Japan
Prior art keywords
building
sensor
monitoring
flying robot
suspicious person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013013815A
Other languages
Japanese (ja)
Other versions
JP2014146141A (en
Inventor
福井 誠司
誠司 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013013815A priority Critical patent/JP6195447B2/en
Publication of JP2014146141A publication Critical patent/JP2014146141A/en
Application granted granted Critical
Publication of JP6195447B2 publication Critical patent/JP6195447B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、建屋から逃走する不審者を飛行ロボットから撮影する撮影システムに関し、特に、逃走する不審者を適切に判定して撮影する撮影システムに関する。   The present invention relates to an imaging system that images a suspicious person who runs away from a building from a flying robot, and more particularly, to an imaging system that appropriately determines and shoots a suspicious person who runs away.

従来、建屋とその周辺の監視領域に各種センサを設置し、センサが異常を検出すると、異常が発生した場所に移動ロボットが移動し、その場所を撮影する監視システムが提案されている。
例えば、特許文献1には、火災を検出するセンサや侵入者を検出するセンサからの信号に基づいて、地上走行型の移動ロボットが異常発生の場所に移動して異常状況を撮影する監視システムが開示されている。このような監視システムは、駐車場が設けられているような工場やショッピングモールなど広範囲な監視領域を監視することがある。特許文献1のシステムでは、移動ロボットは、センサが異常を検知した場所まで走行して、その異常発生場所の撮影や監視センタへの通報などを実行している。
2. Description of the Related Art Conventionally, a monitoring system has been proposed in which various sensors are installed in a building and its surrounding monitoring area, and when the sensor detects an abnormality, the mobile robot moves to the place where the abnormality has occurred and images the place.
For example, Patent Document 1 discloses a monitoring system in which a ground-traveling mobile robot moves to a place where an abnormality occurs and images an abnormal situation based on signals from a sensor that detects a fire or a sensor that detects an intruder. It is disclosed. Such a monitoring system may monitor a wide monitoring area such as a factory or a shopping mall where a parking lot is provided. In the system of Patent Document 1, the mobile robot travels to a place where the sensor detects an abnormality, and performs imaging of the place where the abnormality has occurred, notification to the monitoring center, and the like.

特開2009−181270号公報JP 2009-181270 A

ところで、逃走を図っている侵入者を撮影することができれば、その後の捜査にとって有用な情報となる。しかし、従来の監視システムでは、逃走する不審者と建屋利用者や警備員などの正当利用者を区別していなかった。このため、移動ロボットが逃走する不審者に的を絞って撮影することが困難という問題がある。 By the way, if an intruder trying to escape can be photographed, it will be useful information for subsequent investigations. However, in the conventional monitoring system, a suspicious person who escapes and a legitimate user such as a building user or a guard are not distinguished. For this reason, there is a problem that it is difficult to focus on the suspicious person who escapes from the mobile robot.

また、地上走行型の移動ロボットでは、監視領域を俯瞰して撮影することが困難であるので、飛行ロボットに比べ撮影可能な範囲が狭くなり、複数の人物を撮影することが困難であり、一人の警備員等を不審者と間違えて撮影し、逃走する不審者を撮影できないことが生じ得る。 In addition, since it is difficult to take a bird's-eye view of a surveillance area with a ground-traveling mobile robot, the shooting range is narrower than that of a flying robot, making it difficult to photograph multiple people. It may happen that the security guards and the like are mistakenly photographed as suspicious persons, and the suspicious person who escapes cannot be photographed.

そこで、本発明は、飛行ロボットを用いて、監視領域における異常が発生している建屋から出てきた人物を不審者と判定し、不審者を迅速に撮影できる撮影システムの実現を目的とする。   Accordingly, an object of the present invention is to realize an imaging system that can quickly photograph a suspicious person by using a flying robot to determine a person who has emerged from a building where an abnormality in a monitoring area has occurred as a suspicious person.

かかる目的を達成するために本発明は、監視領域の監視空間における物体位置を計測する物体センサと、当該監視領域における建屋への侵入を検知する建物内センサと、撮影機能を有し監視空間を飛行できる飛行ロボットと、少なくとも飛行ロボットを目標位置まで飛行制御する制御部から構成される撮影システムであって、制御部が、少なくとも建屋と当該建屋外部とに区分して監視領域を表した監視空間マップを記憶する記憶部と、物体センサが計測した物体位置の変化から移動物体を検出するとともに、当該移動物体を監視空間マップ上にて追跡する物体センサ信号解析手段と、監視領域を警戒する警備セットモード中において、建物内センサが屋への侵入を検出した後に、物体センサ信号解析手段にて追跡している移動物体が監視空間マップの当該建屋から当該建屋の外部へ移動したことを検出すると、当該移動物体を不審者と判定し、監視領域を警戒しない警備解除モード中においては、移動物体を不審者と判定しない不審者判定手段と、不審者の現在位置を上空から撮影可能な位置を目標位置に設定し、飛行ロボットを当該目標位置に飛行させる飛行制御手段と、飛行ロボットが撮影した画像を出力する出力手段とを有する撮影システムを提供する。 In order to achieve such an object, the present invention provides an object sensor that measures an object position in a monitoring space of a monitoring area, a sensor in a building that detects intrusion into a building in the monitoring area , and a monitoring space that has an imaging function. a flying robot can fly, a shooting system and a control unit for flight control at least flying robots to the target position, the control unit, representing a monitoring region is divided into at least the building and the building outside A storage unit for storing the monitoring space map, a moving object is detected from a change in the object position measured by the object sensor, an object sensor signal analyzing means for tracking the moving object on the monitoring space map, and a monitoring area is warned. during security set mode, after the building sensor detects an intrusion into the construction shop, the moving object being tracked by the object sensor signal analyzing means superintendent When it is detected that the from the building space map has moved to the outside of the building, the moving object determines that a suspicious person, the security release mode in which no alarm monitoring area, a suspicious person does not determine the moving object and a suspicious person A determination unit, a flight control unit that sets a position where the current position of the suspicious person can be photographed from the sky as a target position, and causes the flying robot to fly to the target position; and an output unit that outputs an image captured by the flying robot. An imaging system is provided.

これにより、本発明は、建屋への侵入を検出した後に、建屋から出てきた人物を不審者と判定し、飛行ロボットにて不審者を追跡しつつ撮影することができる。   Thereby, after detecting the intrusion to a building, this invention can determine the person who came out of the building as a suspicious person, and can image | photograph while tracking a suspicious person with a flying robot.

また、撮影システムは、建物内センサが屋への侵入を検出すると、当該建屋外部を俯瞰して撮影できる予め定めた俯瞰位置を目標位置に設定し、当該俯瞰位置まで飛行した上で待機飛行を継続することが好適である。 The imaging system, the building sensor detects an intrusion into the construction shop, listening on that sets the predetermined overhead positions can be taken with overhead the outside of the building to the target position, and flying to the overhead position It is preferable to continue the flight.

これにより、不審者が建屋から逃走を図った際に、より迅速に不審者の撮影が可能になる。   Thereby, when a suspicious person escapes from a building, photography of a suspicious person becomes possible more rapidly.

本発明によれば、飛行ロボットが、逃走する不審者を迅速に撮影することができる。   According to the present invention, the flying robot can quickly photograph the suspicious person who runs away.

飛行ロボットの飛行イメージを説明する図Illustration explaining the flying image of a flying robot レーザセンサの検知エリアを示す図Diagram showing the detection area of the laser sensor 監視システムの全体構成図Overall configuration diagram of the monitoring system 警備装置の機能ブロック図Functional block diagram of security equipment ロボ制御モジュールの機能ブロック図Functional block diagram of the robot control module 飛行ロボットの機能ブロック図Functional block diagram of a flying robot 建屋侵入検知をトリガとした飛行ロボットの制御フローControl flow of a flying robot triggered by building intrusion detection

以下、本発明にかかる撮影システムを監視システムに適用した実施の形態について説明する。   Hereinafter, an embodiment in which a photographing system according to the present invention is applied to a monitoring system will be described.

図3は、監視システム1の全体構成を模式に示した図である。監視システム1は、監視領域Eに設置される警備装置2、飛行ロボット3、レーザセンサ4、建物内センサ5と、ネットワークを介して接続される監視センタ内に設置されたセンタ装置6から構成されている。センタ装置6は、警備装置2とIP網にて接続され、警備装置2から飛行ロボット3の撮影した画像や建物内センサ5の検知信号などを受信し、モニタに表示する。なお、監視員は、このモニタを視て監視領域Eの状況を把握し、適切な対応を実行する。また、ネットワークをIP網として説明しているが、一般公衆回線網、携帯電話網など画像の送受信に支障がなければこれに限るものではない。 FIG. 3 is a diagram schematically illustrating the overall configuration of the monitoring system 1. The monitoring system 1 includes a security device 2, a flying robot 3, a laser sensor 4, a building sensor 5 installed in a monitoring area E, and a center device 6 installed in a monitoring center connected via a network. ing. The center device 6 is connected to the security device 2 via an IP network, receives an image captured by the flying robot 3 from the security device 2, a detection signal from the sensor 5 in the building, and the like and displays it on the monitor. The monitor looks at this monitor, grasps the status of the monitoring area E, and executes an appropriate response. Further, although the network is described as an IP network, the network is not limited to this as long as there is no problem in image transmission / reception such as a general public network or a mobile phone network.

ここで、図1を参照して、監視システム1における飛行ロボット3の飛行制御の概略を説明する。図1は、塀に囲まれた監視領域Eに各機器が配置され、飛行ロボット3が飛行制御されている様子を示している。図1に示す監視領域Eの建屋Bの内部に、警備装置2が設置されている。警備装置2は、建屋B内への侵入者を検知するための適宜の場所に設置された建物内センサ5a、5b、5c、5d、5e、5f、監視領域E内であって駐車場等の建屋Bの外を検知領域とするレーザセンサ4−1、4−2とそれぞれ接続されている。 Here, with reference to FIG. 1, the outline of the flight control of the flying robot 3 in the monitoring system 1 is demonstrated. FIG. 1 shows a state in which each device is arranged in a monitoring area E surrounded by a kite and the flying robot 3 is flight-controlled. A security device 2 is installed inside the building B in the monitoring area E shown in FIG. The security device 2 is a sensor 5a, 5b, 5c, 5d, 5e, 5f, a monitoring area E installed in an appropriate place for detecting an intruder into the building B, a parking lot, etc. Laser sensors 4-1 and 4-2 are connected to the detection area outside the building B, respectively.

図1(a)は、不審者が建屋Bへ窓から侵入している様子を示している。警備装置2は、窓に設置されている建物内センサ5fから侵入検出信号を受信すると、侵入者が建屋に入った旨の異常信号を監視センタのセンタ装置6に通報する。次いで、警備装置2は、飛行ロボット3に不審者の逃走を俯瞰して撮影できる高高度な俯瞰位置にて待機飛行するように制御する。図1(a)は、飛行ロボット3が待機飛行している様子である。   FIG. 1A shows a suspicious person entering the building B through a window. When the security device 2 receives the intrusion detection signal from the in-building sensor 5f installed on the window, the security device 2 notifies the center device 6 of the monitoring center of an abnormal signal indicating that the intruder has entered the building. Next, the security device 2 controls the flying robot 3 to perform a stand-by flight at a high-altitude bird's-eye position where the suspicious person's escape can be seen from a bird's-eye view. FIG. 1A shows a state in which the flying robot 3 is on standby.

図1(b)は、不審者が建屋Bから逃走を図っている不審者を飛行ロボット3が追跡・撮影している様子を示している。次に、警備装置2は、人物が建屋Bから出てきたことを、レーザセンサ4−2からの信号に基づいて検知すると、飛行ロボット3に対して、建屋Bを出てきた不審者を追跡しつつ撮影させている。   FIG. 1B shows a state in which the flying robot 3 is tracking and photographing the suspicious person who is escaping from the building B. Next, when the security device 2 detects that a person has come out of the building B based on a signal from the laser sensor 4-2, the security device 2 tracks the suspicious person who has left the building B with respect to the flying robot 3. While shooting.

次に、飛行ロボット3について説明する。飛行ロボット3は、警備装置2からの無線による飛行制御信号を受信して、所定の目標位置まで撮影しながら飛行し、撮影した画像を警備装置2に送信する。図6は、飛行ロボット3の機能ブロックを示した図である。 Next, the flying robot 3 will be described. The flying robot 3 receives a wireless flight control signal from the security device 2, flies while photographing to a predetermined target position, and transmits the photographed image to the security device 2. FIG. 6 is a diagram showing functional blocks of the flying robot 3.

飛行ロボット3は、警備装置2との無線通信を行うためのアンテナ31、上昇/下降/方向転換/前進などの飛行するための4つのロータ32、ロータ32に駆動力を提供するモータ等からなるロータ駆動部33、鉛直下方にレーザーを投受光して飛行ロボット3の現在高度を計測する高度センサ34、水平方向かつ周囲にレーザーを投受光して飛行ロボット3の周辺状況を計測する測距センサ35、飛行ロボット3の前方をカラー画像にて撮影するカメラ36、周囲が暗いときに点灯しカメラ36での撮影を補助するLED照明である照明37、飛行ロボット3の全体を制御するロボ制御部38、飛行ロボット3の各部に電力を供給するリチウムポリマー電池である電源39から構成されている。 The flying robot 3 includes an antenna 31 for performing wireless communication with the security device 2, four rotors 32 for flying such as ascending / descending / turning direction / advancing, a motor for providing driving force to the rotor 32, and the like. A rotor drive unit 33, an altitude sensor 34 for projecting and receiving a laser beam vertically below to measure the current altitude of the flying robot 3, and a distance measuring sensor for projecting and receiving a laser beam in the horizontal direction and surroundings to measure the surrounding situation of the flying robot 3 35, a camera 36 that captures a color image of the front of the flying robot 3, an illumination 37 that is an LED illumination that is turned on when the surroundings are dark and assists the camera 36, and a robot controller that controls the entire flying robot 3. 38, a power source 39 which is a lithium polymer battery for supplying power to each part of the flying robot 3.

また、ロボ制御部38は、アンテナ31を介して警備装置2との無線通信を制御する通信制御手段381、カメラ36の撮影開始/終了やカメラ36が撮影した画像を取得して通信制御手段381から警備装置2へ送信するなどの処理をするカメラ制御手段382、測距センサ35および高度センサ34が測定した高度情報および周辺物体と自機との距離データをスキャンデータとして通信制御手段381から警備装置2へ送信するなどの処理をするスキャン手段383、警備装置2からの飛行制御信号に基づいてロータ駆動部33を制御して飛行ロボット3を目標位置に飛行するように制御する飛行制御手段384から構成されている。 The robot control unit 38 also acquires communication control means 381 for controlling wireless communication with the security device 2 via the antenna 31, acquisition start / end of the camera 36 and images taken by the camera 36, and communication control means 381. Is transmitted from the communication control means 381 as scan data using the altitude information measured by the camera control means 382, the distance measuring sensor 35 and the altitude sensor 34, and the distance data between the surrounding object and the own device. A scanning unit 383 that performs processing such as transmission to the device 2 and a flight control unit 384 that controls the rotor driving unit 33 based on the flight control signal from the security device 2 to control the flying robot 3 to fly to the target position. It is composed of

次に、図4、図5を参照して、警備装置2について詳細に説明する。図4は、警備装置2の機能ブロックを示す図である。警備装置2は、監視領域Eを監視センタが監視する警備セット状態と監視センタで監視しない警備解除状態との切替操作を行う警備モード切替部21と、レーザセンサ4や建物内センサ5などの各種センサからの信号の入力を受けるセンサインタフェース22、飛行ロボット3との通信を行う飛行ロボット通信部25、飛行ロボット3が撮影した画像、各種センサが検知した異常信号などについて、センタ装置6とネットワークを介して通信を行う監視センタ通信部26、警備装置2の処理に必要なプログラムや各種のデータ、パラメータなどを記憶しているROM/RAMなどの周辺部品にて構成される記憶部24、および警備装置2の全体を統括制御するCPU,MPUなどから成る警備制御部23から構成されている。 Next, the security device 2 will be described in detail with reference to FIGS. 4 and 5. FIG. 4 is a diagram illustrating functional blocks of the security device 2. The security device 2 includes a security mode switching unit 21 that performs a switching operation between a security set state monitored by the monitoring center and a security release state that is not monitored by the monitoring center, a laser sensor 4, a sensor 5 in the building, and the like. A sensor interface 22 that receives input of signals from the sensors, a flying robot communication unit 25 that communicates with the flying robot 3, images captured by the flying robot 3, abnormal signals detected by various sensors, and the like are connected to the center device 6 and the network. A monitoring center communication unit 26 for performing communication, a storage unit 24 composed of peripheral components such as ROM / RAM storing programs and various data and parameters necessary for processing of the security device 2, and security The security control unit 23 is composed of a CPU, MPU, etc. for overall control of the entire apparatus 2.

ここで、記憶部24に記憶されている情報について説明する。監視空間マップ241は、監視領域Eを3次元にて表現した情報であって、地面から飛行ロボット3の飛行に必要な程度の高さまでの監視空間を表現したマップ情報である。本実施の形態では、監視領域Eと外部を仕切る塀、建屋B、レーザセンサ4の設置位置などの予め監視空間内に存在している物体の情報が記憶されている。なお、監視空間マップ241には、建屋B内部の3次元情報も含まれており、例えば扉や窓のように人が出入り可能な場所が登録されている。更に、図1(a)に示した飛行ロボット3が不審者の逃走を俯瞰して撮影できる高高度な位置は、俯瞰位置として監視空間マップ241に予め登録されている。また、監視空間マップ241には、図2に示した建屋Bを囲む領域であって、建屋Bと接する領域である検知エリアAを予め登録されている。したがって、監視空間マップ241は、建屋Bと建屋外部を区別可能な情報となっている。なお、本実施の形態では、建屋Bと建屋外部との区別を容易にするために検知エリアAを登録しているが、検知エリアAを登録することなく、建屋Bと建屋外部との監視空間上の境界を認識することとしてもよい。   Here, information stored in the storage unit 24 will be described. The monitoring space map 241 is information that represents the monitoring area E in three dimensions, and is map information that represents the monitoring space from the ground to a height required for the flight of the flying robot 3. In the present embodiment, information of objects existing in the monitoring space in advance, such as a fence that partitions the monitoring area E from the outside, building B, and the installation position of the laser sensor 4, is stored. Note that the monitoring space map 241 also includes three-dimensional information inside the building B, and for example, places where people can enter and exit are registered, such as doors and windows. Furthermore, a high altitude position at which the flying robot 3 shown in FIG. 1A can take an image of the escape of a suspicious person is registered in advance in the monitoring space map 241 as an overhead view position. In the monitoring space map 241, a detection area A that is an area surrounding the building B shown in FIG. Therefore, the monitoring space map 241 is information that can distinguish the building B from the outdoor building. In the present embodiment, the detection area A is registered in order to facilitate the distinction between the building B and the outdoor building. However, the monitoring space between the building B and the outdoor building without registering the detection area A is registered. It is also possible to recognize the upper boundary.

建物内センサ配置情報242は、各建物内センサ5の監視場所の監視空間マップ241における位置情報である。これは、予め警備計画によって決められており、建物内センサ5ごとに監視空間マップ241上の位置が対応付けられている。 The in-building sensor arrangement information 242 is position information in the monitoring space map 241 of the monitoring location of each in-building sensor 5. This is determined in advance by a security plan, and a position on the monitoring space map 241 is associated with each in-building sensor 5.

レーザセンサパラメータ243は、レーザセンサ4の監視空間マップ241における設置位置、レーザセンサ4の検知領域における位置と監視空間マップ241上の位置との対応関係を含む情報であり、レーザセンサ4にて人物や物体を検知した位置を監視空間マップ241上の位置に変換するためのパラメータである。 The laser sensor parameter 243 is information including the installation position of the laser sensor 4 in the monitoring space map 241 and the correspondence between the position in the detection area of the laser sensor 4 and the position on the monitoring space map 241. Or a parameter for converting a position where an object is detected into a position on the monitoring space map 241.

なお、各種パラメータ244は、そのほかに警備装置2が監視領域Eを監視するために必要なセンタ装置6のIPアドレスや飛行ロボット3との通信のためのデータなど種々のパラメータである。記憶部24には、これら以外に警備装置2の機能を実現するための各種プログラムが記憶されているが図示を省略している。 The various parameters 244 are various parameters such as the IP address of the center device 6 and data for communication with the flying robot 3 necessary for the security device 2 to monitor the monitoring area E. In addition to these, various programs for realizing the functions of the security device 2 are stored in the storage unit 24, but illustration thereof is omitted.

次に、警備制御部23について詳細に説明する。なお、警備制御部23は、記憶部24には図示していないソフトウェアモジュールを読み出して、CPU等にて各処理を行うものである。 Next, the security control unit 23 will be described in detail. The security control unit 23 reads a software module (not shown) in the storage unit 24 and performs each process by the CPU or the like.

レーザセンサ解析モジュール231は、センサインタフェース22から入力されるレーザセンサ4の信号を解析処理するソフトウェアである。具体的には、レーザセンサ4がレーザー光にて検知エリアを走査した結果である探査信号を時系列に解析する。検知エリアに新たな進入物体等がなければ、時系列に入力されるレーザセンサ4の探査信号はあまり変化しないので、進入物体なしとの解析結果となる。他方、検知エリアに新たな進入物体等があれば、レーザセンサ4の探査信号に変化が生じ、変化が出た検知エリアでの位置を解析して求める。更に、記憶部24のレーザセンサパラメータ243を用いて、監視空間マップ241上の位置に変換する。 The laser sensor analysis module 231 is software for analyzing the signal of the laser sensor 4 input from the sensor interface 22. Specifically, the search signal which is the result of the laser sensor 4 scanning the detection area with laser light is analyzed in time series. If there is no new approaching object or the like in the detection area, the search signal of the laser sensor 4 input in time series does not change so much, and the analysis result indicates that there is no approaching object. On the other hand, if there is a new approaching object or the like in the detection area, the search signal of the laser sensor 4 changes, and the position in the detection area where the change has occurred is obtained by analysis. Furthermore, using the laser sensor parameter 243 in the storage unit 24, the position is converted into a position on the monitoring space map 241.

レーザセンサ解析モジュール231は、進入物体に対してラベリングを行い、位置・大きさ・移動方向を算出し、進入物体を監視空間マップ241上で追跡する。追跡にあたって、レーザセンサ解析モジュール231は、追跡している進入物体(人物)が不審者か否かを判定する不審者判定手段の機能を有している。具体的には、警備装置2が建物内センサ5にて侵入を検出した後、監視空間マップ241上の建屋Bと接している検知エリアAにて最初に出現し、建屋Bの外に移動していく進入物体を不審者であると判定する。つまり、建屋Bと接する検知エリアAで検出された進入物体であっても、建屋Bの外側の検知エリアにて既に検出され追跡されていた進入物体は不審者と判定せず、最初に建物Bと接する検知エリアAで検出され、建屋Bの外方向に移動する進入物体を不審者と判定する。これにより、建屋Bの利用者や警備員などの正当利用者を建屋Bから逃走を図る不審者と間違えることがなくなる。そして、この不審者と判定されたラベルに対して、不審者との属性を付与し、追跡を行う。また、レーザセンサ解析モジュール231の解析結果は、後述する異常判定モジュール232やロボ制御モジュール233に出力される。   The laser sensor analysis module 231 performs labeling on the approaching object, calculates the position / size / movement direction, and tracks the approaching object on the monitoring space map 241. In tracking, the laser sensor analysis module 231 has a function of a suspicious person determination unit that determines whether or not the tracked approaching object (person) is a suspicious person. Specifically, after the security device 2 detects intrusion by the in-building sensor 5, it first appears in the detection area A in contact with the building B on the monitoring space map 241 and moves outside the building B. The approaching object is determined to be a suspicious person. In other words, even if the approaching object is detected in the detection area A in contact with the building B, the approaching object that has already been detected and tracked in the detection area outside the building B is not determined as a suspicious person. The approaching object that is detected in the detection area A that touches and moves in the outward direction of the building B is determined as a suspicious person. As a result, a legitimate user such as a user of the building B or a guard is not mistaken for a suspicious person who tries to escape from the building B. Then, an attribute of the suspicious person is assigned to the label determined as the suspicious person, and tracking is performed. The analysis result of the laser sensor analysis module 231 is output to an abnormality determination module 232 and a robot control module 233 described later.

異常判定モジュール232は、警備モード切替部21からの警備セット/解除信号、建物内センサ5、レーザセンサ4からの信号を受信し、監視領域Eに異常が発生したか否かを判定する。異常判定モジュール232は、警備モード切替部21から警備セット信号を受信すると監視領域Eを警戒する警備セットモードとし、警備解除信号を受信すると監視領域Eを警戒していない警備解除モードに設定する。そして、警備解除モードでは、建物内センサ5やレーザセンサ4からの検知信号を受信しても、特段の処理は行わない。他方、警備セットモードでは、建物内センサ5やレーザセンサ4からの検知信号を受信すると異常発生と判定し、監視センタ通信部26からセンタ装置6に異常通報する。そして、建物内センサ5が侵入者を検知すると、ロボ制御モジュール233に対して飛行ロボット3の起動制御を実行する。警備装置2は、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を監視センタ通信部26からセンタ装置6に送信する処理を異常状態の解除がされるまで継続する。なお、飛行ロボット3の起動制御や、建物内センサ5の異常状態の解除方法は種々存在するが、本発明との関連性が低いので説明は省略する。 The abnormality determination module 232 receives a security set / release signal from the security mode switching unit 21 and signals from the in-building sensor 5 and the laser sensor 4 and determines whether an abnormality has occurred in the monitoring area E. When receiving the security set signal from the security mode switching unit 21, the abnormality determination module 232 sets the monitoring area E to the security set mode that warns, and when receiving the security release signal, sets the monitoring area E to the security release mode that is not warning. In the security release mode, no special processing is performed even if a detection signal from the in-building sensor 5 or the laser sensor 4 is received. On the other hand, in the security set mode, when a detection signal from the in-building sensor 5 or the laser sensor 4 is received, it is determined that an abnormality has occurred, and the monitoring center communication unit 26 notifies the center device 6 of the abnormality. When the in-building sensor 5 detects an intruder, the robot control module 233 performs start control of the flying robot 3. The security device 2 continues the process of transmitting the image taken by the flying robot 3 received from the flying robot communication unit 25 from the monitoring center communication unit 26 to the center device 6 until the abnormal state is released. There are various methods for controlling the activation of the flying robot 3 and the method for canceling the abnormal state of the in-building sensor 5, but the description thereof is omitted because it is not relevant to the present invention.

ロボ制御モジュール233は、異常判定モジュール232にて飛行ロボット3の起動信号を受けると、飛行ロボット通信部25から飛行ロボット3の飛行制御を行う。 When the robot control module 233 receives the activation signal of the flying robot 3 from the abnormality determination module 232, the robot control module 233 performs flight control of the flying robot 3 from the flying robot communication unit 25.

ここで、図5を参照してロボ制御モジュール233を詳細に説明する。図5は、ロボ制御モジュール233の機能ブロック図である。ロボ制御モジュール233は、飛行ロボット3が到達するべき目標位置を決める目標位置設定手段イと、目標位置設定手段イが設定した目標位置に到達するための飛行経路を算出する飛行経路算出手段ロと、飛行経路算出手段ロが算出した飛行経路にて飛行するように飛行ロボット3へ飛行制御信号を生成して送信するロボ制御手段ハと、飛行ロボット3の監視空間マップ241上における現在の飛行位置を算出する飛行位置算出手段ニから構成されている。 Here, the robot control module 233 will be described in detail with reference to FIG. FIG. 5 is a functional block diagram of the robot control module 233. The robot control module 233 includes target position setting means A for determining a target position to be reached by the flying robot 3, flight path calculation means RO for calculating a flight path for reaching the target position set by the target position setting means A, Robo control means C for generating and transmitting a flight control signal to the flying robot 3 so as to fly along the flight path calculated by the flight path calculation means B, and a current flight position on the monitoring space map 241 of the flying robot 3 Flight position calculating means D for calculating

目標位置設定手段イは、異常判定モジュール232、レーザセンサ解析モジュール231、画像処理モジュール234からの出力に基づいて、飛行ロボット3が飛行目標とする監視空間マップ241上の位置を目標位置として設定する。ここでは、警備セットモード中に建物内センサ5が建屋Bへの侵入を検知した場合の目標位置の設定について説明する。先ず、警備セットモード中に建物内センサ5が侵入を検知すると、記憶部24に記憶されている俯瞰位置を目標位置に設定する。その後、レーザセンサ解析モジュール231が不審者を検知すると、監視空間マップ241上の不審者を撮影できる位置を目標位置とする。不審者を撮影できる位置とは、カメラ36を不審者に向けて、かつ、不審者から所定距離以上を離れる位置をいい、例えば不審者から2m程度離れて、3m程度の高度の位置である。不審者は、逃走等のために随時移動するが、レーザセンサ解析モジュール231が追跡する。かかる追跡によって、目標位置は随時変更されることになる。 Based on outputs from the abnormality determination module 232, the laser sensor analysis module 231, and the image processing module 234, the target position setting means a sets the position on the monitoring space map 241 that the flying robot 3 sets as the flight target as the target position. . Here, the setting of the target position when the in-building sensor 5 detects intrusion into the building B during the security set mode will be described. First, when the in-building sensor 5 detects intrusion during the security set mode, the overhead position stored in the storage unit 24 is set as the target position. Thereafter, when the laser sensor analysis module 231 detects a suspicious person, a position where the suspicious person can be photographed on the monitoring space map 241 is set as a target position. The position where the suspicious person can be photographed refers to a position where the camera 36 is directed toward the suspicious person and away from the suspicious person by a predetermined distance or more, for example, a position at an altitude of about 3 m away from the suspicious person. The suspicious person moves at any time for escape or the like, but is tracked by the laser sensor analysis module 231. By such tracking, the target position is changed at any time.

図4に戻って、画像処理モジュール234は、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を処理する。 Returning to FIG. 4, the image processing module 234 processes the image captured by the flying robot 3 received from the flying robot communication unit 25.

画像処理モジュール234は、進入物体が自動車であれば、画像から自動車のナンバープレートを認識し、不審者の顔画像を抽出するなどの処理を行う。   If the approaching object is an automobile, the image processing module 234 recognizes the automobile license plate from the image, and performs processing such as extracting a suspicious person's face image.

図3に戻って、レーザセンサ4は、屋外に設置されて、監視領域Eの駐車場や建屋Bの周囲への進入を監視している。図2は、レーザセンサ4の検知エリアと建屋Bと接する検知エリアAを示した図である。同図に示すように、レーザセンサ4−1が監視領域Eの左上から建屋B方向を検知エリアとして設置され、レーザセンサ4−2が監視領域Eの右下から建屋B方向の裏手を検知エリアとするように設置されている。建屋Bと接する検知エリアAは建屋Bを囲むように設定されている。 Returning to FIG. 3, the laser sensor 4 is installed outdoors, and monitors the approach of the parking area in the monitoring area E and the surroundings of the building B. FIG. 2 is a diagram showing a detection area A of the laser sensor 4 and a detection area A that contacts the building B. As shown in the figure, the laser sensor 4-1 is installed with the building B direction from the upper left of the monitoring area E as a detection area, and the laser sensor 4-2 detects the back of the building B direction from the lower right of the monitoring area E. It is installed so that. The detection area A in contact with the building B is set so as to surround the building B.

レーザセンサ4は、予め設定された検知エリアを走査するように、放射状にレーザー光である探査信号を送信し、検知エリア内の物体に反射して戻ってきた探査信号を受信する。そして、送信と受信の時間差から物体までの距離を算出し、その探査信号を送信した方向と算出した距離を求める。 The laser sensor 4 transmits a search signal that is a laser beam in a radial manner so as to scan a preset detection area, and receives the search signal that is reflected back to the object in the detection area. Then, the distance to the object is calculated from the time difference between transmission and reception, and the direction in which the search signal is transmitted and the calculated distance are obtained.

そしてレーザセンサ4は、所定周期で検知エリアを走査した走査単位の結果を警備装置2に送信する。これにより、警備装置2のレーザセンサ解析モジュール231にて、監視領域Eにおける屋外での物体配置状況や進入物体の有無、不審者の追跡などが可能となる。本実施の形態では、地上を歩く人物や自動車の進入監視を目的としているため、水平方向に1段での走査としているが、監視目的によっては、鉛直方向にも複数段の走査をするようにしてもよい。 And the laser sensor 4 transmits the result of the scanning unit which scanned the detection area with the predetermined period to the security apparatus 2. As a result, the laser sensor analysis module 231 of the security device 2 can perform outdoor object placement in the monitoring area E, presence / absence of an entering object, tracking of a suspicious person, and the like. In this embodiment, since the purpose is to monitor the approach of a person walking on the ground or an automobile, scanning is performed in one step in the horizontal direction. However, depending on the purpose of monitoring, scanning in a plurality of steps may be performed in the vertical direction. May be.

建物内センサ5(5a〜5f)は、図1に示すように、建屋B内の各所に適宜に設置されている。例えば、窓や扉には、窓や扉の開閉を検出するマグネットセンサ、ガラス窓にガラス破壊センサ、部屋の内部に人体検出する赤外線センサ、画像にて侵入者などを検出する画像センサなど適宜の場所に設置されている。なお、建物内センサ5ごとに、監視空間マップ241上の検知箇所と対応付けて警備装置2に建物内センサ配置情報242として記憶されている。 The in-building sensors 5 (5a to 5f) are appropriately installed at various locations in the building B as shown in FIG. For example, for a window or door, a magnet sensor that detects opening or closing of the window or door, a glass breakage sensor on a glass window, an infrared sensor that detects a human body inside a room, an image sensor that detects an intruder in an image, etc. It is installed at the place. Each building sensor 5 is stored in the security device 2 as building sensor arrangement information 242 in association with a detection location on the monitoring space map 241.

ここで、警備装置2による飛行ロボット3の制御のための処理について、図7を参照して説明する。図7は、警備セットモードにおいて、建屋Bへの侵入を検知した場合における警備装置2の処理フローである。まず、建物内センサ5にて建屋Bへの侵入を検知すると、目標位置設定手段イは監視空間マップ241に設定されている俯瞰位置を目標位置に設定する(S71)。 Here, processing for controlling the flying robot 3 by the security device 2 will be described with reference to FIG. FIG. 7 is a processing flow of the security device 2 when an entry into the building B is detected in the security set mode. First, when intrusion to the building B is detected by the in-building sensor 5, the target position setting means A sets the overhead position set in the monitoring space map 241 as the target position (S71).

そして、飛行経路算出手段ロは、ステップS71にて設定された目標位置、飛行ロボット3の現在位置、監視空間マップ241を用いてA*経路探索アルゴリズムにより、飛行経路を計算する。A*経路探索アルゴリズムは、現在位置と目標位置を設定すれば、監視空間マップ241の配置状況および飛行ロボット3の大きさ等を考慮して、安全にかつ最短で到着できる経路を算出する(S72)。なお、飛行ロボット3は、起動信号を受信するまでは、所定の待機位置に所在しているので、その位置が現在位置となっている。その他のときは、飛行位置算出手段ニが、飛行ロボット3のスキャン手段383が取得したスキャンデータを受信し、このスキャンデータが監視空間マップ241に合致する場所を算出することにより、飛行ロボット3の現在位置を算出する。なお、本実施の形態では、スキャンデータに基づいて現在位置を算出しているが、これに限らず飛行ロボット3にGPS信号の受信機能を設けて、GPS信号に基づいて現在位置を算出してもよい。 Then, the flight route calculation means b calculates the flight route by the A * route search algorithm using the target position set in step S71, the current position of the flying robot 3, and the monitoring space map 241. When the current position and the target position are set, the A * route search algorithm calculates a route that can be reached safely and in the shortest in consideration of the arrangement state of the monitoring space map 241 and the size of the flying robot 3 (S72). ). Since the flying robot 3 is located at a predetermined standby position until the activation signal is received, that position is the current position. At other times, the flight position calculation means D receives the scan data acquired by the scanning means 383 of the flying robot 3 and calculates a place where the scan data matches the monitoring space map 241, thereby The current position is calculated. In the present embodiment, the current position is calculated based on the scan data. However, the present invention is not limited to this, and the flying robot 3 is provided with a GPS signal receiving function, and the current position is calculated based on the GPS signal. Also good.

ステップS73では、ロボ制御手段ハは、飛行ロボット3が飛行経路算出手段ロの算出した経路を飛行できるように、飛行ロボット3の飛行制御信号を算出する。具体的な飛行制御信号は、飛行ロボット3にある4つのロータ32のそれぞれの回転数である。そして、飛行ロボット通信部25から無線信号にて飛行制御信号を送信する。 In step S73, the robot control means C calculates the flight control signal of the flying robot 3 so that the flying robot 3 can fly along the route calculated by the flight path calculation means B. A specific flight control signal is the number of rotations of each of the four rotors 32 in the flying robot 3. Then, a flight control signal is transmitted from the flying robot communication unit 25 as a radio signal.

飛行ロボット3は、アンテナ31から飛行制御信号を受信すると、受信した飛行制御信号に基づいて飛行する。具体的には、アンテナ31から受信した飛行制御信号が飛行制御手段384に入力され、ロータ駆動部33から各ロータ32の回転数を個別に制御して飛行する。 When the flying robot 3 receives the flight control signal from the antenna 31, the flying robot 3 flies based on the received flight control signal. Specifically, the flight control signal received from the antenna 31 is input to the flight control means 384, and the number of rotations of each rotor 32 is individually controlled from the rotor drive unit 33 to fly.

ステップS74では、レーザセンサ解析モジュール231が不審者を検知したか否か判定する。レーザセンサ解析モジュール231が不審者を検知していないと、ステップS72に戻り、俯瞰位置への飛行制御を継続する。他方、レーザセンサ解析モジュール231が不審者を検知していれば、ステップS75に進む。ステップS75では、レーザセンサ解析モジュール231が不審者と判定し追跡している不審者を撮影可能な位置を目標位置設定手段イにて目標位置に設定する。不審者が移動すれば、移動にしたがって目標位置も変更されてステップS72に戻る。なお、本処理フローには記載していないが、不審者が監視領域Eから逃走すれば目標位置を俯瞰位置に戻す。本実施形態では、他の信号について記載していないが、状況に応じて飛行ロボット3を飛行制御することは言うまでもない。 In step S74, it is determined whether the laser sensor analysis module 231 has detected a suspicious person. If the laser sensor analysis module 231 has not detected the suspicious person, the process returns to step S72, and the flight control to the overhead position is continued. On the other hand, if the laser sensor analysis module 231 detects a suspicious person, the process proceeds to step S75. In step S75, the position where the laser sensor analysis module 231 determines that the person is a suspicious person and can be photographed is set as a target position by the target position setting means a. If the suspicious person moves, the target position is changed according to the movement, and the process returns to step S72. Although not described in this processing flow, if the suspicious person runs away from the monitoring area E, the target position is returned to the overhead position. Although other signals are not described in the present embodiment, it goes without saying that the flight robot 3 is flight-controlled according to the situation.

また、図7に示すフローに記載しなかったが、飛行ロボット3が最初に飛行制御信号を受信すると、カメラ制御手段382がカメラ36を起動し、撮影した画像を警備装置2に送信開始する。また、スキャン手段383が測距センサ35、高度センサ34を起動し、スキャンデータを警備装置2に送信を開始する。 Although not described in the flow shown in FIG. 7, when the flying robot 3 first receives the flight control signal, the camera control unit 382 activates the camera 36 and starts transmitting the captured image to the security device 2. In addition, the scanning unit 383 activates the distance measuring sensor 35 and the altitude sensor 34 and starts transmitting scan data to the security device 2.

なお、警備装置2は、かかる一連の処理にて取得した画像を監視センタ通信部26からセンタ装置6に送信している。 Note that the security device 2 transmits an image acquired through such a series of processes from the monitoring center communication unit 26 to the center device 6.

以上のように、監視システム1では、監視センタのモニタを監視者が視て、不審者の画像を確認することができる。 As described above, in the monitoring system 1, the monitor can monitor the monitor of the monitoring center and confirm the image of the suspicious person.

本実施の形態では、警備装置2の警備制御部23にて、飛行ロボット3をコントロールするようにしたが、警備装置2機能の全部または一部を適宜に飛行ロボット3に搭載するようにしてもよい。 In the present embodiment, the flying robot 3 is controlled by the security control unit 23 of the security device 2, but all or part of the functions of the security device 2 may be appropriately mounted on the flying robot 3. Good.

本実施の形態では、警備装置2にて飛行ロボット3の位置をスキャンデータから算出しているが、GPS信号にて位置を算出するようにしてもよい。 In the present embodiment, the position of the flying robot 3 is calculated from the scan data by the security device 2, but the position may be calculated by a GPS signal.

1・・・監視システム
2・・・警備装置(制御部)
3・・・飛行ロボット
4・・・レーザセンサ(物体センサ)
5・・・建物内センサ

1 ... Monitoring system 2 ... Security device (control unit)
3 ... Flying robot 4 ... Laser sensor (object sensor)
5 ... In-building sensor

Claims (2)

監視領域の監視空間における物体位置を計測する物体センサと、当該監視領域における建屋への侵入を検知する建物内センサと、撮影機能を有し前記監視空間を飛行できる飛行ロボットと、少なくとも前記飛行ロボットを目標位置まで飛行制御する制御部から構成される撮影システムであって、
前記制御部は、
少なくとも前記建屋と当該建屋外部とに区分して前記監視領域を表した監視空間マップを記憶する記憶部と、
前記物体センサが計測した物体位置の変化から移動物体を検出するとともに、当該移動物体を前記監視空間マップ上にて追跡する物体センサ信号解析手段と、
前記監視領域を警戒する警備セットモード中において、前記建物内センサが前記建屋への侵入を検出した後に、前記物体センサ信号解析手段にて追跡している移動物体が前記監視空間マップの当該建屋から当該建屋の外部へ移動したことを検出すると、当該移動物体を不審者と判定し、前記監視領域を警戒しない警備解除モード中においては、前記移動物体を不審者と判定しない不審者判定手段と、
前記不審者の現在位置を上空から撮影可能な位置を目標位置に設定し、前記飛行ロボットを当該目標位置に飛行させる飛行制御手段と、
前記飛行ロボットが撮影した画像を出力する出力手段と、
を具備することを特徴とした撮影システム。
An object sensor for measuring an object position in the monitoring space of the monitoring area, an in-building sensor for detecting intrusion into the building in the monitoring area, a flying robot having a photographing function and capable of flying in the monitoring space, and at least the flying robot An imaging system composed of a control unit that controls flight to a target position,
The controller is
A storage unit for storing a monitored space map showing the monitoring area is divided into at least said building and the building outside,
An object sensor signal analyzing means for detecting a moving object from a change in an object position measured by the object sensor and tracking the moving object on the monitoring space map;
During security set mode to alert the monitoring area, after the building sensor detects an intrusion into the construction shop, the moving object being tracked by the object sensor signal analyzing means the monitoring space map of the building from detects that it has moved to the outside of the building, to determine the moving object and a suspicious person, the in monitoring area not wary in security release mode, a suspicious person judging means does not determine that a suspicious individual the moving object ,
A flight control means for setting a position where the current position of the suspicious person can be photographed from the sky as a target position, and causing the flying robot to fly to the target position;
Output means for outputting an image captured by the flying robot;
An imaging system comprising:
前記飛行制御手段は、前記建物内センサが前記建屋への侵入を検出すると、当該建屋外部を俯瞰して撮影できる予め定めた俯瞰位置を目標位置に設定し、当該俯瞰位置まで飛行した上で待機飛行を継続する請求項1に記載の撮影システム。 It said flight control means, when the building sensor detects an intrusion into the construction shop, on setting the predetermined overhead positions can be taken with overhead the outside of the building to the target position, and flying to the overhead position The imaging system according to claim 1, wherein the standby flight is continued.
JP2013013815A 2013-01-29 2013-01-29 Shooting system Active JP6195447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013013815A JP6195447B2 (en) 2013-01-29 2013-01-29 Shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013013815A JP6195447B2 (en) 2013-01-29 2013-01-29 Shooting system

Publications (2)

Publication Number Publication Date
JP2014146141A JP2014146141A (en) 2014-08-14
JP6195447B2 true JP6195447B2 (en) 2017-09-13

Family

ID=51426364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013013815A Active JP6195447B2 (en) 2013-01-29 2013-01-29 Shooting system

Country Status (1)

Country Link
JP (1) JP6195447B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6441068B2 (en) * 2014-12-22 2018-12-19 セコム株式会社 Monitoring system
JP6469488B2 (en) * 2015-03-19 2019-02-13 セコム株式会社 Flight equipment
JP2017169122A (en) * 2016-03-17 2017-09-21 日本電気株式会社 Controller, monitoring system, control method, and computer program
JP6806967B2 (en) * 2016-09-29 2021-01-06 株式会社富士通エフサス Control device and control method
JP7259505B2 (en) * 2019-04-15 2023-04-18 三菱電機ビルソリューションズ株式会社 Monitoring system
JP7326860B2 (en) * 2019-05-17 2023-08-16 富士フイルムビジネスイノベーション株式会社 system, program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3985371B2 (en) * 1998-11-25 2007-10-03 三菱電機株式会社 Monitoring device
JP2004178258A (en) * 2002-11-27 2004-06-24 Mitsubishi Heavy Ind Ltd Port security system
JP2010176175A (en) * 2009-01-27 2010-08-12 Panasonic Electric Works Co Ltd Load control system
JP2010208501A (en) * 2009-03-10 2010-09-24 Mitsubishi Heavy Ind Ltd Unmanned aircraft and unmanned aircraft system
JP4907732B1 (en) * 2010-09-29 2012-04-04 セコム株式会社 Monitoring sensor

Also Published As

Publication number Publication date
JP2014146141A (en) 2014-08-14

Similar Documents

Publication Publication Date Title
JP6195447B2 (en) Shooting system
US11060873B2 (en) Emergency drone guidance device
JP6155032B2 (en) Shooting system
KR102065975B1 (en) Safety Management System Using a Lidar for Heavy Machine
EP3229214B1 (en) System and method for tracking unauthorized intruders using drones integrated with a security system
KR101700395B1 (en) Security drone and mobile security system thereof
JP6080568B2 (en) Monitoring system
JP2014192784A (en) Monitoring system
JP6172958B2 (en) Shooting system
JP2021500668A (en) Monitoring equipment, industrial equipment, monitoring methods and computer programs
KR101485022B1 (en) Object tracking system for behavioral pattern analysis and method thereof
JP6140436B2 (en) Shooting system
WO2022142973A1 (en) Robot protection system and method
JP2016139343A (en) Crime prevention system
CN111492415A (en) Unmanned aerial vehicle, control method, and program
JP6045806B2 (en) Intrusion monitoring device
JP5982273B2 (en) Shooting system
KR20210044332A (en) DRONE OPERATIN SYSTEM and METHOD for INSPECTING POWER FACILITIES
KR20170100892A (en) Position Tracking Apparatus
JP5964636B2 (en) Intrusion monitoring device
JP6163302B2 (en) Monitoring system
KR20180040255A (en) Airport robot
JP7176868B2 (en) monitoring device
KR20060003871A (en) Detection system, method for detecting objects and computer program therefor
KR101415848B1 (en) Monitering apparatus of school-zone using detection of human body and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170815

R150 Certificate of patent or registration of utility model

Ref document number: 6195447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250