JP2007315841A - Moving object detection system - Google Patents

Moving object detection system Download PDF

Info

Publication number
JP2007315841A
JP2007315841A JP2006143767A JP2006143767A JP2007315841A JP 2007315841 A JP2007315841 A JP 2007315841A JP 2006143767 A JP2006143767 A JP 2006143767A JP 2006143767 A JP2006143767 A JP 2006143767A JP 2007315841 A JP2007315841 A JP 2007315841A
Authority
JP
Japan
Prior art keywords
camera
light emitting
cameras
moving object
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006143767A
Other languages
Japanese (ja)
Other versions
JP4714078B2 (en
Inventor
Tomomi Takada
智巳 高田
Seiichi Hirai
誠一 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2006143767A priority Critical patent/JP4714078B2/en
Publication of JP2007315841A publication Critical patent/JP2007315841A/en
Application granted granted Critical
Publication of JP4714078B2 publication Critical patent/JP4714078B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving object detection system capable of easily measuring positions of a plurality of cameras for performing area monitoring, by solving the problems wherein, though there is a method for measuring beforehand the positions of the plurality of cameras by a measure or the like when performing area monitoring, measurement of each camera position is troublesome, and thereby utilization of the moving object detection system for area monitoring is often avoided. <P>SOLUTION: The system has at least three cameras 101-1 to 3 arranged on a monitoring area, three light emitting devices provided close to each camera, and a signal processing device 105 into which each output from the cameras is input, respectively. The system has a constitution wherein the signal processing device has an operation part and a storage part 106, and the storage part stores a coordinate showing a space of the monitoring area, and emission from each light emitting device is imaged by each camera, and an operation device calculates the position on each coordinate of the three light emitting devices based on light emitting position information of the three imaged light emitting devices and the coordinate showing the space of the monitoring area stored in the storage part. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、移動物体検知システムに関し、特に、移動物体の侵入位置や移動物体の移動経路を記録する移動物体検知システムに関するものである。   The present invention relates to a moving object detection system, and more particularly to a moving object detection system that records an intrusion position of a moving object and a moving path of the moving object.

TV(テレビジョン)カメラなどの撮像装置を用いた監視システムは、従来から広く用いられているが、その多くは、監視員がモニタに表示される画像を見ながら監視を行なう、いわゆる有人監視方式の監視システムである。この有人監視方式の監視システムでは、監視員が常時モニタに表示される映像を見ていて、監視対象領域内に入り込んでくる人間や自動車などの侵入物体をリアルタイムで識別する必要があり、監視員に大きな負担がかかる。人間の集中力には限りがあるため、有人監視方式の監視システムでは、侵入物体の見逃しの発生が無視できず、信頼性の面で問題があった。また、監視カメラの普及に伴なって監視員一人が数多くのTVカメラの映像を複数のモニタで監視する場合も多くなっている。このように複数のTVカメラで同時に侵入物体を捉えた場合にも監視員は、侵入物体の見逃しが発生する可能性がある。従って、このような人による監視ではなく、TVカメラで撮像された画像から画像処理により侵入物体を自動的に検出し、侵入物体の動きに応じてTVカメラ視野方向及び画角を自動的に調節し、所定の報知や警報を行う自動追尾方式の監視システムが、近年、強く要求されるようになってきている。   Surveillance systems using an imaging device such as a TV (television) camera have been widely used in the past, but many of them are so-called manned surveillance systems in which surveillance is performed while watching an image displayed on a monitor. Monitoring system. In this manned monitoring system, it is necessary for the monitor to always see images displayed on the monitor and identify intruders such as humans and cars entering the monitored area in real time. Is a heavy burden. Due to the limited human concentration, the manned monitoring system has a problem in terms of reliability, because it is not possible to ignore the occurrence of intruding objects. In addition, with the widespread use of surveillance cameras, one surveillance person often monitors the images of many TV cameras using a plurality of monitors. Thus, even when an intruding object is simultaneously captured by a plurality of TV cameras, the observer may miss the intruding object. Therefore, instead of monitoring by such a person, the intruding object is automatically detected from the image captured by the TV camera by image processing, and the viewing direction and angle of view of the TV camera are automatically adjusted according to the movement of the intruding object. However, in recent years, there has been a strong demand for an automatic tracking monitoring system that performs predetermined notification and warning.

このようなシステムの実現には、所定の監視方式を用い、侵入物体を画像信号から検出し、侵入物体の動きを検出する機能が必要となる。このような侵入物体検出を行なう監視方式の一例に差分法と呼ばれる方法(例えば、特許文献1参照)があり、従来から広く用いられている。差分法とは、TVカメラより得られた入力画像と予め作成された基準背景画像、即ち、侵入物体の写っていない画像とを比較し、例えば、画素毎に輝度値の差分を求め、その差分値の大きい領域を物体として検出するものである。   In order to realize such a system, it is necessary to have a function of detecting an intruding object from an image signal and detecting the movement of the intruding object using a predetermined monitoring method. One example of a monitoring method for detecting such an intruding object is a method called a difference method (see, for example, Patent Document 1), which has been widely used. In the difference method, an input image obtained from a TV camera is compared with a reference background image created in advance, that is, an image in which an intruding object is not captured, for example, a luminance value difference is obtained for each pixel, and the difference is obtained. A region having a large value is detected as an object.

また、侵入物体の移動量検出を行なう監視方式の一例にテンプレートマッチング法と呼ばれる方法も良く知られている。テンプレートマッチング法とは、差分法などによって検出された侵入物体の画像をテンプレートとして登録し、逐次入力される画像の中でテンプレート画像ともっとも似ている位置を検出する。通常、テンプレートマッチングを用いて対象物体を追跡する場合、対象物体の姿勢の変化に追従するため、マッチング処理によって検出された対象物体の位置の画像を新たにテンプレートとして逐次更新して、対象物体を追跡する方法である。   A method called a template matching method is also well known as an example of a monitoring method for detecting the amount of movement of an intruding object. In the template matching method, an image of an intruding object detected by a difference method or the like is registered as a template, and a position most similar to the template image is detected among images sequentially input. Normally, when tracking a target object using template matching, in order to follow the change in the posture of the target object, the image of the position of the target object detected by the matching process is sequentially updated as a template, and the target object is A way to track.

而して、監視対象エリア内の侵入物体の発見あるいは侵入物体の侵入後の移動経路の捕捉(これを動線捕捉という。)等を行う場合には、監視対象エリアを囲む様に複数のカメラを配置することが有用である。また、このような動線捕捉の技術は、デパートや百貨店あるいはイベント会場等でお客がどのような商品に興味を持ち、店内を移動しているかを分析し、商品の配列やスポット商品の展示等の分析資料に活用ができる。ここで便宜上、複数のカメラを用いて対象エリアの監視を行うことをエリア監視と称することにする。   Thus, when detecting an intruding object in the monitoring target area or capturing a movement path after the intruding object has entered (this is referred to as a flow line capturing), a plurality of cameras surround the monitoring target area. It is useful to place In addition, such flow line capture technology analyzes what products customers are interested in in department stores, department stores, event venues, etc., and analyzes the arrangement of products and the display of spot products. It can be used for analysis materials. Here, for convenience, monitoring a target area using a plurality of cameras will be referred to as area monitoring.

さて、上述のようなエリア監視を行うには、予め複数のカメラの位置を知っておく必要があるが、そのための方法として、従来、メジャー等で各カメラの位置を実測したり、予め格子状に座標を引いた床からカメラ位置を読取る等の幾つかの方法があるが、高低差を含めて位置を測定することは煩雑であり、イベント会場等で特定の日時に一時的に設置する場合や、物の配置によりカメラの位置を頻繁に変える場合等では、エリア監視のための移動物体検知システムの利用は、敬遠されることが多い。従って、あまり手間や労力を要せず、エリア監視のできる移動物体検知システムの実現が望まれている。   Now, in order to perform the area monitoring as described above, it is necessary to know the positions of a plurality of cameras in advance. As a method for that purpose, conventionally, the positions of the cameras are measured by a measure or the like, There are several methods such as reading the camera position from the floor where the coordinates are drawn, but it is complicated to measure the position including the height difference, and it is temporarily installed at a specific date and time at the event venue etc. In addition, when the position of the camera is frequently changed depending on the arrangement of objects, the use of the moving object detection system for area monitoring is often avoided. Therefore, it is desired to realize a moving object detection system that can monitor an area without requiring much labor and labor.

特開平9−73541号公報JP-A-9-73541

エリア監視を行う場合、予め複数のカメラの位置をメジャー等で実測したりする方法があるが、カメラ位置を測定することは煩雑であり、エリア監視のための移動物体検知システムの利用は、敬遠されることが多い。   When performing area monitoring, there is a method to measure the position of multiple cameras in advance with a measure, etc., but measuring the camera position is cumbersome, and the use of a moving object detection system for area monitoring is discouraged. Often done.

本発明の目的は、エリア監視を行う複数のカメラの位置を容易に計測できる移動物体検知システムを提供することである。   An object of the present invention is to provide a moving object detection system that can easily measure the positions of a plurality of cameras that perform area monitoring.

本発明の他の目的は、エリア監視を行う複数のカメラの位置を容易に変更できる移動物体検知システムを提供することである。   Another object of the present invention is to provide a moving object detection system that can easily change the positions of a plurality of cameras that perform area monitoring.

本発明の更に他の目的は、移動物体の位置あるいは動線捕捉が容易な移動物体検知システムを提供することである。   Still another object of the present invention is to provide a moving object detection system that can easily capture the position or flow line of a moving object.

本発明の移動物体検知システムは、監視エリアに配置された少なくとも第1、第2、第3のカメラと、上記それぞれのカメラに近接して設けられた第1、第2、第3の発光装置と、上記カメラの出力がそれぞれ入力される信号処理装置を有し、上記信号処理装置は、演算部と記憶部を有し、上記記憶部には、上記監視エリアの空間を表す座標が記憶され、上記それぞれの発光装置の発光を上記それぞれのカメラで撮像し、上記演算装置は、上記撮像された第1、第2、第3の発光装置の発光位置情報と上記記憶部に記憶されている上記監視エリアの空間を表す座標とに基づいて上記第1、第2、第3の発光装置の上記座標上の位置を算出するように構成される。   The moving object detection system of the present invention includes at least first, second, and third cameras disposed in a monitoring area, and first, second, and third light emitting devices provided in proximity to the respective cameras. And a signal processing device to which the output of the camera is input. The signal processing device has a calculation unit and a storage unit. The storage unit stores coordinates representing the space of the monitoring area. The light emission of each of the light emitting devices is captured by the respective cameras, and the arithmetic device is stored in the storage unit and the light emission position information of the captured first, second, and third light emitting devices. The position of the first, second, and third light emitting devices on the coordinates is calculated based on the coordinates representing the space of the monitoring area.

また、本発明の移動物体検知システムにおいて、上記発光装置を所定の時期に再度発光させると共に、上記カメラで撮像し、上記発光装置の位置を再算出し、既に算出されている上記発光装置の上記座標上の位置を修正するように構成される。   Further, in the moving object detection system of the present invention, the light emitting device is caused to emit light again at a predetermined time, is imaged with the camera, the position of the light emitting device is recalculated, and the light emitting device already calculated It is configured to correct the position on the coordinates.

また、本発明の移動物体検知システムにおいて、上記監視エリア内に上記カメラとは、別の第4と第5のカメラと第4と第5の発光装置とを具えた所定の長さを有する測定冶具を配置し、上記第1から第5の発光装置の発光を上記第1から第5のカメラで撮像し、上記演算装置は、上記第1、第2、第3の発光装置の上記座標上の位置を算出するように構成される。   Further, in the moving object detection system of the present invention, a measurement having a predetermined length provided with the fourth and fifth cameras and the fourth and fifth light emitting devices different from the camera in the monitoring area. A jig is disposed, and the first to fifth cameras emit light emitted from the first to fifth light emitting devices. The arithmetic unit is arranged on the coordinates of the first, second, and third light emitting devices. Is configured to calculate the position of.

また、本発明の移動物体検知システムにおいて、更に、上記監視エリアに入った検出対象物体を上記第1、第2、第3のカメラで撮像し、上記演算装置は、上記撮像された検出対象物体の撮像位置情報と上記記憶部に記憶されている上記監視エリアの空間を表す座標とに基づいて上記検出対象物体の上記座標上の位置を算出するように構成される。   Further, in the moving object detection system of the present invention, the detection target object that has entered the monitoring area is further imaged by the first, second, and third cameras, and the arithmetic unit is configured to capture the detected detection target object. The position of the detection target object on the coordinates is calculated based on the imaging position information and the coordinates representing the space of the monitoring area stored in the storage unit.

また、本発明の移動物体検知システムにおいて、上記監視エリアに入った検出対象物体を所定の間隔で撮像し、該撮像した検出対象物体の上記座標上の位置を算出し、記憶するように構成される。   In the moving object detection system of the present invention, the detection target object entering the monitoring area is imaged at a predetermined interval, and the position of the captured detection target object on the coordinates is calculated and stored. The

以上説明したように、本発明によれば、監視エリア内に位置される複数のカメラの位置を容易に計測することができ、また、適当な時期に再度複数のカメラの位置を計測し、先に求めたカメラ位置を容易に修正または変更することができる。更に、検出対象物体の侵入や、検出対象物体の移動の状態を時間と共に記録する動線捕捉が容易なため、監視システム以外の種々の移動物体検知システムを実現できる特徴がある。   As described above, according to the present invention, the positions of a plurality of cameras located in the monitoring area can be easily measured, and the positions of the plurality of cameras are measured again at an appropriate time. It is possible to easily correct or change the camera position obtained in the above. Furthermore, since it is easy to capture a flow line that records the intrusion of the detection target object and the movement state of the detection target object with time, there is a feature that various moving object detection systems other than the monitoring system can be realized.

本発明の一実施例を図面を用いて詳細に説明する。図1は、本発明の一実施例の概略構成のブロック図を示す。図1において、100は、侵入物体の監視空間あるいは移動物体の動線捕捉空間等を表す。以下、これらの空間を監視エリアと略称する。101−1、101−2、101−3は、カメラである。なお、カメラを代表する場合は、カメラ101と称する。この複数のカメラ101は、監視エリアに死角のないように配置される。本実施例では、3台のカメラが示されているが、監視エリアの状況に応じて3台以上のカメラを設置することもできる。また、カメラ101の詳細については後述する。102−1、102−2、102−3は、それぞれカメラ101−1、101−2、101−3を取り付ける支柱であり、その内部には、カメラ101の信号や制御信号の伝送線が配置されている。103−1、103−2、103−3は、各カメラ101−1、101−2、101−3とネットワーク伝送路104を接続する伝送線を示す。なお、ネットワーク伝送路104は、LAN(Local Area Network)、インターネットあるいは公衆回線等で構成されている。以下、伝送路104と略称する。   An embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a block diagram of a schematic configuration of an embodiment of the present invention. In FIG. 1, reference numeral 100 denotes a monitoring space for an intruding object or a movement line capturing space for a moving object. Hereinafter, these spaces are abbreviated as monitoring areas. Reference numerals 101-1, 101-2, and 101-3 denote cameras. In addition, when representing a camera, the camera 101 is referred to. The plurality of cameras 101 are arranged so that there are no blind spots in the monitoring area. In this embodiment, three cameras are shown, but three or more cameras can be installed according to the situation of the monitoring area. Details of the camera 101 will be described later. Reference numerals 102-1, 102-2, and 102-3 are columns for mounting the cameras 101-1, 101-2, and 101-3, and transmission lines for signals of the camera 101 and control signals are arranged therein. ing. Reference numerals 103-1, 103-2, and 103-3 denote transmission lines that connect the cameras 101-1, 101-2, and 101-3 to the network transmission path 104. The network transmission path 104 is configured by a LAN (Local Area Network), the Internet, a public line, or the like. Hereinafter, the transmission path 104 is abbreviated.

105は、信号処理装置であり、伝送路104に接続されている。106は、外部記憶装置、107は、キーボード等の操作部、108は、表示部である。なお、信号処理装置105、外部記憶装置106、操作部107、表示部108については、後述する。また、109は、長さ(または距離)、方位、水平を計測するための測定冶具である。この測定冶具についても後述する。110−1、110−2は、カメラを表し、上述のカメラ101と同様な構成を有している。詳細については後述する。×印で示すPは、侵入物体あるいは移動物体を表す。以下、検出対象物体Pと称する。なお、本実施例では、有線の伝送線103および伝送路104でカメラ101と信号処理装置105が接続されているが、無線で接続することもできる。   A signal processing device 105 is connected to the transmission path 104. Reference numeral 106 denotes an external storage device, 107 an operation unit such as a keyboard, and 108 a display unit. The signal processing device 105, the external storage device 106, the operation unit 107, and the display unit 108 will be described later. Reference numeral 109 denotes a measuring jig for measuring the length (or distance), azimuth, and horizontal. This measuring jig will also be described later. Reference numerals 110-1 and 110-2 denote cameras, which have the same configuration as the camera 101 described above. Details will be described later. P indicated by a cross indicates an intruding object or a moving object. Hereinafter, it is referred to as a detection target object P. In this embodiment, the camera 101 and the signal processing device 105 are connected by the wired transmission line 103 and the transmission path 104, but they can also be connected wirelessly.

図2は、図1に示す信号処理装置105、外部記憶装置106、操作部107、表示部108の具体的な構成を説明するためのブロック図である。図2において、201は、伝送路104と接続される入出力端子である。信号処理装置105は、画像入力部202、光源制御出力部203、操作入力部204、画像メモリ205、MPU(Micro Processing Unit)206、ワークメモリ207、外部入出力部208、画像出力部209、警報出力部210およびデータバス211で構成されている。212は、警報装置、例えば、警告灯である。なお、図1と同じものには同じ符号が付されている。また、外部記憶装置106は、信号処理装置105の内部に設けることもできるが、以下の説明では、外部記憶装置106として説明する。   FIG. 2 is a block diagram for explaining specific configurations of the signal processing device 105, the external storage device 106, the operation unit 107, and the display unit 108 shown in FIG. In FIG. 2, reference numeral 201 denotes an input / output terminal connected to the transmission path 104. The signal processing device 105 includes an image input unit 202, a light source control output unit 203, an operation input unit 204, an image memory 205, an MPU (Micro Processing Unit) 206, a work memory 207, an external input / output unit 208, an image output unit 209, an alarm. An output unit 210 and a data bus 211 are included. 212 is an alarm device, for example, a warning light. In addition, the same code | symbol is attached | subjected to the same thing as FIG. The external storage device 106 can also be provided inside the signal processing device 105, but will be described as the external storage device 106 in the following description.

操作部107の出力は、操作入力部204を介してデータバス211に接続されている。また、外部記憶装置106は、外部入出力部208を介してデータバス211に接続され、表示部108は、画像出力部209を介してデータバス211に接続され、警告装置212は、警報出力部210を介してデータバス211に接続されている。MPU206とワークメモリ207は、そのままデータバス211に接続されている。なお、警告装置212は、本実施例が監視システムとして使用される場合に取り付けられる装置であり、監視システム以外では不要である。   The output of the operation unit 107 is connected to the data bus 211 via the operation input unit 204. The external storage device 106 is connected to the data bus 211 via the external input / output unit 208, the display unit 108 is connected to the data bus 211 via the image output unit 209, and the warning device 212 is an alarm output unit. It is connected to the data bus 211 via 210. The MPU 206 and the work memory 207 are connected to the data bus 211 as they are. The warning device 212 is a device that is attached when the present embodiment is used as a monitoring system, and is not necessary except for the monitoring system.

カメラ101は、各カメラの位置を特定するために各カメラを撮影する機能と監視エリア100をその視野内に捉え、検出対象物体Pを撮像して映像信号を出力する機能を有している。撮像された映像信号は、入出力端子201から画像入力部202、データバス211を介して画像メモリ205に蓄積される。外部記憶装置106は、プログラムやデータなどを記憶する働きをし、プログラムやデータなどが必要に応じて外部入出力部208を介してワークメモリ207に読み込まれ、また反対にワークメモリ207から外部記憶装置106に保存される。   The camera 101 has a function of photographing each camera in order to specify the position of each camera and a function of capturing the detection target object P in the field of view and capturing a detection target object P and outputting a video signal. The captured video signal is stored in the image memory 205 from the input / output terminal 201 via the image input unit 202 and the data bus 211. The external storage device 106 functions to store programs, data, etc., and programs, data, etc. are read into the work memory 207 via the external input / output unit 208 as necessary, and vice versa. It is stored in the device 106.

MPU206は、信号処理装置105の動作時に外部記憶装置106に保存されたプログラムをワークメモリ207に読み込み、必要な信号処理を実行する。即ち、ワークメモリ207内で画像メモリ205に蓄積された画像の解析処理を行なう。そして、この処理結果に応じてMPU206は、検出対象物体Pを検出したり、検出対象物体Pの動態捕捉(または侵入物体の追跡)を行い、また、必要に応じて表示部108に検出対象物体Pを表示したり、動態捕捉を表示する。また、必要に応じて警告装置212を駆動して警告する働きをする。   The MPU 206 reads a program stored in the external storage device 106 during the operation of the signal processing device 105 into the work memory 207 and executes necessary signal processing. That is, the analysis processing of the image stored in the image memory 205 is performed in the work memory 207. Then, according to the processing result, the MPU 206 detects the detection target object P, captures the dynamics of the detection target object P (or tracks the intruding object), and displays the detection target object on the display unit 108 as necessary. P is displayed or dynamic capture is displayed. In addition, the warning device 212 is driven to warn as necessary.

図3は、カメラ101の一実施例の概略構成を示す図である。この図3に示されるカメラは、全方位カメラである。図3において、301は、例えば、金属製の凸面鏡であり、支持部材302に取り付け支持されている。凸面鏡301の頂部と対向する位置には、レンズ(図示せず)、CCD(Charge Coupled Device)、信号処理回路等を有するカメラ部303が配置されている。カメラ部303は、透明な筒体305を有し、筒体305の一端側が凸面鏡301の外周の支持体302に固定されると共に、他端側が光透過用の窓孔307を有する連結部材306を介してカメラ部303に接続されている。308は、LED(Light Emitting Diode)等で構成された発光装置である。   FIG. 3 is a diagram illustrating a schematic configuration of an embodiment of the camera 101. The camera shown in FIG. 3 is an omnidirectional camera. In FIG. 3, reference numeral 301 denotes a metal convex mirror, for example, which is attached to and supported by the support member 302. A camera unit 303 having a lens (not shown), a CCD (Charge Coupled Device), a signal processing circuit, and the like is disposed at a position facing the top of the convex mirror 301. The camera unit 303 includes a transparent cylindrical body 305, one end of the cylindrical body 305 is fixed to the support 302 on the outer periphery of the convex mirror 301, and a connecting member 306 having a light transmitting window hole 307 on the other end. Via the camera unit 303. Reference numeral 308 denotes a light emitting device constituted by an LED (Light Emitting Diode) or the like.

上記のように構成された全方位カメラ101は、カメラ部303の光軸を中心とした360度の全方位からの光が筒体305を介して凸面鏡301に当たり、カメラ部303のレンズに集光されて周方向全域の画像を取得することができる。なお、凸面鏡301の代わりに魚眼レンズを用いることもできる。   In the omnidirectional camera 101 configured as described above, light from all azimuths of 360 degrees centered on the optical axis of the camera unit 303 strikes the convex mirror 301 via the cylindrical body 305 and is condensed on the lens of the camera unit 303. Thus, an image in the entire circumferential direction can be acquired. Note that a fish-eye lens can be used instead of the convex mirror 301.

図4は、カメラ110の他の一実施例の概略構成を示す図であって、魚眼レンズを用いた全方位カメラを示している。図4において、310は、魚眼レンズであり、円筒支持部材305に取り付け支持されている。魚眼レンズ310に対向する位置には、レンズ(図示せず)、CCD(Charge Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)等の撮像装置、信号処理回路等を有するカメラ部303が配置されている。上記のように構成された全方位カメラ110は、カメラ部303の光軸を中心とした360度の全方位からの光が魚眼レンズ310で集光されて周方向全域の画像を取得することができる。311、312は、LED(Light Emitting Diode)等で構成された発光装置である。なお、図3で示す凸面鏡301で構成されたカメラ101も、また、図4に示す魚眼レンズ310を用いるカメラ110も使用形態に応じて適宜使い分けることもできる。また、図4に示す魚眼レンズ310を用いる場合は、円筒支持部材305は、透明である必要はない。また、上記実施例では、撮像装置の位置と発光装置の位置は、物理的に同じではないが、監視エリアの大きさからすれば、この程度の差異は、無視できる程度であるので、以下の説明では撮像装置の位置と発光装置の位置は、ほぼ同じ場所に位置するとして説明する。   FIG. 4 is a diagram showing a schematic configuration of another embodiment of the camera 110, and shows an omnidirectional camera using a fisheye lens. In FIG. 4, reference numeral 310 denotes a fisheye lens, which is attached to and supported by the cylindrical support member 305. A camera unit 303 having a lens (not shown), an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), a signal processing circuit, and the like is disposed at a position facing the fisheye lens 310. In the omnidirectional camera 110 configured as described above, light from all azimuths of 360 degrees centering on the optical axis of the camera unit 303 is collected by the fisheye lens 310, and an image in the entire circumferential direction can be acquired. . Reference numerals 311 and 312 denote light emitting devices composed of LEDs (Light Emitting Diodes) or the like. Note that the camera 101 configured with the convex mirror 301 shown in FIG. 3 and the camera 110 using the fisheye lens 310 shown in FIG. 4 can be appropriately used depending on the usage. In addition, when the fisheye lens 310 shown in FIG. 4 is used, the cylindrical support member 305 does not need to be transparent. Further, in the above embodiment, the position of the imaging device and the position of the light emitting device are not physically the same, but this difference is negligible based on the size of the monitoring area. In the description, it is assumed that the position of the imaging device and the position of the light emitting device are located at substantially the same place.

カメラ101、110に設けられている発光装置308、311、312は、操作部107の操作により光源制御出力部203を介して単色の場合、発光/非発行の制御が行える構成になっている。また、発光色が異なる場合には、同時に発光させることもできる。勿論、発光する色の制御も信号処理装置105の光源制御出力部203により行うことができる。なお、発光装置308、311、312は、いずれのカメラ101、110でも撮像できるように、どの方向からも見える箇所に設置される。また、カメラの複数箇所に発光装置を設置しても良い。   The light emitting devices 308, 311 and 312 provided in the cameras 101 and 110 are configured to be able to control light emission / non-issuance in the case of a single color via the light source control output unit 203 by the operation of the operation unit 107. In addition, when the emission colors are different, they can be emitted simultaneously. Of course, the light emission color can also be controlled by the light source control output unit 203 of the signal processing device 105. Note that the light emitting devices 308, 311 and 312 are installed at locations that can be seen from any direction so that any of the cameras 101 and 110 can capture images. Moreover, you may install the light-emitting device in the multiple places of a camera.

図5は、長さ(または距離)、方位、水平を計測するための測定冶具109の一実施例を示す図である。この測定冶具109は、長さ(距離)が分かるように目盛りが付されており、各カメラ101、110で撮像されたときの長さが撮像画像から分かるようになされている。本実施例では、300cmの長さのメジャーとして使用できる。この冶具109には、一定間隔毎にカメラ110を取り付けるための螺子穴501が設けられ、例えば、0cmの位置にカメラ110−1が設置され、300cmの位置にカメラ110−2が固定されるようになされている。従って、この場合のカメラ110−1とカメラ110−2との間の距離は、300cmとなる。また、この測定冶具109には、測定冶具109の方位を求めるための方位計(方位磁石)または方位センサ502および測定冶具109の水平度を計測する水準器センサ503が設けられている。これら方位センサ502および水準器センサ503は、後述する監視エリアを直交座標表示する場合のX軸、Y軸、Z軸の校正用に使用される。   FIG. 5 is a diagram showing an embodiment of the measurement jig 109 for measuring the length (or distance), the azimuth, and the horizontal. The measuring jig 109 is graduated so that the length (distance) can be understood, and the length when captured by the cameras 101 and 110 can be understood from the captured image. In this embodiment, it can be used as a measure having a length of 300 cm. The jig 109 is provided with screw holes 501 for attaching the camera 110 at regular intervals. For example, the camera 110-1 is installed at a position of 0 cm, and the camera 110-2 is fixed at a position of 300 cm. Has been made. Accordingly, the distance between the camera 110-1 and the camera 110-2 in this case is 300 cm. Further, the measuring jig 109 is provided with an azimuth meter (azimuth magnet) or azimuth sensor 502 for determining the azimuth of the measuring jig 109 and a level sensor 503 for measuring the level of the measuring jig 109. These azimuth sensor 502 and level sensor 503 are used for calibration of the X-axis, Y-axis, and Z-axis when displaying a monitoring area to be described later in orthogonal coordinates.

次に、本発明の動作について説明する。まず、監視エリア100に配置されたカメラ101−1、101−2および101−3の位置を求める方法について説明する。まず、測定冶具109が監視エリア100の、例えば、床の上に配置する。そして、各カメラ装置101−1、101−2、101−3、110−1、110−2を順次発光させ、各カメラで撮像し、各カメラの位置を求める。これについて図6〜図8を用いて更に詳細に説明する。   Next, the operation of the present invention will be described. First, a method for obtaining the positions of the cameras 101-1, 101-2, and 101-3 arranged in the monitoring area 100 will be described. First, the measurement jig 109 is placed on the monitoring area 100, for example, on the floor. And each camera apparatus 101-1, 101-2, 101-3, 110-1, 110-2 is light-emitted sequentially, and it images with each camera and calculates | requires the position of each camera. This will be described in more detail with reference to FIGS.

図6は、各カメラ101−1、101−2、101−3、110−1、110−2および測定冶具109の配置関係を示した図である。   FIG. 6 is a diagram illustrating an arrangement relationship between the cameras 101-1, 101-2, 101-3, 110-1, 110-2 and the measurement jig 109.

図6において、θ1〜θ9およびD1〜D6の求め方について説明する。まず、カメラ101−1、カメラ110−1および110−2で形成される3角形の2辺の長さD1とD2は、次式で示される。   In FIG. 6, how to obtain θ1 to θ9 and D1 to D6 will be described. First, the lengths D1 and D2 of the two sides of the triangle formed by the camera 101-1 and the cameras 110-1 and 110-2 are expressed by the following equations.

D1=Lsinθ3/sin(θ2+θ3)・・・・・・・・・・・・・(1)
D2=Lsinθ2/sin(θ2+θ3)・・・・・・・・・・・・・(2)
ここで、Lは、カメラ110−1および110−2の間の距離、即ち、測定冶具109の長さを表す。従って、D1およびD2を求めるには、角度θ2およびθ3を計測すればよいことが分かる。
D1 = Lsinθ3 / sin (θ2 + θ3) (1)
D2 = Lsinθ2 / sin (θ2 + θ3) (2)
Here, L represents the distance between the cameras 110-1 and 110-2, that is, the length of the measurement jig 109. Therefore, it can be understood that the angles θ2 and θ3 may be measured in order to obtain D1 and D2.

次に、角度θ2およびθ3の求め方について、図7を用いて説明する。図7(A)は、角度θ1の求め方を説明するための図であり、直交座標軸(X、Y、Z)と単位極面701を示している。ここで、単位極面とは、原点との距離1、例えば、半径1mの極面をいう。図7(B)は、カメラで撮影された画像の説明のための図である。図7(B)において、710は、全方位カメラで撮像した場合の画像データを表わす。本実施例では、一般のカメラと同様に撮像データ710は、長方形となる。そして、全方位カメラの凸面鏡またはレンズ等を介した撮像では、有効な画像情報は、711で示されるような円形状となる。この円形状画像データ711を図7(A)の単位極面701上に変換テーブルを用いて写像する。なお、円形状画像データ711から単位球面701上への写像は、全方位カメラの凸面鏡またはレンズ等の特性により異なるため、予め実機で測定し、変換テーブルを作成し、外部記録装置106に記憶しておく。   Next, how to obtain the angles θ2 and θ3 will be described with reference to FIG. FIG. 7A is a diagram for explaining how to obtain the angle θ 1, and shows the orthogonal coordinate axes (X, Y, Z) and the unit pole surface 701. Here, the unit pole face refers to a pole face having a distance 1 from the origin, for example, a radius of 1 m. FIG. 7B is a diagram for explaining an image photographed by the camera. In FIG. 7B, reference numeral 710 represents image data when captured by an omnidirectional camera. In the present embodiment, the image data 710 is rectangular as in a general camera. Then, in imaging through a convex mirror or lens of an omnidirectional camera, effective image information has a circular shape as indicated by 711. This circular image data 711 is mapped onto the unit pole surface 701 in FIG. 7A using a conversion table. Since the mapping from the circular image data 711 onto the unit spherical surface 701 differs depending on the characteristics of the convex mirror or lens of the omnidirectional camera, it is measured in advance with an actual machine, a conversion table is created, and stored in the external recording device 106. Keep it.

この状態で、操作者が操作部107を操作して光源制御出力部203から発光指令をカメラ110−1の発光装置、例えば、発光装置311に送り、発光させる。このカメラ110−1の発光装置311の発光をカメラ101−1が撮像し、その時のカメラ101−1とカメラ110−1を結ぶ線分と単位極面701との交点M1(Xm1、Ym1、Zm1)をMPU206で演算により求める。次に、カメラ110−2の発光装置311を、上記と同様に発光させ、その時のカメラ101−1とカメラ110−2を結ぶ線分と単位極面701との交点M2(Xm2、Ym2、Zm2)をMPU206で演算により求める。その結果、点M1、カメラ101−1、点M2のなす角度θ1は、次式(3)の内積計算により求めることができる。   In this state, the operator operates the operation unit 107 to send a light emission command from the light source control output unit 203 to the light emitting device of the camera 110-1, for example, the light emitting device 311 to emit light. The light emitted from the light emitting device 311 of the camera 110-1 is imaged by the camera 101-1, and the intersection M1 (Xm1, Ym1, Zm1) of the line segment connecting the camera 101-1 and the camera 110-1 and the unit polar surface 701 at that time is captured. ) Is calculated by the MPU 206. Next, the light emitting device 311 of the camera 110-2 is caused to emit light in the same manner as described above, and the intersection M2 (Xm2, Ym2, Zm2) between the line segment connecting the camera 101-1 and the camera 110-2 and the unit pole surface 701 at that time. ) Is calculated by the MPU 206. As a result, the angle θ1 formed by the point M1, the camera 101-1, and the point M2 can be obtained by calculating the inner product of the following equation (3).

cosθ1=Xm1Xm2+Ym1Ym2+Zm1Zm2・・・・・・(3)
同様に、角度θ2は、カメラ101−1の発光装置308を発光させ、次にカメラ110−2の発光装置311を発光させ、カメラ110−1が撮像し、原点を110−1とした単位極面701上の交点をMPU206で演算により求めると、上述した角度θ1と同様に角度θ2が求まる。同様に、カメラ101−1とカメラ110−1の発光装置を発光させ、カメラ110−2が撮像し、原点を110−2とした単位極面701を用いてθ3も求めることができる。θ3は、また、次式でも求めることができる。
cosθ1 = Xm1Xm2 + Ym1Ym2 + Zm1Zm2 (3)
Similarly, the angle θ2 causes the light emitting device 308 of the camera 101-1 to emit light, then causes the light emitting device 311 of the camera 110-2 to emit light, the camera 110-1 takes an image, and the origin is 110-1. When the intersection point on the surface 701 is obtained by calculation with the MPU 206, the angle θ2 is obtained in the same manner as the angle θ1 described above. Similarly, the light emitting devices of the camera 101-1 and the camera 110-1 are caused to emit light, the camera 110-2 captures an image, and θ3 can also be obtained using the unit pole surface 701 with the origin as 110-2. θ3 can also be obtained by the following equation.

θ3=180−(θ1+θ2)・・・・・・・・・・・・・・・・(4)
上記のような方法で、全方位カメラ101−1、110−1、110−2で構成される三角形の角度θ1、θ2、θ3および上記(1)(2)式から長さ(距離)D1、D2が求まる。同様に、図6で示す全方位カメラ101−2、110−1、110−2で構成される三角形の角度θ4、θ5、θ6、長さ(距離)D3、D4が求まる。また、同様に、全方位カメラ101−3、110−1、110−2で構成される三角形の角度θ7、θ8、θ9、長さ(距離)D5、D6も求まる。
θ3 = 180− (θ1 + θ2) (4)
By the method as described above, the angles (distances) D1 of the angles θ1, θ2, θ3 of the triangles constituted by the omnidirectional cameras 101-1, 110-1, 110-2 and the above expressions (1) and (2), D2 is obtained. Similarly, angles [theta] 4, [theta] 5, [theta] 6 and lengths (distances) D3, D4 of the triangle formed by the omnidirectional cameras 101-2, 110-1, 110-2 shown in FIG. 6 are obtained. Similarly, the angles θ7, θ8, θ9 and the lengths (distances) D5, D6 of the triangle constituted by the omnidirectional cameras 101-3, 110-1, 110-2 are also obtained.

次に、監視エリア100にそれぞれ設置された全方位カメラ101−1、101−2および101−3の位置の求め方について説明する。まず、全方位カメラ101−1、101−2および101−3の位置を特定するための直交座標(X軸、Y軸、Z軸)を図8で示すように定める。図8において、直交座標(X、Y、Z)の原点を測定冶具109に設けられた全方位カメラ110−1の位置とし、測定冶具109を含む平面をX軸−Y軸平面と定めている。従って、このX軸−Y軸平面に垂直な方向がZ軸となる。なお、座標(X、Y、Z)の設定には、前述した測定冶具109に設けられている方位センサ502および水準器センサ503によって、例えば、X軸は、南北方向に一致させ、X軸−Y軸平面は、水平になるように直交座標(X、Y、Z)を定めておく。これらの設定は、いずれも操作部107からの設定入力によりMPU206で演算され、前もって外部記憶装置106に記憶されている。なお、上記実施例では、直交座標(X、Y、Z)の原点を全方位カメラ110−1の位置として説明したが、これに限られるものではなく、適宜設定することができることはいうまでもない。   Next, how to determine the positions of the omnidirectional cameras 101-1, 101-2, and 101-3 installed in the monitoring area 100 will be described. First, orthogonal coordinates (X axis, Y axis, Z axis) for specifying the positions of the omnidirectional cameras 101-1, 101-2, and 101-3 are determined as shown in FIG. In FIG. 8, the origin of orthogonal coordinates (X, Y, Z) is the position of the omnidirectional camera 110-1 provided in the measurement jig 109, and the plane including the measurement jig 109 is defined as the X-axis-Y-axis plane. . Therefore, the direction perpendicular to the X-axis / Y-axis plane is the Z-axis. In setting the coordinates (X, Y, Z), for example, the azimuth sensor 502 and the level sensor 503 provided in the measurement jig 109 described above are used to make the X axis coincide with the north-south direction. Orthogonal coordinates (X, Y, Z) are determined so that the Y-axis plane is horizontal. These settings are all calculated by the MPU 206 by setting input from the operation unit 107 and stored in the external storage device 106 in advance. In the above embodiment, the origin of the Cartesian coordinates (X, Y, Z) has been described as the position of the omnidirectional camera 110-1. However, the present invention is not limited to this and can be set as appropriate. Absent.

さて、上記のように設定すると、図6に示す各全方位カメラの座標は、以下に説明するように容易に求めることができる。図8において、点M1(Xm1、Ym1、Zm1)、M2(Xm2、Ym2、Zm2)、M3(Xm3、Ym3、Zm3)、M4(1、0、0)は、それぞれ全方位カメラ101−1、101−2、101−3、110−2の発光装置を発光させ、その発光をカメラ110−1で撮像した結果を単位極面801上に写像した点を示す。なお、点M4は、X軸上の点であるので、X、Y、Z座標は、(1、0、0)である。ここで、距離D1、D3、D5は、既に説明した方法で求められ、また、距離Lは、予め分かっている。そして、点M1、M2、M3、M4は、単位極面801上の点であり、原点との距離は、1であり、単位ベクトルとみなせる。従って、各全方位カメラの座標は、単位ベクトル×距離で求めることができる。即ち、
カメラ101−1の位置(X1,Y1,Z1)=(D1×Xm1, D1×Ym1, D1×Zm1)・・(5)
カメラ101−2の位置(X2,Y2,Z2)=(D3×Xm2, D3×Ym2, D3×Zm2)・・(6)
カメラ101−3の位置(X3,Y3,Z3)=(D5×Xm3, D5×Ym3, D5×Zm3)・・(7)
カメラ110−2の位置(X4,Y4,Z4)=(L, 0, 0)・・・・・・・・・・・(8)
以上の方法で監視エリアに位置する全方位カメラの位置を求めることができる。そして、上記のようにして求めた全方位カメラ101−1の位置(X1、Y1、Z1)、全方位カメラ101−2の位置(X2、Y2、Z2)および全方位カメラ101−3の位置(X3、Y3、Z3)を外部記憶装置106に記憶する。
Now, when set as described above, the coordinates of each omnidirectional camera shown in FIG. 6 can be easily obtained as described below. In FIG. 8, points M1 (Xm1, Ym1, Zm1), M2 (Xm2, Ym2, Zm2), M3 (Xm3, Ym3, Zm3), M4 (1, 0, 0) are respectively omnidirectional cameras 101-1, The point which light-emitted the light-emitting device of 101-2, 101-3, and 110-2 and imaged the light emission with the camera 110-1 on the unit pole surface 801 is shown. Since the point M4 is a point on the X axis, the X, Y, and Z coordinates are (1, 0, 0). Here, the distances D1, D3, and D5 are obtained by the method described above, and the distance L is known in advance. Points M1, M2, M3, and M4 are points on the unit pole surface 801, and the distance from the origin is 1, which can be regarded as a unit vector. Therefore, the coordinates of each omnidirectional camera can be obtained by unit vector × distance. That is,
Position of camera 101-1 (X1, Y1, Z1) = (D1 × Xm1, D1 × Ym1, D1 × Zm1) (5)
Camera 101-2 position (X2, Y2, Z2) = (D3 × Xm2, D3 × Ym2, D3 × Zm2) (6)
Position of camera 101-3 (X3, Y3, Z3) = (D5 x Xm3, D5 x Ym3, D5 x Zm3) (7)
Camera 110-2 position (X4, Y4, Z4) = (L, 0, 0) (8)
The position of the omnidirectional camera located in the monitoring area can be obtained by the above method. Then, the position (X1, Y1, Z1) of the omnidirectional camera 101-1, the position (X2, Y2, Z2) of the omnidirectional camera 101-2, and the position of the omnidirectional camera 101-3 (as described above) X3, Y3, Z3) are stored in the external storage device 106.

以上、説明したように本発明では、検出対象物体Pを検出する監視エリア内に全方位カメラ101−1、101−2および101−3を設置し、そして、全方位カメラ110−1および110−2を備えた測定冶具109をこの監視エリア内に置く。次に、それぞれの全方位カメラに備えられた発光装置を順次発光させ、この発光を全方位カメラ101、110で順次撮像することにより監視エリア内に配置された全方位カメラ101−1、101−2および101−3の位置(発光装置の位置とほぼ同じ位置)を求めることができる。なお、上記実施例では、各カメラ101および110を順次発光させる場合について説明したが、各カメラ101および110の発光装置が異なる色を発光するように構成することもできる。例えば、カメラ101−1の発光装置は、赤色に発光し、カメラ101−2の発光装置は、オレンジ色に発光する。カメラ101−3の発光装置は、緑色に発光し、カメラ110−1の発光装置は、水色に発光し、カメラ110−2の発光装置は、青色に発光する等である。このような場合には、それぞれの発光装置が同じタイミングで発光しても全方位カメラでは、発光装置毎に異なる色で撮像できるので、MPU206では、発光位置を区別できる。従って、この方法で全方位カメラの位置を求めることもできる。また、このように同じタイミングで発光装置を発光させる場合には、全方位カメラの位置を短時間で求められ、移動物体検知システムを早く動作させることができる特徴がある。   As described above, in the present invention, the omnidirectional cameras 101-1, 101-2, and 101-3 are installed in the monitoring area where the detection target object P is detected, and the omnidirectional cameras 110-1 and 110- A measuring jig 109 with 2 is placed in this monitoring area. Next, the light emitting devices provided in the respective omnidirectional cameras are caused to emit light sequentially, and the emitted light is sequentially imaged by the omnidirectional cameras 101 and 110, whereby the omnidirectional cameras 101-1 and 101- arranged in the monitoring area. The positions 2 and 101-3 (substantially the same position as the position of the light emitting device) can be obtained. In the above embodiment, the case where the cameras 101 and 110 emit light sequentially has been described, but the light emitting devices of the cameras 101 and 110 may be configured to emit different colors. For example, the light emitting device of the camera 101-1 emits red light, and the light emitting device of the camera 101-2 emits orange light. The light emitting device of the camera 101-3 emits green light, the light emitting device of the camera 110-1 emits light blue, the light emitting device of the camera 110-2 emits blue light, and so on. In such a case, even if each light emitting device emits light at the same timing, the MPU 206 can distinguish the light emitting position because the omnidirectional camera can capture images with different colors for each light emitting device. Therefore, the position of the omnidirectional camera can be obtained by this method. In addition, when the light emitting device emits light at the same timing as described above, the position of the omnidirectional camera can be obtained in a short time, and the moving object detection system can be operated quickly.

なお、上記のようにして全方位カメラ101−1、101−2、101−3の座標(X、Y、Z)位置が求められると、測定冶具109および測定冶具に取り付けられた全方位カメラ110−1、110−2は、監視エリアから取り去ってもよい。即ち、全方位カメラ101−1、101−2、101−3の監視エリア100内の位置座標が明確になっているので、監視エリア内に入ってくる検出対象物体Pを検出することができる。なお、上記実施例では、全方位カメラ101が3台の場合について説明したが、3台以上の全方位カメラ101を用いることもできる。   When the coordinate (X, Y, Z) positions of the omnidirectional cameras 101-1, 101-2, and 101-3 are obtained as described above, the measurement jig 109 and the omnidirectional camera 110 attached to the measurement jig are used. -1, 110-2 may be removed from the monitoring area. That is, since the position coordinates in the monitoring area 100 of the omnidirectional cameras 101-1, 101-2, and 101-3 are clear, the detection target object P that enters the monitoring area can be detected. In the above-described embodiment, the case where there are three omnidirectional cameras 101 has been described. However, three or more omnidirectional cameras 101 may be used.

また、上記のように構成された状態で、何らかの原因、例えば、監視エリア100内の展示物の模様替えにより1台の全方位カメラ、例えば、全方位カメラ101−1を移動する必要が生じた場合、全方位カメラ101−1を移動したとしても、他の2台の全方位カメラ101−2および101−3は、前の位置を保持しているので、再度、全方位カメラ101−1(移動したカメラ)、101−2、101−3の発光装置308を発光させ、全方位カメラで撮像することで、移動した全方位カメラ101−1の位置を求めることができる。即ち、全方位カメラ101−2と101−3との間の距離は、変更されていないので、前述と同様に求めることができる。このように監視エリア100内に位置された全方位カメラ101の位置を一旦求めておくと、その位置を変更することも容易に実施できる特徴がある。   In addition, in the state configured as described above, when there is a need to move one omnidirectional camera, for example, the omnidirectional camera 101-1, due to some reason, for example, redesign of an exhibit in the monitoring area 100 Even if the omnidirectional camera 101-1 is moved, the other two omnidirectional cameras 101-2 and 101-3 hold the previous positions. The position of the moved omnidirectional camera 101-1 can be obtained by causing the light emitting devices 308 of 101-2 and 101-3 to emit light and capturing images with the omnidirectional camera. That is, since the distance between the omnidirectional cameras 101-2 and 101-3 is not changed, it can be obtained in the same manner as described above. Thus, once the position of the omnidirectional camera 101 located in the monitoring area 100 is obtained, the position can be easily changed.

更に、上記実施例では、1つの全方位カメラを移動させた場合、再度、全方位カメラ101の発光装置308を発光させて、移動した全方位カメラ101の位置を求める場合について説明したが、例えば、全方位カメラ101の発光装置308を定期的、例えば、1回/2時間の割合で発光させ、全方位カメラ101で撮像された画像を従来周知の背景差分法等で、過去の画像と比較し、全方位カメラ101の移動距離が一定の距離、例えば、30cmの閾値を超えた場合、全方位カメラ101が移動した可能性があるとして先に外部記憶装置106に登録された位置を修正、再登録することもできる。   Further, in the above embodiment, when one omnidirectional camera is moved, the light emitting device 308 of the omnidirectional camera 101 is caused to emit light again to obtain the position of the moved omnidirectional camera 101. The light emitting device 308 of the omnidirectional camera 101 emits light periodically, for example, at a rate of once every 2 hours, and an image captured by the omnidirectional camera 101 is compared with a past image by a conventionally known background subtraction method or the like. Then, when the moving distance of the omnidirectional camera 101 exceeds a certain distance, for example, a threshold of 30 cm, the position registered in the external storage device 106 as the possibility that the omnidirectional camera 101 has moved is corrected. You can also re-register.

次に、本発明の他の一実施例を図9を用いて説明する。図9は、検出対象物体Pの侵入および動線捕捉を示す図である。図9において、監視エリア100で示す座標(X、Y、Z)内に全方位カメラの位置を101−1、101−2および101−3で示してある。これら全方位カメラの位置101−1、101−2および101−3は、上記実施例で説明した方法で計測および演算で前もって求め、外部記憶装置106に記憶されている。そして、各全方位カメラ101−1、101−2および101−3は、監視エリア100内を常時撮像している(監視状態にある。)。この状態で検出対象物体Pが監視エリア100に侵入すると、各全方位カメラ101−1、101−2および101−3は、検出対象物体Pを撮像し、それぞれの撮像画像を画像メモリー205に記憶する。なお、検出対象物体Pは、人であったり、車であったり、動物等であるが、ここでは説明の都合上、例えば、検出対象物体Pは、人であり、人の重心の位置を検出対象物体Pとして示してある。また、検出対象物体Pの認識は、従来技術でも説明した差分法と呼ばれる方法あるいはテンプレートマッチング法等の方法があるが、それらの詳細は、既に良く知られているので、詳細な説明は省略する。   Next, another embodiment of the present invention will be described with reference to FIG. FIG. 9 is a diagram illustrating intrusion of the detection target object P and flow line capture. In FIG. 9, the positions of the omnidirectional cameras are indicated by 101-1, 101-2, and 101-3 in the coordinates (X, Y, Z) indicated by the monitoring area 100. The positions 101-1, 101-2, and 101-3 of these omnidirectional cameras are obtained in advance by measurement and calculation by the method described in the above embodiment, and are stored in the external storage device 106. And each omnidirectional camera 101-1, 101-2, and 101-3 is always imaging the inside of the monitoring area 100 (it is in the monitoring state). When the detection target object P enters the monitoring area 100 in this state, each of the omnidirectional cameras 101-1, 101-2, and 101-3 images the detection target object P and stores each captured image in the image memory 205. To do. Note that the detection target object P is a person, a car, an animal, or the like. For convenience of explanation, for example, the detection target object P is a person and detects the position of the center of gravity of the person. It is shown as a target object P. In addition, the recognition of the detection target object P includes a method called a difference method or a template matching method described in the prior art, and details thereof are already well known, and detailed description thereof is omitted. .

さて、画像メモリー205に記憶された検出対象物体Pは、MPU206で、既に外部記憶装置106に記憶されている監視エリア100内の各全方位カメラ101−1、101−2および101−3の位置とから検出対象物体Pの位置を算出し、算出した検出対象物体Pの位置を外部記憶装置106に記憶する。ここで、検出対象物体Pの位置の算出方法を簡単に説明する。まず、全方位カメラ101−1で検出対象物体Pを撮像する。全方位カメラ101−1と全方位カメラ101−2の位置座標は、既に登録されているので、線分D7の位置と長さ(距離)は、明らかになっている。従って、線分D7と線分D8とのなす角θ10は、MPU206の演算により求めることができる。同様に、全方位カメラ101−2で検出対象物体Pを撮像すると、線分D7と線分D9とのなす角θ11もMPU206の演算により求めることができる。従って、線分D7の距離が既知であるので、線分D8および線分D9の距離は、MPU206の演算により求めることができる。その結果、検出対象物体Pの監視エリア100内の検出対象物体Pの位置(Xp、Yp、Zp)は、MPU206の演算により求めることができる。   The detection target object P stored in the image memory 205 is the position of each omnidirectional camera 101-1, 101-2, and 101-3 in the monitoring area 100 already stored in the external storage device 106 by the MPU 206. Then, the position of the detection target object P is calculated, and the calculated position of the detection target object P is stored in the external storage device 106. Here, a method for calculating the position of the detection target object P will be briefly described. First, the detection target object P is imaged by the omnidirectional camera 101-1. Since the position coordinates of the omnidirectional camera 101-1 and the omnidirectional camera 101-2 are already registered, the position and length (distance) of the line segment D7 are clear. Therefore, the angle θ10 formed by the line segment D7 and the line segment D8 can be obtained by calculation of the MPU 206. Similarly, when the detection target object P is imaged by the omnidirectional camera 101-2, the angle θ11 formed by the line segment D7 and the line segment D9 can also be obtained by the calculation of the MPU 206. Therefore, since the distance of the line segment D7 is known, the distance between the line segment D8 and the line segment D9 can be obtained by the calculation of the MPU 206. As a result, the position (Xp, Yp, Zp) of the detection target object P within the monitoring area 100 of the detection target object P can be obtained by calculation of the MPU 206.

このようにして検出対象物体Pの位置(Xp、Yp、Zp)が検出されると、移動物体検知システムは、検出対象物体Pの監視を開始し、検出対象物体Pが、例えば、進入禁止対象地域に侵入したとすると、警報出力部210を駆動し、警報機211を鳴動し、侵入者ありの警報を鳴らすと同時に、表示部108に検出対象物体Pの位置を表示する。   When the position (Xp, Yp, Zp) of the detection target object P is detected in this manner, the moving object detection system starts monitoring the detection target object P, and the detection target object P is, for example, an entry prohibition target. Assuming that the vehicle has entered the area, the alarm output unit 210 is driven, the alarm 211 is sounded, an alarm with an intruder is sounded, and at the same time the position of the detection target object P is displayed on the display unit 108.

更に、各全方位カメラ101−1、101−2および101−3は、検出対象物体Pの撮像を続けると共に、所定時間毎、例えば、5分間隔毎に検出対象物体Pの位置を、上記と同様の方法で算出し、外部記憶装置106に記憶すると共に、表示部108に表示する。このようにすると検出対象物体Pの5分毎の移動位置P1、P2、P3、・・・が操作者に把握される。即ち、検出対象物体Pの侵入位置および検出対象物体Pの動き(動線捕捉)を監視することができる。また、上述した移動物体検知システムは、監視カメラシステムに限らず種々の応用が可能となる。以下にそれについて説明する。   Further, each of the omnidirectional cameras 101-1, 101-2, and 101-3 continues to image the detection target object P, and sets the position of the detection target object P every predetermined time, for example, every 5 minutes. It is calculated by the same method, stored in the external storage device 106, and displayed on the display unit 108. In this way, the operator knows the movement positions P1, P2, P3,... Of the detection target object P every 5 minutes. That is, the intrusion position of the detection target object P and the movement (flow line capture) of the detection target object P can be monitored. The moving object detection system described above is not limited to the monitoring camera system, and can be applied in various ways. This will be described below.

図10は、本発明の更に他の一実施例を説明するめの図である。図10において、1001は、例えば、デパートの1階のフロアーの平面図を示している。1002は、入口、1003は、出口であり、A、B、C、・・・・Nは、各種商品を展示した展示テーブルである。101−1、101−2、101−3は、それぞれデパートの1階のフロアーの天井に設置された全方位カメラを示している。そして、このデパートの1階のフロアーの平面図と展示テーブルA、B、C、・・・・Nと各種商品の位置が前もって外部記憶装置106に記憶されている。勿論、全方位カメラ101−1、101−2、101−3が設置された時点で、前述の方法で、まず、全方位カメラ110−1および110−2を備えた測定冶具109を前もって床に設置して、全方位カメラ101−1、101−2、101−3の監視エリア100内の位置を計測および演算し求め、外部記憶装置106に記憶している。この状態でデパートが開店と同時に買い物客の撮像を開始する。図10では、買い物客N1とN2の二人の動線捕捉を示している。即ち、買い物客N1の所定時間毎の位置を○印で、また、買い物客N2の所定時間毎の位置を×印で示している。このように、買い物客N1とN2の二人の動線捕捉を記録し、管理者がこれを分析することによって、買い物客が関心を持つ商品が何かを分析したり、これら動線捕捉情報から商品の配置を検討したりすることができる。   FIG. 10 is a view for explaining still another embodiment of the present invention. In FIG. 10, reference numeral 1001 denotes a plan view of the first floor of the department store, for example. 1002 is an entrance, 1003 is an exit, and A, B, C,... N are exhibition tables displaying various products. Reference numerals 101-1, 101-2, and 101-3 denote omnidirectional cameras installed on the ceiling of the first floor of the department store. The floor plan of the first floor of the department store, the display tables A, B, C,... N, and the positions of various products are stored in the external storage device 106 in advance. Of course, when the omnidirectional cameras 101-1, 101-2, and 101-3 are installed, the measurement jig 109 equipped with the omnidirectional cameras 110-1 and 110-2 is first placed on the floor in the manner described above. It is installed, and the positions in the monitoring area 100 of the omnidirectional cameras 101-1, 101-2, and 101-3 are measured and calculated and stored in the external storage device 106. In this state, the department store starts imaging the shopper as soon as the store opens. In FIG. 10, the flow line capture of two people of the shoppers N1 and N2 is shown. That is, the position of the shopper N1 every predetermined time is indicated by a circle, and the position of the shopper N2 every predetermined time is indicated by a cross. In this way, the flow line captures of the two shoppers N1 and N2 are recorded, and the administrator analyzes this to analyze what the shopper is interested in. The arrangement of the product can be examined.

なお、本実地例では、各カメラの発光量は一定で説明したが、発光装置の発光量を操作部107で調節するようにし、発光量別に各カメラで撮像するようにすれば、測定時間は長くなるが、測定精度を高くすることも可能である。更に、本実地例では、全方位カメラを凸面鏡または魚眼レンズの実施例で説明したが、他のカメラとの間の角度が算出できるようなカメラ、例えば、旋回式カメラ、あるいは方向毎に撮像できる多眼式のカメラのようなカメラでもよい。また、上記実施例では、カメラを備えた測定冶具により長さを測定する方法について説明したが、例えば、カメラ101のいずれか2台の間の距離と設置の高さが計測できる場合は、特にカメラを備えた測定冶具を監視エリア内に設ける必要はない。例えば、デパートのフロアの両端部の天井に2台のカメラを設けている場合等は、フロアの両端部の距離および高さが前もって分かっているので、カメラを備えた測定冶具は不要である。   In this practical example, the light emission amount of each camera is described as being constant. However, if the light emission amount of the light emitting device is adjusted by the operation unit 107 and each camera captures an image according to the light emission amount, the measurement time is Although it becomes longer, it is possible to increase the measurement accuracy. Furthermore, in this practical example, the omnidirectional camera has been described as an example of a convex mirror or a fisheye lens. However, a camera capable of calculating an angle with another camera, for example, a swivel camera, or a camera that can capture images for each direction. A camera such as an eye camera may be used. Moreover, although the said Example demonstrated the method to measure length with the measuring jig provided with the camera, for example, when the distance between any two cameras 101 and the installation height can be measured, There is no need to provide a measuring jig with a camera in the monitoring area. For example, when two cameras are provided on the ceilings at both ends of the floor of the department store, the distance and the height of both ends of the floor are known in advance, so that a measurement jig equipped with cameras is not necessary.

以上、本発明について詳細に説明したが、本発明は、ここに記載された移動物体検知システムの実施例に限定されるものではなく、上記以外の移動物体検知システムに広く適応することが出来ることは、言うまでも無い。   Although the present invention has been described in detail above, the present invention is not limited to the embodiment of the moving object detection system described herein, and can be widely applied to other moving object detection systems. Needless to say.

本発明の一実施例の概略構成を示す図である。It is a figure which shows schematic structure of one Example of this invention. 図1で示す本発明の一実施例の信号処理装置の概略構成のブロック図を示す図である。It is a figure which shows the block diagram of schematic structure of the signal processing apparatus of one Example of this invention shown in FIG. 本発明の一実施例で使用する全方位カメラの一実施例を示す図である。It is a figure which shows one Example of the omnidirectional camera used by one Example of this invention. 本発明の一実施例で使用する他の全方位カメラの一実施例を示す図である。It is a figure which shows one Example of the other omnidirectional camera used by one Example of this invention. 本発明の一実施例で使用する測定冶具の一実施例を示す図である。It is a figure which shows one Example of the measuring jig used in one Example of this invention. 本発明で使用するカメラの位置を求める方法を説明するための図である。It is a figure for demonstrating the method to obtain | require the position of the camera used by this invention. 本発明で使用する角度を求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the angle used by this invention. 本発明のカメラの位置を単位極面で求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the position of the camera of this invention on a unit pole surface. 本発明の他の一実施例を説明するための図である。It is a figure for demonstrating another Example of this invention. 本発明の更に他の一実施例を説明するための図である。It is a figure for demonstrating another Example of this invention.

符号の説明Explanation of symbols

100:監視エリア、101、110:全方位カメラ、102:カメラ取り付ける支柱、103:伝送線、104:伝送路、105:信号処理装置、106:外部記憶装置、107:操作部、108:表示部、109:測定冶具、201:入出力端子、202:画像入力部、203:光源制御出力部、204:操作入力部、205:画像メモリ、206:MPU、207:ワークメモリ、208:外部入出力部、209:画像出力部、210:警報出力部、211:警報装置、301:凸面鏡で、302:支持部材、303:カメラ部、305:筒体、306:連結部材、307:窓孔、308、311、312:発光装置、310:魚眼レンズ、501:螺子穴、502:方位センサ、503:水準器センサ、701、801:極面、1001:フロアーの平面図、1002:入口、1003:出口。   DESCRIPTION OF SYMBOLS 100: Surveillance area 101, 110: Omni-directional camera, 102: Camera support column, 103: Transmission line, 104: Transmission path, 105: Signal processing device, 106: External storage device, 107: Operation unit, 108: Display unit 109: Measurement jig 201: Input / output terminal 202: Image input unit 203: Light source control output unit 204: Operation input unit 205: Image memory 206: MPU 207: Work memory 208: External input / output 209: Image output unit 210: Alarm output unit 211: Alarm device 301: Convex mirror 302: Support member 303: Camera unit 305: Tube body 306: Connecting member 307: Window hole 308 311, 312: light emitting device, 310: fisheye lens, 501: screw hole, 502: orientation sensor, 503: level sensor, 701 and 801: polar surface, 10 1: a plan view of a floor, 1002: Inlet, 1003: exit.

Claims (4)

監視エリアに配置された少なくとも第1、第2、第3のカメラと、上記それぞれのカメラに近接して設けられた第1、第2、第3の発光装置と、上記カメラの出力がそれぞれ入力される信号処理装置を有し、上記信号処理装置は、演算部と記憶部を有し、上記記憶部には、上記監視エリアの空間を表す座標が記憶され、上記それぞれの発光装置の発光を上記それぞれのカメラで撮像し、上記演算装置は、上記撮像された第1、第2、第3の発光装置の発光位置情報と上記記憶部に記憶されている上記監視エリアの空間を表す座標とに基づいて上記第1、第2、第3の発光装置の上記座標上の位置を算出することを特徴とする移動物体検知システム。   At least the first, second, and third cameras arranged in the monitoring area, the first, second, and third light emitting devices provided in proximity to each of the cameras, and the output of the camera are input. The signal processing device includes a calculation unit and a storage unit. The storage unit stores coordinates representing the space of the monitoring area, and emits light from each of the light emitting devices. The image is captured by each of the cameras, and the arithmetic unit is configured to display the captured light emission position information of the first, second, and third light emitting devices and coordinates indicating the space of the monitoring area stored in the storage unit. The moving object detection system characterized in that the position on the coordinates of the first, second and third light emitting devices is calculated based on the above. 請求項1記載の移動物体検知システムにおいて、上記発光装置を所定の時期に再度発光させると共に、上記カメラで撮像し、上記発光装置の位置を再算出し、既に算出されている上記発光装置の上記座標上の位置を修正することを特徴とする移動物体検知システム。   The moving object detection system according to claim 1, wherein the light emitting device is caused to emit light again at a predetermined time, is imaged by the camera, the position of the light emitting device is recalculated, and the light emitting device already calculated is A moving object detection system characterized by correcting a position on coordinates. 請求項1記載の移動物体検知システムにおいて、上記監視エリア内に上記カメラとは、別の第4と第5のカメラと第4と第5の発光装置とを具えた所定の長さを有する測定冶具を配置し、上記第1から第5の発光装置の発光を上記第1から第5のカメラで撮像し、上記演算装置は、上記第1、第2、第3の発光装置の上記座標上の位置を算出することを特徴とする移動物体検知システム。   2. The moving object detection system according to claim 1, wherein the camera in the monitoring area has a predetermined length including the fourth and fifth cameras and the fourth and fifth light emitting devices different from the camera. A jig is disposed, and the first to fifth cameras emit light emitted from the first to fifth light emitting devices. The arithmetic unit is arranged on the coordinates of the first, second, and third light emitting devices. A moving object detection system characterized in that the position of the moving object is calculated. 請求項1記載の移動物体検知システムにおいて、更に、上記監視エリアに入った検出対象物体を上記第1、第2、第3のカメラで撮像し、上記演算装置は、上記撮像された検出対象物体の撮像位置情報と上記記憶部に記憶されている上記監視エリアの空間を表す座標とに基づいて上記検出対象物体の上記座標上の位置を算出することを特徴とする移動物体検知システム。   2. The moving object detection system according to claim 1, wherein the detection target object that has entered the monitoring area is imaged by the first, second, and third cameras, and the arithmetic unit is configured to capture the detected detection target object. A moving object detection system that calculates the position of the detection target object on the coordinates based on the image pickup position information and coordinates representing the space of the monitoring area stored in the storage unit.
JP2006143767A 2006-05-24 2006-05-24 Moving object detection system Active JP4714078B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006143767A JP4714078B2 (en) 2006-05-24 2006-05-24 Moving object detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006143767A JP4714078B2 (en) 2006-05-24 2006-05-24 Moving object detection system

Publications (2)

Publication Number Publication Date
JP2007315841A true JP2007315841A (en) 2007-12-06
JP4714078B2 JP4714078B2 (en) 2011-06-29

Family

ID=38849839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006143767A Active JP4714078B2 (en) 2006-05-24 2006-05-24 Moving object detection system

Country Status (1)

Country Link
JP (1) JP4714078B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014025783A (en) * 2012-07-26 2014-02-06 Tokyo Electric Power Co Inc:The Flow visualization apparatus
CN114623763A (en) * 2022-03-04 2022-06-14 中国民用航空飞行学院 Flexible stereoscopic vision measuring device for target space coordinates

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06147830A (en) * 1992-11-11 1994-05-27 Mitsubishi Electric Corp Three-dimensional position measuring equipment and measurement correcting method
JPH06241730A (en) * 1991-10-25 1994-09-02 Tatsumi Denshi Kogyo Kk Robot position measuring system
JPH07306012A (en) * 1994-05-13 1995-11-21 Oyo Keisoku Kenkyusho:Kk Measurement device of moving object
JP2001041745A (en) * 1999-08-04 2001-02-16 Asahi Optical Co Ltd Photogrammetry method and photogrammetry image processing device
JP2002005625A (en) * 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab Automatic calibrating method of camera
JP2003269914A (en) * 2002-03-13 2003-09-25 Hitachi Ltd Instrument for measuring position of vehicle, and vehicle with the same mounted thereon
JP2005527803A (en) * 2002-04-05 2005-09-15 アクティセーエム A tag placed in an environment to be measured and a measurement system including the tag

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06241730A (en) * 1991-10-25 1994-09-02 Tatsumi Denshi Kogyo Kk Robot position measuring system
JPH06147830A (en) * 1992-11-11 1994-05-27 Mitsubishi Electric Corp Three-dimensional position measuring equipment and measurement correcting method
JPH07306012A (en) * 1994-05-13 1995-11-21 Oyo Keisoku Kenkyusho:Kk Measurement device of moving object
JP2001041745A (en) * 1999-08-04 2001-02-16 Asahi Optical Co Ltd Photogrammetry method and photogrammetry image processing device
JP2002005625A (en) * 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab Automatic calibrating method of camera
JP2003269914A (en) * 2002-03-13 2003-09-25 Hitachi Ltd Instrument for measuring position of vehicle, and vehicle with the same mounted thereon
JP2005527803A (en) * 2002-04-05 2005-09-15 アクティセーエム A tag placed in an environment to be measured and a measurement system including the tag

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014025783A (en) * 2012-07-26 2014-02-06 Tokyo Electric Power Co Inc:The Flow visualization apparatus
CN114623763A (en) * 2022-03-04 2022-06-14 中国民用航空飞行学院 Flexible stereoscopic vision measuring device for target space coordinates
CN114623763B (en) * 2022-03-04 2023-03-21 中国民用航空飞行学院 Flexible stereoscopic vision measuring device for target space coordinates

Also Published As

Publication number Publication date
JP4714078B2 (en) 2011-06-29

Similar Documents

Publication Publication Date Title
CN107707810B (en) Thermal infrared imager-based heat source tracking method, device and system
US7301557B2 (en) Composite camera system, zoom camera image display control method, zoom camera control method, control program, and computer readable recording medium
JP4617269B2 (en) Monitoring system
JP2010232888A (en) Monitor device
US9025033B2 (en) Surveillance camera and method for calibrating the survelliance camera using a calibration tool
CN110934572A (en) Body temperature monitoring method and device and readable storage medium
US20150103178A1 (en) Surveillance camera control device and video surveillance system
JP2003259350A (en) Omnidirectional monitor control system, omnidirectional monitor control method, and omnidirectional monitor control program
JP5235070B2 (en) Sound monitoring device
US8717439B2 (en) Surveillance system and method
WO2020095379A1 (en) Image processing device, image processing method, and computer readable medium
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
JP4714078B2 (en) Moving object detection system
JPH06167564A (en) Position measuring system and device using fish eye lens
KR20230077487A (en) Diagnostic system using self-driving drone and operation method thereof
JP5278273B2 (en) Surveillance camera system and abnormality detection method thereof
CN109785562A (en) A kind of vertical photoelectricity ground based threats warning system and suspicious object recognition methods
US20200128188A1 (en) Image pickup device and image pickup system
JP2006279516A (en) Monitoring system, monitoring camera, and controller
JP2015041913A (en) Monitor system
KR20110121426A (en) System for observation moving objects
KR20090061405A (en) Apparatus and method for auto tracing using multi-infra red array thermal sensor
JP2007243270A (en) Video image surveillance system and method therefor
JPH1149100A (en) Apron monitor
KR101600314B1 (en) Smart CCTV control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110325

R150 Certificate of patent or registration of utility model

Ref document number: 4714078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250