JP2011053005A - Monitoring system - Google Patents
Monitoring system Download PDFInfo
- Publication number
- JP2011053005A JP2011053005A JP2009200084A JP2009200084A JP2011053005A JP 2011053005 A JP2011053005 A JP 2011053005A JP 2009200084 A JP2009200084 A JP 2009200084A JP 2009200084 A JP2009200084 A JP 2009200084A JP 2011053005 A JP2011053005 A JP 2011053005A
- Authority
- JP
- Japan
- Prior art keywords
- image
- intruder
- monitoring system
- monitoring
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、侵入者までの距離を測定する技術に関する。詳しくは、監視カメラが撮像した画像を用いて侵入者までの距離を測定する技術に関する。 The present invention relates to a technique for measuring a distance to an intruder. Specifically, the present invention relates to a technique for measuring a distance to an intruder using an image captured by a surveillance camera.
ビルや家屋などの施設に、監視カメラが設置されている。監視カメラで撮像した画像を解析することで、侵入者を検知することができる。侵入者を検知した場合には、警報を鳴らすなどの対処がとられる。あるいは、監視カメラで撮像した画像を記録し、後で、記録された撮像画像を閲覧することで、施設内の状況を把握することができる。 Surveillance cameras are installed in facilities such as buildings and houses. An intruder can be detected by analyzing the image captured by the surveillance camera. When an intruder is detected, countermeasures such as sounding an alarm are taken. Alternatively, it is possible to grasp the situation in the facility by recording an image captured by the surveillance camera and later viewing the recorded captured image.
人物までの距離を測定する技術がある。たとえば、レーザーセンサを用いて人物までの距離を測定する技術、ステレオ画像を利用して人物までの距離を測定する技術などがある。これらは、専用の装置が必要となるため、システムコストが比較的高くなる。 There is a technique for measuring the distance to a person. For example, there are a technique for measuring a distance to a person using a laser sensor and a technique for measuring a distance to a person using a stereo image. Since a dedicated device is required for these, the system cost is relatively high.
下記特許文献1および特許文献2においては、撮像画像を利用して人物までの距離を測定する技術が開示されている。
In the following
特許文献1においては、高さと位置が分かっている基準物体の画像と、人物画像とを比較することにより、人物までの距離を特定している。基準物体の画像と人物画像とを比較するときには、消失点から物体の下端までの距離を利用することで、人物の身長に依存しない評価を行うようにしている。
In
特許文献2においては、頭部の画像上の位置と床部分の座標とを対応付けた変換テーブルを利用している。撮像画像から頭部の位置を特定することで、変換テーブルを利用して、人物の位置を特定するようにしている。
In
本発明は、レーザーセンサなど距離測定用の専用装置を別途設けることなく、撮像した画像を用いて侵入者までの距離を測定する技術を提供することを課題とする。 An object of the present invention is to provide a technique for measuring a distance to an intruder using a captured image without separately providing a dedicated device for distance measurement such as a laser sensor.
請求項1記載の発明は、所定の領域を撮像するよう撮像範囲が設定された撮像装置と、前記撮像装置により撮像した前記所定の領域の画像上の座標に、実空間における前記撮像装置からの距離を対応させた距離画像を記憶する記憶装置と、前記所定の領域を監視中、前記撮像装置により前記所定の領域の監視画像を取得し、前記監視画像から侵入者を検出する侵入者検出部と、前記監視画像において前記侵入者の接地位置を特定する接地位置特定部と、前記距離画像と前記接地位置とから前記侵入者までの距離を特定する距離特定部と、を備えることを特徴とする。 According to the first aspect of the present invention, an imaging device in which an imaging range is set so as to capture a predetermined region, and coordinates on the image of the predetermined region captured by the imaging device from the imaging device in real space. A storage device that stores a distance image corresponding to a distance, and an intruder detection unit that acquires a monitoring image of the predetermined region by the imaging device and detects an intruder from the monitoring image while monitoring the predetermined region A grounding position identifying unit that identifies the grounding position of the intruder in the monitoring image; and a distance identifying unit that identifies a distance from the distance image and the grounding position to the intruder. To do.
請求項2記載の発明は、請求項1に記載の監視システムにおいて、前記侵入者検出部は、前記監視画像と、前記所定の領域に侵入物体がない状態で撮像された基準画像と、を比較し、輝度値の変化が第1の閾値を超える領域を移動体領域として抽出する抽出部と、前記移動体領域の高さが第2の閾値を超える場合、前記移動体領域を前記侵入者の領域として判定する侵入者判定部と、を含むことを特徴とする。 According to a second aspect of the present invention, in the monitoring system according to the first aspect, the intruder detection unit compares the monitoring image with a reference image captured without an intruding object in the predetermined area. And an extraction unit that extracts an area where the change in luminance value exceeds the first threshold as a moving body area, and when the height of the moving body area exceeds a second threshold, the moving body area is And an intruder determination unit that determines the area.
請求項3記載の発明は、請求項1に記載の監視システムにおいて、前記侵入者検出部は、前記監視画像と、前記所定の領域に侵入物体がない状態で撮像された基準画像と、の差分画像を生成する差分生成部と、前記差分画像と、人物の特定の場所の特徴を表す特定パターン画像とのマッチングを行い、前記監視画像に含まれている前記侵入者の領域を決定するマッチング部と、を含むことを特徴とする。 According to a third aspect of the present invention, in the monitoring system according to the first aspect, the intruder detection unit is configured such that the difference between the monitoring image and a reference image captured without an intruding object in the predetermined area. A difference generating unit that generates an image, and a matching unit that performs matching between the difference image and a specific pattern image that represents a feature of a specific place of a person, and determines the area of the intruder included in the monitoring image It is characterized by including these.
請求項4記載の発明は、請求項2に記載の監視システムにおいて、前記接地位置特定部は、前記移動体領域の最下位点を接地位置として特定することを特徴とする。 According to a fourth aspect of the present invention, in the monitoring system according to the second aspect, the grounding position specifying unit specifies the lowest point of the moving body region as the grounding position.
請求項5記載の発明は、請求項3に記載の監視システムにおいて、前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングに成功した場合、前記足パターン画像とマッチングした領域の最下位点を接地位置として特定することを特徴とする。 According to a fifth aspect of the present invention, in the monitoring system according to the third aspect, when the ground contact position specifying unit succeeds in matching the difference image with a foot pattern image representing a feature of a person's foot, the foot The lowest point of the area matched with the pattern image is specified as the ground contact position.
請求項6記載の発明は、請求項2に記載の監視システムにおいて、前記接地位置特定部は、前記移動体領域の最下位点が前記監視画像の最下位領域と一致する場合、前記侵入者が、前記撮像装置から所定の距離以内に近づいていると判断することを特徴とする。 According to a sixth aspect of the present invention, in the monitoring system according to the second aspect, when the lowest point of the moving body region coincides with the lowest region of the monitoring image, the grounding position specifying unit , It is determined that the camera is approaching within a predetermined distance from the imaging device.
請求項7記載の発明は、請求項2に記載の監視システムにおいて、前記侵入者検出部は、検出した前記侵入者のサイズを記憶するサイズ記憶部、を含み、前記接地位置特定部は、カレントフレームに含まれる前記侵入者のサイズが、1フレーム前の過去フレームに含まれる前記侵入者のサイズより所定の割合以上小さくなっている場合、前記カレントフレームに含まれる前記侵入者の頭の位置を基準として、前記過去フレームに含まれる前記侵入者のサイズを考慮することで、前記接地位置を特定することを特徴とする。 According to a seventh aspect of the present invention, in the monitoring system according to the second aspect, the intruder detection unit includes a size storage unit that stores a size of the detected intruder, and the grounding position specifying unit is a current If the size of the intruder included in the frame is smaller than the intruder size included in the previous frame one frame before by a predetermined percentage or more, the position of the head of the intruder included in the current frame is determined. As a reference, the ground contact position is specified by considering the size of the intruder included in the past frame.
請求項8記載の発明は、請求項2に記載の監視システムにおいて、前記侵入者検出部は、検出した前記侵入者のサイズを記憶するサイズ記憶部、を含み、前記接地位置特定部は、カレントフレームに含まれる前記侵入者のサイズが、1フレーム前の過去フレームに含まれる前記侵入者のサイズより所定の割合以上大きくなっている場合、前記過去フレームに含まれる前記侵入者のサイズを考慮することなく、前記カレントフレームに基づいて前記接地位置を特定することを特徴とする。
The invention according to
請求項9記載の発明は、請求項3に記載の監視システムにおいて、前記接地位置特定部は、前記差分画像の下端領域において、前記差分画像と、人物の上半身の特徴を表す上半身パターン画像とのマッチングに成功した場合、前記侵入者が、前記撮像装置から所定の距離以内に近づいていると判断することを特徴とする。 According to a ninth aspect of the present invention, in the monitoring system according to the third aspect, in the lower end region of the difference image, the grounding position specifying unit is configured to perform a difference between the difference image and an upper body pattern image representing a characteristic of the upper body of the person. When the matching is successful, it is determined that the intruder is approaching within a predetermined distance from the imaging device.
請求項10記載の発明は、請求項3に記載の監視システムにおいて、前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、マッチングに成功した人物の他の場所に、人物全体の特徴を表す人物全体パターン画像をあてはめることで前記接地位置を特定することを特徴とする。 According to a tenth aspect of the present invention, in the monitoring system according to the third aspect, when the ground contact position specifying unit fails to match the difference image with a foot pattern image representing a feature of a person's foot, matching is performed. The ground contact position is specified by applying a whole person pattern image representing the characteristics of the whole person to another place of the person who has succeeded.
請求項11記載の発明は、請求項3に記載の監視システムにおいて、さらに、人物の平均的な体型の比率を示す比率情報を記憶する比率記憶部、を備え、前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、マッチングに成功した人物の他の場所のサイズに、前記比率情報で示された比率を適用させることで、前記接地位置を特定することを特徴とする。
The invention according to
請求項12記載の発明は、請求項3に記載の監視システムにおいて、さらに、人物の平均的な顔のサイズと全身のサイズとの比率を示す比率情報を記憶する比率記憶部、を備え、前記接地位置特定部は、前記監視画像に対して顔認識処理を行い、顔のサイズを取得する顔抽出部と、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、顔抽出部で抽出した顔のサイズに、前記比率情報で示された比率を適用させることで、前記接地位置を特定することを特徴とする。
The invention according to
本発明の監視システムを用いることで、距離測定用のセンサなどを用いることなく、撮像画像を利用して侵入者までの距離を測定することができる。 By using the monitoring system of the present invention, the distance to the intruder can be measured using the captured image without using a distance measuring sensor or the like.
{第1の実施の形態}
以下、図面を参照しつつ本発明の実施の形態に係る監視システム3について説明する。図1は、監視システム3の全体図である。監視システム3は、建物5の敷地内を監視するようセッティングされている。監視システム3は、建物5の中に設置された監視装置1と監視カメラ2とを備えて構成されている。
{First embodiment}
Hereinafter, a
図2に示すように、監視装置1は、CPU、メモリなどを備える制御部11と記憶装置12とを備える。制御部11には、監視カメラ2が接続されている。監視カメラ2は、たとえばCCD撮像素子を備え、建物5の周辺領域を撮像可能である。監視カメラ2は、図1に示す監視エリア6を撮像可能となるように、高さ、方向などが固定されている。このように、監視カメラ2は、固定された撮像範囲内の画像を撮像する。
As shown in FIG. 2, the
以下、監視カメラ2から侵入者までの距離を特定する監視システム3のシステムの動作、構成について、
<1.距離画像の作成>
<2.侵入者の検出>
<3.接地位置の特定>
<4.距離の特定>
の順に説明する。
Hereinafter, regarding the operation and configuration of the
<1. Creating a distance image>
<2. Intruder detection>
<3. Identifying the grounding location>
<4. Identification of distance>
Will be described in the order.
<1.距離画像の作成>
距離画像の作成プロセスについて説明する。本実施の形態の監視システム3を実際に稼動させる前に、あらかじめ距離画像を作成する。
<1. Creating a distance image>
The distance image creation process will be described. Before actually operating the
距離画像を作成するために、図3に示すように、監視エリア6内に、距離測定用の複数の目印物体71、72および73が設置される。目印物体71は、監視カメラ2の設置場所から15mの距離の場所に設置されている。目印物体72は、監視カメラ2の設置場所から10mの距離の場所に設置されている。目印物体73は、監視カメラ2の設置場所から5mの距離の場所に設置されている。目印物体71、72および73は、監視カメラ2からの距離を地面の高さ(画像での縦方向の位置)で測ることを目的としているので、なるべく高さの低い物体を選ぶ方がよい。
In order to create a distance image, a plurality of landmark objects 71, 72, and 73 for distance measurement are installed in the
監視エリア6内に目印物体71、72および73を配置した上で、監視カメラ2により画像81を撮像する。図4に示すように、撮像された画像81には、目印物体71、72および73が含まれている。この画像81上で、複数の目印物体71間を結ぶことにより、監視カメラ2から距離15mの地点を示すライン811が描かれる。同様に、複数の目印物体72間および目印物体73間を結ぶことにより、監視カメラ2からそれぞれ距離10m、5mの地点を示すライン811が描かれる。
After the landmark objects 71, 72 and 73 are arranged in the
距離画像データ121は、画像81を利用して生成される。距離画像データ121は、画像81と同じ画素数を有する。距離画像データ121の各画素には、監視カメラ2からの距離が対応付けられる。距離画像データ121において、目印物体71間を結ぶライン811上の画素に距離15mが対応付けられる。距離画像データ121において、目印物体72間および目印物体73間を結ぶライン811上の画素にそれぞれ距離10m、5mが対応付けられる。
The
さらに、図4に示すように、目印物体71間を結ぶライン811と目印物体72を結ぶライン811の間に距離12.5mに対応するライン811を推定で描いている。同様に、距離7.5m、距離17.5mなどのライン811も推定で描かれている。距離画像データ121において、目印物体71、72および73に基づいて作成されたライン811上の画素と、推定されたライン811上の画素に、それぞれ距離が対応付けられている。
Furthermore, as shown in FIG. 4, a
目印物体をどの程度の間隔で設置するのか、ライン811をどの程度まで細かく推定するのかなどは、自由に設定することができる。
It is possible to freely set the intervals at which the mark objects are installed and the extent to which the
距離測定用に目印物体71、72および73を設置する場合を例に説明したが、図5に示すように、距離測定用のライン75を監視エリア6内に描画してもよい。たとえば、白線などのライン75を監視エリア6内に描画すればよい。ライン75には、監視カメラ2からの距離が、5m、10m、15mなどの距離に目印ポイント76がつけ加えられている。距離画像データ121において、目印ポイント76間を結ぶライン上の画素に距離が対応付けられる。さらに、目印ポイント76間を結ぶライン間に、推定されたラインを補完し、推定されたライン上の画素にも距離が対応付けられる。
Although the case where the mark objects 71, 72, and 73 are installed for distance measurement has been described as an example, a
以上のような作業を行うことで、距離画像データ121が作成される。距離画像データ121は、監視カメラ2が撮像した画像データに基づいて、監視プログラム120が実行することで作成される。ライン811の間隔などは、適宜、入力装置からユーザが設定可能となっている。
The
距離画像データ121の作成が終了したら、目印物体71、72および73は撤去してよい。あるいは、ライン75および目印ライン76を消去してよい。
When the creation of the
<2.侵入者の検出>
距離画像データ121を記憶装置12に格納した上で、監視システム3は、監視状態に移行する。監視状態に入ると、監視カメラ2は、たとえば、2〜5フレーム/秒などのレートで監視エリア6内の画像を撮像する。撮像された画像は、撮像画像データ122として記憶装置12に格納される。
<2. Intruder detection>
After storing the
以下、監視プログラム120によって実行される侵入者の検出処理の内容について説明する。
The contents of the intruder detection process executed by the
図6は、撮像画像データ122の部分拡大図82Nおよび82(N+1)を示す。部分拡大図82Nは、第Nフレームに撮像された撮像画像データ122の中で、人物部分を拡大した図である。部分拡大図82(N+1)は、第(N+1)フレームに撮像された撮像画像データ122の中で、人物部分を拡大した図である。第Nフレームから第(N+1)フレームにかけて、人物が移動していることが分かる。
FIG. 6 shows partially
図7は、輝度画像を示す。輝度画像92Nは、第Nフレームの輝度画像の部分拡大図である。つまり、図6の部分拡大図82Nに対応する輝度画像である。輝度画像92(N+1)は、第(N+1)フレームの輝度画像の部分拡大図である。つまり、図6の部分拡大図82(N+1)に対応する輝度画像である。
FIG. 7 shows a luminance image. The
輝度画像92Nおよび92(N+1)に示している数値は、輝度値である。ただし、図に示す輝度値は実際の輝度値ではない。図に示した輝度値は、説明を簡単にするために、1桁程度の小さな数値で表しており、数値が大きいほど、輝度が高いことを示している。また、輝度画像は、全画素に輝度値を対応付けてもよいが、図6および図7で示す例では、複数の画素からなるブロックに対して輝度値を対応付けている。たとえば、各ブロックの輝度値は、ブロックに含まれる全画素の輝度値の平均値を利用すればよい。
The numerical values shown in the
監視プログラム120は、輝度画像92Nと輝度画像92(N+1)とを比較し、輝度変化が所定の閾値を上回る領域を移動体領域921として特定する。図7において、ハッチングで示されているのが移動体領域921である。具体的には、第Nフレームから第(N+1)フレームに変化するにつれて、輝度値が所定の閾値以上、上昇した領域を移動体領域921として特定する。
The
続いて、監視プログラム120は、移動体領域921の高さが、所定の閾値を上回るか否かを判定する。監視プログラム120は、移動体領域921の高さが、所定の閾値を上回る場合には、移動体領域921が侵入者の検知領域であると判定する。
Subsequently, the
移動体領域921の高さが、所定の閾値を下回る場合には、侵入者はないと判断し、次のフレームに対する処理に移行する。移動体領域921の高さが所定の閾値を下回る場合とは、たとえば、犬や猫が監視エリア6に侵入した場合などが考えられる。このような場合には、誤って侵入者ありとして誤検知することを防止できる。
If the height of the moving
<3.接地位置の特定>
移動体領域から侵入者の存在が確認されると、監視プログラム120は、次に、侵入者の接地位置を特定する。
<3. Identifying the grounding location>
When the presence of the intruder is confirmed from the mobile object area, the
図8は、輝度画像93Aを示す。輝度画像93Aには、移動体領域931が検出されている。移動体領域931の高さは所定の閾値を上回っているため、侵入者であると判定されている。監視プログラム120は、移動体領域931の最下位位置932を侵入者の接地位置であると判定する。
FIG. 8 shows a
図8で示した例は、移動体領域931の全体が撮像範囲内に収まっている。つまり、侵入者の全身が、監視カメラ2による撮像範囲に収まっている。これに対して、図9で示した例では、移動体領域931は撮像範囲内の下端に位置している。つまり、侵入者の上半身のみが撮像範囲に収まっている。
In the example shown in FIG. 8, the entire moving
このようなケースでは、移動体領域933の最下位位置934を侵入者の接地位置と判定するのは不適切である。このようなケースでは、監視プログラム120は、最下位位置934を接地位置とは判定しない。監視プログラム120は、監視カメラ2からの距離が所定の値以下のエリアまで侵入者が近づいていると判定する。たとえば、侵入者が監視カメラ2から5mの範囲以内に入っているという判定を行う。
In such a case, it is inappropriate to determine the
別のケースを説明する。図10および図11は、侵入者が障害物の陰に隠れた場合のケースを示す図である。図10は、フレーム画像83Cとフレーム画像83Dとを示す図である。フレーム画像83Cは、第Nフレームの画像であり、フレーム画像83Dは、第(N+1)フレームの画像である。
Another case will be described. 10 and 11 are diagrams illustrating a case where an intruder is hidden behind an obstacle. FIG. 10 is a diagram showing a frame image 83C and a
図11は、輝度画像93Cと輝度画像93Dとを示す図である。輝度画像93Cは、フレーム画像83Cに対応する輝度画像である。つまり、第Nフレームの輝度画像である。輝度画像93Dは、フレーム画像83Dに対応する輝度画像である。つまり、第(N+1)フレームの輝度画像である。
FIG. 11 is a diagram showing a luminance image 93C and a
図10に示すように、フレーム画像83Cにおいては、侵入者831の全身が監視カメラ2で撮像されている。これに対応して、図11に示すように、輝度画像93Cにおいても、移動体領域931は撮像範囲の中に収まっている。
As shown in FIG. 10, the whole body of the
図10に示すように、フレーム画像83Dにおいては、侵入者831は、障害物の後ろに隠れ、上半身だけが監視カメラ2によって撮像されている。これに対応して、図11に示すように、輝度画像93Dにおける移動体領域931のサイズは、輝度画像93Cの移動体領域931のサイズよりも小さくなっている。
As shown in FIG. 10, in the
図11に示す輝度画像93Dにおいて、最下位位置を接地位置とするのは不適切である。このように、移動体領域のサイズが小さくなった場合には、監視プログラム120は、前フレームの移動体領域のサイズを利用することとしている。
In the
図2に示すように、監視装置1は、記憶装置12にサイズデータ123を格納している。サイズデータ123は、移動体領域のサイズである。移動体領域のサイズとしては、移動体領域の高さを利用すればよい。記憶装置12には、移動体領域が検出されるたびに、移動体領域のサイズデータ123が格納される。サイズデータ123として、最新のものが更新されるようにして記録される。
As shown in FIG. 2, the
監視プログラム120は、移動体のサイズが所定の割合以上小さくなった場合、前フレームの移動体領域のサイズをカレントフレームに適用する。具体的には、カレントフレームの移動体領域の最上位位置を頭部とみなす。そして、前フレームで取得されている移動体領域のサイズ分だけ、最上位位置から下方に向かって領域を推定し、推定された領域の最下位位置を接地位置とするのである。このようにして、侵入者が障害物に隠れている場合であっても、接地位置を推定することができる。
The
監視プログラム120は、移動体のサイズが所定の割合以上大きくなった場合、前フレームの移動体領域のサイズを適用せず、カレントフレームの移動体領域を分析する。そして、図8で示したような処理を行うことで、移動体領域の最下位位置を接地位置として特定する。
The
<4.距離の特定>
監視プログラム120は、以上の処理を実行することにより、侵入者の接地位置を特定する。接地位置を特定すると、距離画像データ121上に接地位置をあてはめ、侵入者が存在する位置の監視カメラ2からの距離を特定する。
<4. Identification of distance>
The
図12は、距離の特定の仕方を示す図である。距離画像データ121上に接地位置87をあてはめ、侵入者の接地位置、つまり、監視カメラ2からの距離を特定する。接地位置87が、ライン811上にあれば、そのままライン811に対応付けられている距離が、接地位置までの距離となる。
FIG. 12 is a diagram illustrating a method of specifying the distance. The
接地位置87が、ライン811上にない場合には、図に示すように、ライン811と接地位置87との位置関係から距離を推定する。図の例であれば、接地位置87から12.5mの距離までが距離871であり、接地位置87から10mの距離までが距離872である。距離871と距離872の比から10mの距離と12.5mの距離を内分する点を接地位置と考え、距離を求める。あるいは、処理を簡素化するのであれば、接地位置87がライン811上にない場合、最も近いライン811上の距離を適用させてもよい。
If the
図13に示すように、距離13mが監視エリア境界線88となっているとする。この場合、距離13mよりも近くに侵入者が入った場合には、侵入者ありとして警戒状態に入る必要がある。たとえば、移動体領域の接地位置が、図の接地位置87Aである場合には、13mの監視エリア境界線88よりも遠いため、警戒状態には遷移しない。移動体の接地位置が、図の接地位置87Bである場合には、13mの監視エリア境界線88よりも近いため、警戒状態に遷移する。
As shown in FIG. 13, it is assumed that a distance 13 m is a monitoring
警戒状態に入ると、監視システム1は様々な動作を行う。たとえば、警報音を鳴らすことで、侵入者を威嚇するとともに、周囲に侵入者がいることを通知する。あるいは、警報用の照明をONにしてもよい。また、撮像画像データ121のフレームレートを高めて、保存するようにしてもよい。
When entering the alert state, the
{第2の実施の形態}
次に、本発明の第2の実施の形態について説明する。第2の実施の形態においては、侵入者の検出の方法などが異なる。
{Second Embodiment}
Next, a second embodiment of the present invention will be described. In the second embodiment, an intruder detection method is different.
第2の実施の形態において、<1.距離画像の作成>、<4.距離の特定>は、第1の実施の形態と同様である。以下、<2.侵入者の検出>および<3.接地位置の特定>について説明する。 In the second embodiment, <1. Creation of range image>, <4. Specifying the distance> is the same as in the first embodiment. Hereinafter, <2. Intruder detection> and <3. Next, the specification of the grounding position will be described.
<2.侵入者の検出>
図14、図15および図16は、侵入者の検出方法を示す図である。図14は、撮像エリア6内を撮像した基準画像83Eを示す。基準画像83Eは、監視状態に入る前に、あらかじめ撮像される。基準画像83Eは、撮像エリア6内に人などの移動体がいない状態で撮像される。基準画像83Eは、図2に示すように、基準画像データ124として記憶装置12に格納される。
<2. Intruder detection>
FIG. 14, FIG. 15 and FIG. 16 are diagrams showing an intruder detection method. FIG. 14 shows a
基準画像83Eが保存されている状態で、監視カメラ2が撮像エリア6の撮像を開始する。撮像された画像は、撮像画像データ122として記憶装置12に格納される。図15は、侵入者831が撮像エリア6に侵入した状態で撮像された監視画像83Fを示す。
With the
監視プログラム120は、監視画像83Fと基準画像83Eの差分を抽出し、差分画像83Gを生成する。図16は、差分画像83Gを示す。差分画像83Gは、図に示すように、背景部分が除去され差分領域831が抽出されている。以下の説明において、適宜侵入者831を差分領域831と呼ぶことにする。
The
監視プログラム120は、差分画像83Gを生成すると、次に、パターン画像データ125から抽出したパターン画像を用いて差分画像83Gとのマッチングを行う。
After generating the
パターン画像データ125は、図2に示すように、記憶装置12に格納されている。パターン画像データ125は、人物の全身の特徴を示すパターン画像が含まれている。監視プログラム120は、全身の特徴を示すパターン画像データ125から、適宜、任意の場所のパターン画像を抽出してマッチングに利用することができる。たとえば、頭の特徴を示す頭パターン、上半身の特徴を示す上半身パターン、足の特徴を示す足パターンなど、任意の場所を任意の範囲で抽出してパターン画像として利用することができる。
The
図17は、マッチングの方法を示す図である。たとえば、差分領域831に対して、上半身パターン101や、胴体パターン102などをマッチングさせる。監視プログラム120は、いずれかのパターンが差分領域831とマッチングすれば差分領域831を侵入者831であると判定する。いずれか1つのパターンと一致した場合に、マッチング成功と判断してもよいし、たとえば2箇所など複数の場所のパターンが一致した場合に、マッチング成功と判断してもよい。
FIG. 17 is a diagram illustrating a matching method. For example, the
<3.接地位置の特定>
監視プログラム120は、差分領域831が侵入者831であると判定した場合には、次に、接地位置の特定を行う。図18は、接地位置の特定方法を示す図である。監視プログラム120は、差分領域831と足パターン103とのマッチングを行う。足パターン103とマッチングできた場合には、マッチングできた足の最下位位置を接地位置と特定することができる。
<3. Identifying the grounding location>
If the
図18で示した例では、侵入者831の全身が撮像領域に収まっているケースである。これに対して、図19で示す例では、侵入者831の一部が撮像領域に収まっている。つまり、差分領域831が撮像範囲の下端に位置している。
In the example illustrated in FIG. 18, the entire body of the
監視プログラム120は、図17で示したように、パターン画像データ125から様々な特徴パターンを抽出し、差分領域831とマッチングを行う。図19の場合であれば、上半身パターン101とのマッチングに成功する。マッチングに成功することで、監視プログラム120は、差分領域831が侵入者831であると判定する。
As illustrated in FIG. 17, the
しかし、図19で示す例では、差分画像83Hに含まれる差分領域831は、撮像範囲の下端に位置している。この場合、監視プログラム120は、差分領域831と足パターン103とのマッチングに失敗する。監視プログラム120は、足パターン103以外の特徴パターンとのマッチングには成功したが、足パターン103とのマッチングに失敗した場合には、侵入者831が監視カメラ2から所定の距離よりも近くに位置すると判定する。言い換えると、監視プログラム120は、撮像領域の下端位置において上半身パターン101とのマッチングに成功した場合、侵入者831が監視カメラ2から所定の距離よりも近くに位置すると判定する。
However, in the example shown in FIG. 19, the
図20は、別のケースを示す図である。監視画像83Iは、侵入者831が障害物の陰に隠れた状態で撮像された画像である。このようなケースで、監視プログラム120が、差分領域を抽出し、上半身パターン101とのマッチングを行えば、マッチングに成功する。しかし、監視プログラム120は、差分領域と足パターン103とのマッチングには失敗する。
FIG. 20 is a diagram showing another case. The monitoring image 83I is an image captured in a state where the
このとき、監視プログラム120は、図21に示すように、差分画像83Jに含まれる上半身のみの差分領域831に、足パターン103をあてはめることで足部分を補完する。そして、この補完に使われた足パターン103の足の最下位位置を接地位置として特定するのである。
At this time, as shown in FIG. 21, the
ここでは、上半身のみの差分領域831に足パターンを補完すると説明したが、実質的には、パターン画像データ125は、全身の特徴を示すパターンを保有しているので、上半身のみの差分領域831に、全身パターンを重ね合わせる操作と変わりない。全身パターンを差分領域831に重ね合わせること、つまり、上半身部分をマッチングさせながら全身パターンを重ねた上で、足の最下位位置を接地位置と特定することができる。
Here, it has been described that the foot pattern is complemented to the
図22は、足パターンとのマッチングが行えない場合に、接地位置を特定する別の方法を示す。この方法は、差分領域831に含まれる人の一部と全身との比率から接地位置を特定する方法である。図22に示す差分画像83Kには、上半身の差分領域831が抽出されている。そして、足パターンとのマッチングには失敗している。
FIG. 22 shows another method of specifying the contact position when matching with the foot pattern cannot be performed. This method is a method for identifying the ground contact position from the ratio of the part of the person included in the
制御部11は、あらかじめ平均的な体型の比率データを保有している。したがって、上半身のサイズから比率データに基づいて全身のサイズを推定することができる。ここで、サイズとしては、たとえば、領域の高さを用いればよい。
The
たとえば、上半身である差分領域831の高さをL1とし、上半身と全身の高さ(長さ)の比をRaとすれば、全身の高さL2は、L1×Raで表される。監視プログラム120は、推定された全身の高さL2を利用して、接地位置を特定する。
For example, if the height of the
図23は、足パターンとのマッチングが行えない場合に、接地位置を特定する別の方法を示す。この方法は、差分領域に含まれる顔領域と全身との比率から接地位置を特定する方法である。たとえば、目、鼻、口、耳などの特徴部分から顔認識が行われ、顔領域のサイズが算出される。 FIG. 23 shows another method of specifying the contact position when matching with the foot pattern cannot be performed. This method is a method of specifying the ground contact position from the ratio of the face area and the whole body included in the difference area. For example, face recognition is performed from features such as eyes, nose, mouth, and ears, and the size of the face area is calculated.
制御部11は、あらかじめ顔のサイズと全身のサイズとの比率データを保有している。ここで、サイズとは、顔および全身の高さ(長さ)を用いればよい。顔の高さをL3、顔と全身の高さとの比をRbとすれば、全身の高さL4は、L3×Rbで表される。監視プログラム120は、全身の高さL4から、接地位置を特定する。
The
以上説明したように、本実施の形態の監視システム3によれば、監視カメラ2が撮像した画像を利用して、侵入者までの距離を測定することができる。
As described above, according to the
なお、図2に示した監視装置1の記憶装置12には、第1の実施の形態と第2の実施の形態の両方の処理が可能となるように全てのデータが記憶されているが、これに限られない。たとえば、監視システム3が第1の実施の形態のみ実行すればよいのであれば、基準画像データ124やパターン画像データ125を記憶しておく必要はない。
The
1 監視装置
2 監視カメラ
3 監視システム
6 撮像領域
1
Claims (12)
前記撮像装置により撮像した前記所定の領域の画像上の座標に、実空間における前記撮像装置からの距離を対応させた距離画像を記憶する記憶装置と、
前記所定の領域を監視中、前記撮像装置により前記所定の領域の監視画像を取得し、前記監視画像から侵入者を検出する侵入者検出部と、
前記監視画像において前記侵入者の接地位置を特定する接地位置特定部と、
前記距離画像と前記接地位置とから前記侵入者までの距離を特定する距離特定部と、
を備えることを特徴とする監視システム。 An imaging device in which an imaging range is set to image a predetermined area;
A storage device that stores a distance image in which a distance from the imaging device in real space is associated with coordinates on the image of the predetermined region captured by the imaging device;
While monitoring the predetermined area, an intruder detection unit that acquires a monitoring image of the predetermined area by the imaging device and detects an intruder from the monitoring image;
A grounding position identifying unit that identifies the grounding position of the intruder in the monitoring image;
A distance specifying unit for specifying a distance from the distance image and the ground contact position to the intruder;
A monitoring system comprising:
前記侵入者検出部は、
前記監視画像と、前記所定の領域に侵入物体がない状態で撮像された基準画像と、を比較し、輝度値の変化が第1の閾値を超える領域を移動体領域として抽出する抽出部と、
前記移動体領域の高さが第2の閾値を超える場合、前記移動体領域を前記侵入者の領域として判定する侵入者判定部と、
を含むことを特徴とする監視システム。 The monitoring system according to claim 1,
The intruder detection unit
An extraction unit that compares the monitoring image with a reference image captured in a state where there is no intruding object in the predetermined region, and extracts a region in which a change in luminance value exceeds a first threshold as a moving body region;
An intruder determination unit that determines the moving body area as the intruder area when the height of the moving body area exceeds a second threshold;
A monitoring system comprising:
前記侵入者検出部は、
前記監視画像と、前記所定の領域に侵入物体がない状態で撮像された基準画像と、の差分画像を生成する差分生成部と、
前記差分画像と、人物の特定の場所の特徴を表す特定パターン画像とのマッチングを行い、前記監視画像に含まれている前記侵入者の領域を決定するマッチング部と、
を含むことを特徴とする監視システム。 The monitoring system according to claim 1,
The intruder detection unit
A difference generating unit that generates a difference image between the monitoring image and a reference image captured in a state where there is no intruding object in the predetermined region;
A matching unit that performs matching between the difference image and a specific pattern image representing characteristics of a specific place of a person, and determines a region of the intruder included in the monitoring image;
A monitoring system comprising:
前記接地位置特定部は、前記移動体領域の最下位点を接地位置として特定することを特徴とする監視システム。 The monitoring system according to claim 2,
The monitoring system characterized in that the grounding position specifying unit specifies the lowest point of the moving body region as a grounding position.
前記接地位置特定部は、
前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングに成功した場合、
前記足パターン画像とマッチングした領域の最下位点を接地位置として特定することを特徴とする監視システム。 The monitoring system according to claim 3,
The grounding position specifying unit is
When the difference image is successfully matched with a foot pattern image representing the characteristics of a person's foot,
A monitoring system, characterized in that the lowest point of an area matched with the foot pattern image is specified as a ground contact position.
前記接地位置特定部は、前記移動体領域の最下位点が前記監視画像の最下位領域と一致する場合、前記侵入者が、前記撮像装置から所定の距離以内に近づいていると判断することを特徴とする監視システム。 The monitoring system according to claim 2,
The ground contact position specifying unit determines that the intruder is approaching within a predetermined distance from the imaging device when the lowest point of the moving body region coincides with the lowest region of the monitoring image. A characteristic surveillance system.
前記侵入者検出部は、
検出した前記侵入者のサイズを記憶するサイズ記憶部、
を含み、
前記接地位置特定部は、カレントフレームに含まれる前記侵入者のサイズが、1フレーム前の過去フレームに含まれる前記侵入者のサイズより所定の割合以上小さくなっている場合、前記カレントフレームに含まれる前記侵入者の頭の位置を基準として、前記過去フレームに含まれる前記侵入者のサイズを考慮することで、前記接地位置を特定することを特徴とする監視システム。 The monitoring system according to claim 2,
The intruder detection unit
A size storage unit for storing the size of the detected intruder,
Including
The grounding position specifying unit is included in the current frame when the size of the intruder included in the current frame is smaller than a predetermined ratio than the size of the intruder included in the previous frame of the previous frame. The monitoring system, wherein the ground contact position is specified by taking into account the size of the intruder included in the past frame with reference to the position of the head of the intruder.
前記侵入者検出部は、
検出した前記侵入者のサイズを記憶するサイズ記憶部、
を含み、
前記接地位置特定部は、カレントフレームに含まれる前記侵入者のサイズが、1フレーム前の過去フレームに含まれる前記侵入者のサイズより所定の割合以上大きくなっている場合、前記過去フレームに含まれる前記侵入者のサイズを考慮することなく、前記カレントフレームに基づいて前記接地位置を特定することを特徴とする監視システム。 The monitoring system according to claim 2,
The intruder detection unit
A size storage unit for storing the size of the detected intruder,
Including
The grounding position specifying unit is included in the past frame when the size of the intruder included in the current frame is larger than a predetermined ratio than the size of the intruder included in the previous frame one frame before. The monitoring system, wherein the ground contact position is specified based on the current frame without considering the size of the intruder.
前記接地位置特定部は、前記差分画像の下端領域において、前記差分画像と、人物の上半身の特徴を表す上半身パターン画像とのマッチングに成功した場合、前記侵入者が、前記撮像装置から所定の距離以内に近づいていると判断することを特徴とする監視システム。 The monitoring system according to claim 3,
In the lower end region of the difference image, the grounding position specifying unit, when the matching between the difference image and the upper body pattern image representing the upper body feature of the person is successful, the intruder is a predetermined distance from the imaging device A monitoring system characterized by being determined to be approaching within.
前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、マッチングに成功した人物の他の場所に、人物全体の特徴を表す人物全体パターン画像をあてはめることで前記接地位置を特定することを特徴とする監視システム。 The monitoring system according to claim 3,
If the difference image and the foot pattern image representing the feature of the person's foot could not be matched, the ground contact position specifying unit may display the whole person representing the feature of the whole person in another place of the person who succeeded in matching A monitoring system that identifies the ground contact position by applying a pattern image.
人物の平均的な体型の比率を示す比率情報を記憶する比率記憶部、
を備え、
前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、マッチングに成功した人物の他の場所のサイズに、前記比率情報で示された比率を適用させることで、前記接地位置を特定することを特徴とする監視システム。 The monitoring system according to claim 3, further comprising:
A ratio storage unit that stores ratio information indicating a ratio of an average figure of a person;
With
When the difference image and the foot pattern image representing the feature of the person's foot cannot be matched, the contact position specifying unit is indicated by the ratio information in the size of the other place of the person who has succeeded in matching. The monitoring system is characterized in that the ground contact position is specified by applying the ratio.
人物の平均的な顔のサイズと全身のサイズとの比率を示す比率情報を記憶する比率記憶部、
を備え、
前記接地位置特定部は、
前記監視画像に対して顔認識処理を行い、顔のサイズを取得する顔抽出部と、
前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、顔抽出部で抽出した顔のサイズに、前記比率情報で示された比率を適用させることで、前記接地位置を特定することを特徴とする監視システム。 The monitoring system according to claim 3, further comprising:
A ratio storage unit that stores ratio information indicating a ratio between the average face size of the person and the size of the whole body;
With
The grounding position specifying unit is
A face extraction unit that performs face recognition processing on the monitoring image and acquires a face size;
When the difference image and the foot pattern image representing the feature of the person's foot cannot be matched, the ratio indicated by the ratio information is applied to the size of the face extracted by the face extraction unit, A monitoring system characterized by specifying a grounding position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009200084A JP5370009B2 (en) | 2009-08-31 | 2009-08-31 | Monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009200084A JP5370009B2 (en) | 2009-08-31 | 2009-08-31 | Monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011053005A true JP2011053005A (en) | 2011-03-17 |
JP5370009B2 JP5370009B2 (en) | 2013-12-18 |
Family
ID=43942180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009200084A Expired - Fee Related JP5370009B2 (en) | 2009-08-31 | 2009-08-31 | Monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5370009B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012226909A (en) * | 2011-04-18 | 2012-11-15 | Lixil Corp | Human body detection sensor and automatic faucet |
JP2013019721A (en) * | 2011-07-08 | 2013-01-31 | Nippon Telegr & Teleph Corp <Ntt> | Position detector, position detection method, and computer program |
JP2014016839A (en) * | 2012-07-09 | 2014-01-30 | Nippon Telegr & Teleph Corp <Ntt> | Mobile object tracking device |
JP2015108999A (en) * | 2013-12-05 | 2015-06-11 | 三菱電機株式会社 | Dynamic state management system |
JP2016024191A (en) * | 2014-07-21 | 2016-02-08 | ジック アーゲー | Distance measuring sensor for recognition of object and distance measurement |
CN111062366A (en) * | 2019-12-30 | 2020-04-24 | 中祖建设安装工程有限公司 | Method and system for detecting postures of personnel in control room |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62136989A (en) * | 1985-12-10 | 1987-06-19 | Matsushita Electric Works Ltd | Abnormality monitoring device |
JPH0261793A (en) * | 1988-08-26 | 1990-03-01 | Matsushita Electric Works Ltd | Intruder detecting device |
JP2002042142A (en) * | 2000-07-28 | 2002-02-08 | Matsushita Electric Ind Co Ltd | Distance measurement device and monitoring device using it |
JP3637360B2 (en) * | 2001-12-17 | 2005-04-13 | 株式会社シーイーシー | Surveillance camera system and information providing system using the same |
JP2006221610A (en) * | 2004-12-14 | 2006-08-24 | Samsung Electronics Co Ltd | Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device |
JP2007213181A (en) * | 2006-02-08 | 2007-08-23 | Advanced Telecommunication Research Institute International | Privacy protection image generation device |
JP2008182459A (en) * | 2007-01-24 | 2008-08-07 | Megachips System Solutions Inc | Passage monitoring system |
-
2009
- 2009-08-31 JP JP2009200084A patent/JP5370009B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62136989A (en) * | 1985-12-10 | 1987-06-19 | Matsushita Electric Works Ltd | Abnormality monitoring device |
JPH0261793A (en) * | 1988-08-26 | 1990-03-01 | Matsushita Electric Works Ltd | Intruder detecting device |
JP2002042142A (en) * | 2000-07-28 | 2002-02-08 | Matsushita Electric Ind Co Ltd | Distance measurement device and monitoring device using it |
JP3637360B2 (en) * | 2001-12-17 | 2005-04-13 | 株式会社シーイーシー | Surveillance camera system and information providing system using the same |
JP2006221610A (en) * | 2004-12-14 | 2006-08-24 | Samsung Electronics Co Ltd | Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device |
JP2007213181A (en) * | 2006-02-08 | 2007-08-23 | Advanced Telecommunication Research Institute International | Privacy protection image generation device |
JP2008182459A (en) * | 2007-01-24 | 2008-08-07 | Megachips System Solutions Inc | Passage monitoring system |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012226909A (en) * | 2011-04-18 | 2012-11-15 | Lixil Corp | Human body detection sensor and automatic faucet |
JP2013019721A (en) * | 2011-07-08 | 2013-01-31 | Nippon Telegr & Teleph Corp <Ntt> | Position detector, position detection method, and computer program |
JP2014016839A (en) * | 2012-07-09 | 2014-01-30 | Nippon Telegr & Teleph Corp <Ntt> | Mobile object tracking device |
JP2015108999A (en) * | 2013-12-05 | 2015-06-11 | 三菱電機株式会社 | Dynamic state management system |
JP2016024191A (en) * | 2014-07-21 | 2016-02-08 | ジック アーゲー | Distance measuring sensor for recognition of object and distance measurement |
CN111062366A (en) * | 2019-12-30 | 2020-04-24 | 中祖建设安装工程有限公司 | Method and system for detecting postures of personnel in control room |
CN111062366B (en) * | 2019-12-30 | 2023-12-15 | 中祖建设安装工程有限公司 | Method and system for detecting gesture of personnel in control room |
Also Published As
Publication number | Publication date |
---|---|
JP5370009B2 (en) | 2013-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5040258B2 (en) | Video surveillance apparatus, video surveillance system, and image processing method | |
US20230410621A1 (en) | Intrusion detection system, intrusion detection method, and computer-readable medium | |
JP6650677B2 (en) | Video processing apparatus, video processing method, and program | |
CN108476304B (en) | Discarded object monitoring device, discarded object monitoring system provided with same, and discarded object monitoring method | |
WO2014199941A1 (en) | Information processing device, information processing method, and program | |
JP5370009B2 (en) | Monitoring system | |
JP6732522B2 (en) | Image processing apparatus, image processing method and program | |
JP2008217602A (en) | Suspicious behavior detection system and method | |
JP6780641B2 (en) | Image analysis device, image analysis method, and image analysis program | |
KR20190046351A (en) | Method and Apparatus for Detecting Intruder | |
JP2018156408A (en) | Image recognizing and capturing apparatus | |
JP6512793B2 (en) | Imaging device, surveillance camera system, control method and program for imaging device | |
KR101454644B1 (en) | Loitering Detection Using a Pedestrian Tracker | |
JP5693147B2 (en) | Photographic interference detection method, interference detection device, and surveillance camera system | |
JP2008026998A (en) | Obstacle location calculation system and method | |
JP5626099B2 (en) | Pedestrian detection device | |
JP2018148402A (en) | Image monitoring device and image monitoring method | |
JP2008165595A (en) | Obstacle detection method, obstacle detection device, and obstacle detection system | |
JP4707019B2 (en) | Video surveillance apparatus and method | |
JP4993281B2 (en) | Monitoring area setting device | |
JP6939065B2 (en) | Image recognition computer program, image recognition device and image recognition method | |
JP3994954B2 (en) | Object detection apparatus and object detection method | |
JP6737262B2 (en) | Abnormal state detection device, abnormal state detection method, and abnormal state detection program | |
KR101224534B1 (en) | Fire detection device based on image processing with motion detect function | |
KR102407202B1 (en) | Apparatus and method for intelligently analyzing video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130902 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5370009 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |