JP6403687B2 - 監視システム - Google Patents
監視システム Download PDFInfo
- Publication number
- JP6403687B2 JP6403687B2 JP2015552396A JP2015552396A JP6403687B2 JP 6403687 B2 JP6403687 B2 JP 6403687B2 JP 2015552396 A JP2015552396 A JP 2015552396A JP 2015552396 A JP2015552396 A JP 2015552396A JP 6403687 B2 JP6403687 B2 JP 6403687B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- camera
- marker
- overhead
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 45
- 238000012545 processing Methods 0.000 claims description 71
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 67
- 239000003550 marker Substances 0.000 claims description 67
- 238000001514 detection method Methods 0.000 claims description 62
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 61
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 19
- 230000015572 biosynthetic process Effects 0.000 claims description 7
- 238000003786 synthesis reaction Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 11
- 238000012790 confirmation Methods 0.000 description 10
- 238000002372 labelling Methods 0.000 description 9
- 238000009434 installation Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000008034 disappearance Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 206010042635 Suspiciousness Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19678—User interface
- G08B13/19691—Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
図1に、従来の監視システムのシステム構成図が示される。
図1のシステムは、敷地内を5台のカメラで監視するものであり、カメラ101、物体検知部102、映像配信部103、LAN_SW(Local Area Network SWitch)104、モニタ表示用PC(Personal Computer)105で構成される。
カメラ101で撮影された映像は、物体検知部102に入力される。
物体検知部102は、入力された映像に対して、侵入者・侵入物検知処理を行い、入力された映像に各種情報(線、文字、マーカーなど)を重畳し、検知結果映像を出力する。
映像配信部103は、物体検知部102から出力された検知結果映像を圧縮し、LANで映像を配信する。映像配信部103で配信された映像は、モニタ表示用PC105で受信し復号されて、モニタ表示用PC105に接続されたモニタ部210に表示する。
物体検知部102は、同軸ケーブル等で接続されたカメラ101から映像信号を入力され、A/D変換(Analog/Digital Conversion)などを行いデジタル画像データとして取り込むための画像入力I/F(InterFace)401、画像を一時記憶する画像メモリ402、画像処理のためのデータを一時記憶するためのワークメモリ部403、プログラムを実行するためのCPU(Central Processing Unit)204、画像メモリ402に記憶された映像をD/A変換し外部に出力するための画像出力I/F405、プログラムメモリ406、データバス407、モニタ表示用PC105へのアラーム通知やモニタ表示用PC105からのパラメータ設定のためのLAN_I/F408で構成されている。
侵入者・侵入物検知ソフト409は、カメラの映像101を画像入力I/F401で取込み、画像メモリ402、ワークメモリ403を用いて、一般的なモーションディテクタに代表されるフレーム間差分処理、しきい値処理、物体判定(面積・幅・高さの判定)により、侵入者・侵入物検知を行うものである。
侵入者・侵入物検知ソフト409は、画像メモリ402に記憶された画像(処理途中過程の画像(差分画像や二値画像)や、入力画像に処理結果を重畳した処理結果画像など)を画像出力I/F405を用いて、モニタなどに表示する機能を持っている。また、検知処理の結果すなわち、侵入者・侵入物検知開始/終了の信号は、LAN_I/F201により、モニタ表示用PC105に通知される。
図2において、モニタ表示用PC105は、物体検知部102からのアラーム通知受信、物体検知部102のパラメータ送受信、映像配信部103からの配信映像の受信に用いるLAN_I/F201、データの演算や記憶を行うためのメモリ202、マップデータが記憶されているHDD23、プログラムを実行するためのCPU204、ポインティングデバイス212やキーボードなどでモニタ表示用PCの操作するための入力I/F205、プログラムメモリ206、ブザー211を制御(ON/OFF)するためのブザー出力I/F207、生成した表示マップ画像306及び表示カメラ映像307をD/A変換してモニタに出力するためのモニタ出力I/F208、データバス209、ポインティングデバイス212、モニタ部210−1〜210−2、ブザー211で構成されている。
映像受信部206−1は、映像配信部103から配信された映像を、LAN_I/F201を使用して受信を行い、受信した映像を復号してメモリに保持し、必要に応じ復号前の映像データをHDDにも記録する。ここでメモリもしくはHDDに記憶するカメラの映像は、全てのカメラであっても、表示カメラ映像307に表示されるカメラのみのどちらの形態もある。
アラーム受信部206−2は、物体検知部102から出力された侵入者・侵入物検知開始/終了の信号を受信し、受信した信号状態を元に、各カメラの警報状態(1回前及び現在の侵入者または侵入物のあり/なし)をメモリ202に記録する。管理上、各アラームには受信順にシリアル番号(受信されたアラームID)が付され、発報種別、発報元のカメラID、時刻、位置情報等が記録される。
記憶した侵入者または侵入物検知の開始/終了の信号は、マップ表示部206−3でのマップ表示画面の生成、ブザー制御部206−4のブザー制御や、映像切替部206−5のカメラ映像として表示する画面の選択制御に用いられる。
HDD23に記憶されたマップデータ303を読み込み、メモリ202上にマップ画像(1)として記憶する。マップ画像 (1)に対して、HDD23に記憶されたカメラ台数/表示位置情報、ボタンの名称/表示位置情報のデータを読み込み、マップ画像 (1)にマップ表示切替ボタン301、カメラアイコン302、警報確認ボタン304、ブザー停止ボタン305を追加し、マップ画像 (2)として、メモリ202上に保存する。
アラーム受信部206−2でメモリ202に記憶された各カメラの警報状態(1回前及び現在の侵入者・侵入物あり/なし)を元に、マップ表示切替ボタン301及び、警報確認ボタン304、ブザー停止ボタン305の色を変更する機能を有している。
本公知例は、侵入者・侵入物なしの場合にはマップ表示切替ボタン301の色を「緑」、侵入者・侵入物ありの場合にはマップ表示切替ボタン301の色を「赤」、マップ画像303に相当する場所(1F〜3F及び外周)のマップ表示切替ボタン301は色を「白」に設定する。
侵入者または侵入物なしの場合には、カメラアイコン302の色を「青」、侵入者または侵入物ありの場合にはカメラアイコン302の色を「赤」、モニタ部210に表示する表示カメラ映像307に相当するカメラは、カメラアイコン302の色を「橙」に設定する。
警報確認ボタン304、ブザー停止ボタン305は、通常「薄黄色」に設定し、「警報なし」から「警報あり」の状態に変わったときには、警報確認ボタン304、ブザー停止ボタン305の色は「赤」に設定する。
ブザー制御部206−4では、アラーム受信部206−2でメモリ202に記憶された各カメラの警報状態(1回前及び、現在の侵入者・侵入物あり/なし)及び、ブザー停止ボタン305の状態を判断し、ブザー211の鳴動及び鳴動停止の制御を行う。
各カメラの警報状態で1回前:侵入者・侵入物なしでかつ、現在:侵入者・侵入物ありでかつ、ブザー停止ボタン305が通常状態(ボタン色が黄色)であった場合にのみ、ブザー出力I/F207に対して、ブザー211を鳴動させるように制御する。監視員がブザー停止の操作(ポインティングデバイス212を操作。ブザー停止ボタン305が警報状態(ボタン色が赤)を選択)した場合、ブザー出力I/F207に対して、ブザー211の鳴動停止させるように制御する。
映像受信部206−1で全てのカメラ映像をメモリもしくはHDD23に記憶している場合には、メモリもしくはHDD23に記憶されている表示カメラ映像307を読み込めば良いし、表示カメラ映像307のカメラのみメモリもしくはHDD23に記憶している場合には、映像受信部206−1で受信するカメラの切替、映像受信後に、表示カメラ映像307を読み込む動作となる。
映像切替部206−5は、アラーム発生していない状態(警報確認ボタン304が通常状態(ボタン色が黄色))に、新たにアラームが発生していた場合(各カメラの警報状態で1回前:侵入者または侵入物なしでかつ、現在:侵入者または侵入物ありのカメラあり)には、表示カメラ映像307を切替える制御も行うし、警報確認ボタン304が押された場合に、他のカメラでのアラームが発生していた場合には、アラーム発生しているカメラの映像に表示カメラ映像307を切替える制御も行う。
第1の課題は、複数のカメラの視界のそれぞれに同時に複数の侵入者・侵入物が入ってきた場合に、モニタ表示されているカメラに対してのみしか状況確認ができない。その他カメラの確認を行うためには監視員の操作が必要となり、監視員が操作するまでのタイムラグによっては、確認した際にはそのカメラに侵入者・侵入物が映っておらず、結果として見逃しが発生する。
第2の課題は、カメラで視野が重複している部分があった場合には、単一の侵入者であっても複数のアラームが発生しうるため、侵入者が複数であるような状況と間違えやすい、或いは、全てのカメラに対してアラーム確認が必要となる点である。
第3の課題は、中規模・大規模監視システムでは監視カメラ設置場所マップ作成に労力がかかる。
第4の課題は、1カ所の空間を複数のカメラで監視すると、重なった領域を監視しているのにも関わらず、モニタ台数がカメラ台数だけ必要になる。
カメラ画像から俯瞰画像を作成する俯瞰画像作成部は、マーカーの2辺以上の長さや傾きから、カメラの高さやカメラが設置されている地面との角度のカメラパラメータを算出し、算出したカメラパラメータを元に仮想的な俯瞰カメラで見たような真上からの画像に変換し、同じ大きさの物体であれば画面のどこに置いても同じ大きさになるように俯瞰画像を作成し、俯瞰画像合成部は、複数の俯瞰画像を1つの画像に合成することを特徴とする。
また、カメラ画像を俯瞰画像に変換することで、1枚の監視画像で監視対象の空間の全体を把握することができる。
図5は、実施例1の監視システムの物体検知部2の機能ブロック図である。物体検知部2は、画像入力I/F21、画像メモリ22、ワークメモリ部23、CPU204、画像出力I/F25、プログラムメモリ26、ブザー出力I/F27、LAN_I/F28、データバス29、で構成されている。物体検知部2は、ハードウェア上は、従来の物体検知部102と構成が似ているが、プログラムメモリ26に格納されたプログラムが従来とは大きく異なる。
プログラムメモリ26は、画像取込部31、背景作成部32、差分処理部33、二値化処理部34、ラベリング部35、追跡処理部36、判定処理部37、物体種別判定部38、表示用物体領域抽出部39、ワールド座標算出部40、表示用軌跡作成部41、及び、表示用データ作成部42の機能モジュールで構成されている。
背景作成部32は、画像メモリ22に記憶された入力画像を、一定数取り込みながら、例えば加重平均するなどの方法で物体のいない背景画像を生成し、画像メモリ22に保存する。なお、この侵入者・侵入物検知は物体の存在時間が短い場所で使われることを前提としている。
なお、背景画像と入力画像の画素ごとの差分とは、変化した部分を抽出する絶対値差分(|入力画像−背景画像|)、背景に対して明るくなった部分を抽出する差分(入力画像−背景画像)、背景に対して暗くなった部分を抽出する差分(背景画像−入力画像)であり、これは用途によって選択されるものである。
ラベリング部35は、二値画像で得られた白画素に対してかたまりごとに番号付けを行い、物体個数の算出及び、ラベリング画像を画像メモリ22に保存するとともに、ラベリング画像に対して、特徴量抽出処理を行い、各物体の面積・幅・高さ・足元の位置の情報が得られる。
なお、判定処理部37の予め設定した検知条件とは、画面上に仮想エリアを設定し、その仮想エリアに物体が入ってきたときもしくはその仮想エリアに滞在時間以上物体が存在した場合に検知する。また、境界ライン即ち画面上に仮想ラインを設定し、その仮想ラインを物体が指定方向に横切った場合に検知する。さらに物体の大きさを条件に入れてもよい。
物体種別の判断方法としては、以下の分類方法がある。
大きさ判定による分類は、物体の幅(画素)、高さ(画素)を、カメラの設置条件(カメラの高さ、俯角、焦点距離、CCDサイズ)と物体の足元位置から実際の物体の幅(m)、高さ(m)を算出し、人、二輪車(自転車,バイク)に乗った人,車,その他の4種類に分類する。
速度による分類は、大きさ判定による分類で人、二輪車に乗った人と判断された物体に対して、最新と最古の軌跡情報(画素)を、カメラの設置条件、例えば、カメラの高さ,俯角,焦点距離,CCDサイズから実際の距離(m)に変換し、最新と最古の軌跡情報の時間差から速度を算出することにより、人と二輪車に乗った人を分類する。
まず、物体が存在する位置周辺に対して、ラプラシアンフィルタなどのエッジ抽出処理により物体の輪郭線を抽出し、抽出した物体の輪郭線と、予め用意しておいた人の輪郭線モデル,車の輪郭線モデル,二輪車に乗った人の輪郭線モデルのどれに一番類似性があるかを判断することにより、人,車,二輪車に乗った人に分類し、どのモデルにも類似性がない物体はその他に分類する。
ここで、類似性をみるためには、予め用意した人の輪郭線モデル,車の輪郭線モデル,二輪車に乗った人の輪郭線モデルは、物体の位置(カメラからの距離(m))により拡大または縮小を行い、物体の大きさ変化の影響をなくすものとする。また、物体が存在する位置周辺範囲全てに対して類似性を算出することで、二値化処理部34で得られた二値画像や、ラベリング処理ステップ35で得られた物体の位置,幅,高さが、実際の物体よりも小さく検出されていた場合でも、分類精度を向上することが可能となる。
一般的に二値化処理部34で得られた二値画像や、ラベリング処理部35で得られた物体の位置,幅,高さを用いた場合には、影・物体のコントラストの影響を受け、物体の一部が欠けるもしくは物体よりも大きすぎるといった問題があり精度が低い。
そのため、得られた物体の足元位置、幅、高さを、物体種別判定部38で得られた物体種別に応じて拡張(例えば、人の場合、足元位置、幅、高さを物体の幅50cm、物体の高さ1.7m分拡張)し、拡張した範囲内でラプラシアンフィルタなどによりエッジ抽出を行い、エッジが一番密集している部分を中心として、物体種別に応じた範囲+規定範囲(例えば、5%)の範囲を切出すことによって、物体の範囲をかけることなく切出す。
また、影の影響に対しては、画像メモリ22に記憶された背景画像と入力画像の相関性を判断し、相関性が高い部分を物体以外、相関性が低い部分を物体と判断して得られた範囲に対して、上記の処理を行うことによって、影の影響を減らすことが可能となる。
表示用軌跡作成部41は、追跡処理部36で得られた軌跡情報(画素)を、ワールド座標算出部40と同様にカメラの設置条件を利用して、カメラからの距離に変換するとともに、予め設定されたカメラ位置を足すことで、実際の敷地上の位置情報を算出する。
ここで、軌跡は追跡処理部36を使うこととしたが、表示用物体領域抽出部39の処理を、追跡処理部36より前に行うことで、精度を向上することもできる。
図6に、実施例1におけるモニタ表示用PC5の機能ブロック図が示される。
モニタ表示用PCは、カメラ映像の表示を制御する手段であり、本例のPC5は、物体の位置情報を元に重複物体を削除する機能や、顔切出し及び顔認証機能を利用して重複物体を削除する機能や、モニタ表示画像801に物体画像(顔)1201を重畳する機能を有しうる。
図6に示されるモニタ表示用PC5中で、符号21〜29に係る構成は、26を除き従来のモニタ表示用PC105における201〜209と同様であるため、説明を省略する。プログラムメモリ26は、座標変換部51、マップ作成部52、位置判定部53、物体重畳部54、軌跡重畳部55を有する点で従来と異なる。
ただし、物体重畳部54は、カメラ1から受け取った物体画像803のサイズが規定値以下であった場合には、拡大処理+バイキュービック補完などの補完処理をすることにより、画質劣化が少なく見やすいサイズに拡大してもよい。また、建物内で検知された物体画像803を重畳する場合には、建物フロア図(鳥瞰)のフロアごとに吹き出し図形を描画し、その吹き出しの中に各フロアに設置しているカメラで撮影した物体画像803を並べて表示してもよい。
軌跡重畳部55は、位置判定部53からの指示に基づき、物体検知部2から受信した実際の敷地上の軌跡情報に基づいて軌跡804をレイヤ3に描画し、地図画像801上に重畳する。
そして、今検出されたばかりの顔を1つずつキーとして、今検出された他の顔及び過去にHDD23に記録された顔画像の中から、特徴量の類似する顔を探索し、同一人物かどうか照合する。同一と判断された時は、物体ID、軌跡情報(HDD23に記録された当該人物の過去の位置情報)等が返される。ここで同一人物には同じ物体IDが付される。
顔認証部56はまた、時刻や場所が多少異なっても、同一と判断された人物等に対しては、同一人物が移動したもの(つまり一件の侵入事象)と推定して、古い方のアラームを新しいアラームで上書きする。ここで言う上書きには、例えば古いアラーム受信IDと同じIDを新しいアラームでも使うことなど、これらのアラームを統合できる様々な手法が含まれる。HDD23には、追跡処理部よりも長時間、消失後の軌跡が保持されており、一端途切れた軌跡を連結することができる。
顔認証部56は、同一と判断された人物等に対しては、解像度やスコアの最も高い画像を1乃至所定数だけ残して、新たな軌跡情報を加えて統合された軌跡情報とともにHDD23に記憶させ、記録にない(つまり初めての)人物等に対しては、今の顔画像、物体ID、物体検知部2からの位置情報や軌跡情報(もしあれば)をHDD23に記憶させる。なおHDD23には、追跡したりモニタ画面へ表示したりする必要のない人物(例えば従業員)の顔をホワイトリストとして記憶させてもよい。この場合顔認証部56は、ホワイトリストの人物と一致しても何もしない。
なお、建物内で顔検出された場合や、ある領域内で検出された顔の密度が高い場合、物体画像(顔)1201を正確な位置に重畳する代わりに、フロアや領域ごとに吹き出しを作成し、その吹き出しの中に物体画像(顔)1201を並べて表示し、軌跡は、特定の物体画像(顔)1201を選んだ時だけ表示するようにしてもよい。
以上説明した処理を行うことにより、図9のモニタ表示を実現することが可能となる。重複を削除するには、顔認証の他、RFID(Radio Frequency IDentification)などによる物理セキュリティーシステムと組合せる方法もある。
カメラ141で撮影した画像を画像処理により、あたかも真上からカメラで撮影したような画像に変換する。ここではこの真上に位置する仮想的なカメラを俯瞰カメラ145と称す。この俯瞰カメラ145で撮影した俯瞰視野146は、あたかも地図上で矩形に切り取ったように、どの位置でもスケールが一定であり、道路143を走行する車140の位置が把握しやすくなる。以降、仮想的な俯瞰カメラ145で撮影した俯瞰視野146内の画像を俯瞰画像148と称する。
図12はカメラ支柱166の上にカメラ141を高さHの位置に設置した様子を真横から見た状態を示す。このときカメラ141は道路143に向かって下向きに設置され、カメラ141の中心を通る光軸は角度θで距離Xだけ離れた車の中心を撮影している。このとき、H、X、θには次の式1の関係が成り立つ。
但し、カメラ支柱166と道路143は直角を成すとする。この式を変形すると式2のようになる。
θ = atan(X/H) ・・・・・ 式2
式2はカメラ141の画面中心に映る物体までの距離Xとカメラの設置高さHが分かれば、カメラが向いている角度θが分かることを示す。
一例として、被写体a173と被写体b174の2つが、レンズ172の主点からそれぞれ距離Xa、Xb離れた場所にあり、被写体a173の方が被写体b174より近くにあるとする。またカメラの光軸は、両被写体の中心に直角に交差する。被写体a173の端から光軸までの距離がYaの長さであるときに、その端からの光はカメラ141に搭載されたレンズ172を通り撮像素子171の端に届いているとする。撮像素子171の端から光軸までの距離(像高)はZaとする。この被写体a173の端からレンズ172の主点を通って撮像素子171に届く光線は、光軸に対しφaの角度をなす。被写体b174と撮像素子171に関係する光軸からの距離Yb、焦点位置での光軸からの角度φbも被写体a173と同様である。
また、被写体a173と被写体b174の大きさは同じである場合、被写体表面の光軸から端までの距離は式3の関係にある。
2つの被写体は同じ大きさであるが、カメラ141からの距離が異なるため、式4に示す関係である被写体b174の端からレンズ172に入る光の角度θbは、被写体a173の角度θaよりも小さい。
θa > θb ・・・・・ 式4
図14は、カメラ141が被写体a173と被写体b174を撮影したものであり、図中のφaとφbは図13で説明した角度と同じである。但しレンズ172を通った後の光の経路を図示しているため、角度φa、φbを上下反転して図示している。一般にレンズ172内の焦点183から撮像素子171までの光軸での距離を焦点距離f182とする。被写体a173の端から出た光は撮像素子171の表面上で光軸から距離Za離れた位置に届く。同様に被写体b174の端から出た光は光軸から距離Zb離れた位置に届く。この例では被写体a9の端を出た光は撮像素子7のちょうど端に届いている。光軸に対して撮像素子7と被写体a173、被写体b174が直角を成し、光軸が被写体の中心であるとき、距離Zaと撮像素子サイズ181は式5の関係にある。
被写体b174について図14を見ると、被写体b174の端を出た光が角度φbで撮像素子171に届く。式4の関係から撮像素子171に届いた光は光軸から距離Zbの位置であり、式6の関係にある。
Za > Zb ・・・・・ 式6
被写体a173と被写体b174は式3に示すように同じ大きさであるが、撮像素子171上では式6に示すように被写体b174の方が小さくなっている。これは2つの被写体の距離が異なるためであり、遠くにあるほど小さく見えるのはこのためである。
Xa / Ya = f / Za ・・・・・ 式7
Xb / Yb = f / Zb ・・・・・ 式8
式7と式8を距離XaとXbを求める式に変形すると式9と式10になる。
Xa = Ya × f / Za ・・・・・ 式9
Xb = Yb × f / Zb ・・・・・ 式10
ここで、fは像距離(レンズの主点から像面までの距離)で、用いるレンズ172により与えられ、ZaとZbは撮影された画像上で計測できる値であるため、被写体の大きさYaとYbが分かれば被写体までの距離XaとXbが求まる。
よって、被写体が真横から見たときに光軸上にあるならば、被写体までの距離が求まり、式2のXに距離を代入することで、大きさが分かっている被写体を撮影しているカメラ141の角度θが求まる。
図15は、マーカー192を道路143に置いた状態を示す図である。マーカー192は大きさが分かっている正方形もしくは長方形であり、その表面の模様から向きが分かるようになっている。説明を容易にするため、マーカーの辺は光軸に直交する場合を例示している。
より一般的な条件でカメラパラメータを求めるには、特許文献4や5に記載の手法を用いればよい。
入力するカメラからの画像2201にはマーカー192が映っている。マーカー192を探し出すため、直線検出部2202は、ハフ変換などを用いて画像内の直線成分を求める。マーカー192は所定の大きさであるため、画像中に映るマーカーの大きさ程度の長さの直線に絞って直線をピックアップする。求めた直線の座標を後段のマーカー位置検出部2203に出力する。
マーカー位置検出2203は、求めた直線の内、四角(奥行きが縮まっているので台形に変形して見える)になっている閉じた直線部分をピックアップする。そしてマーカー14の中心位置がカメラ画像のどの座標位置にあるかを記憶しておく。
さらに後段のマーカー傾き計算部2204では、台形に変形して見えるマーカー192の上辺と下辺の長さの割合から、マーカー192の上辺と下辺それぞれの、カメラからの距離を求めることが出来る。この直線が傾いて見えても問題は無く、直線の中心位置を距離の始点とすれば良い。
カメラパラメータ算出部2205は、マーカー192の上辺と下辺のカメラからの距離を元に、カメラの角度θを求めて俯瞰座標変換に使うための情報として出力する。得られたカメラパラメータは、物体検知部2との双方向通信によりワールド座標算出部40に通知されうる。
例えば、手前に映っている1mの物体と、最も奥に映っている1mの物体が、俯瞰画像(b)では同じ大きさで表示される。つまり、俯瞰画像を作成するには、本来同じ大きさである物体をモニタ画面191の上でも同じ大きさになるよう投影すれば良い。
カメラA2103が撮影しているカメラA視野2104には障害物2105があり、カメラA死角2106が発生している。その死角になり見ることが出来ない領域を撮影するため、カメラB2101を設置しカメラB視野2102でカメラA死角2106の領域をカバーしている。
この図18のようにカメラが設置されてる場合、カメラA視野2104とカメラB視野2102が重なる位置にマーカー2107を置く。このマーカー2107を基準に各カメラの画像を俯瞰画像に変換する。俯瞰画像に変換後、各カメラの画像を合成して1枚の画像にする。マーカー2107の模様は向きが分かるようになっているので、マーカー2107がちょうど重なるように、アフィン変換(リサイズと回転)を行ってから合成する。モニタ210にはこの合成後の俯瞰画像を表示するので、監視者は複数のカメラ画像を1枚の画像として監視することが出来る。
画像処理装置2000は、複数のカメラの入力を受けるため、内部では同じ処理が並列して設けられるが、各カメラで共通な処理はカメラ番号1から入力されるカメラ画像2001−1の処理を代表して説明する。
カメラ画像2001−1は、図16で説明したようなマーカー処理部2002−1に入力し、マーカーの画像情報からカメラパラメータを算出し、後段の俯瞰座標変換部2003−1に出力する。
俯瞰画像作成部2004−1は、俯瞰座標変換部2003−1で算出した俯瞰画像変換後の座標に各画素を配置して出力する。カメラで撮影した画像ではモニタ画面2006の上に行くほど大きさが縮まっていたが、俯瞰座標に変換することで同じ大きさの物体であればモニタ画面2006のどこに置いても同じ大きさになる。
俯瞰画像合成部2005は、複数のカメラからの俯瞰画像を1枚の画像に合成してモニタ2006に出力する。
入力する画像は俯瞰に変換した画像であり、その俯瞰画像がカメラの台数だけ入力される。1、2、・・・、nまでのn台のカメラが接続されている場合を例に説明する。
俯瞰画像合成部2205は、n枚の俯瞰画像のうち、1枚は基準俯瞰画像として、他の俯瞰画像を基準俯瞰画像に合わせて位置を調整する。この例では1番目のカメラの画像から作成した俯瞰画像を基準俯瞰画像と称して説明し、基準俯瞰画像以外の動作説明は2番目のカメラの画像を例に説明する。また、マーカー192の位置合わせをするアルゴリズムは色々な手段が考えられるが、ここでは俯瞰画像を回転して基準俯瞰画像と一致するまで回転を続けることでマーカー位置を一致されるアルゴリズムを例に説明する。他の実現手段として直線部分に着目して位置合わせを行うなど、画像処理で使われるパターンマッチング処理であればどのような手段で実現しても構わない。
パターンマッチング部2403−2は、俯瞰画像と、基準俯瞰画像である1番目のカメラとマーカー画像の同じ画像になるか画素単位で比較を行う。
このときにカメラ毎に明るさが異なる場合があるので、ある程度の明るさのばらつきは許容するようにしておく。例えば、画素の明るさが256階調であったならば、1/4の64階調にして比較するなどの手段がある。もしくは白と黒の明るさが両者で同じ値になるよう明るさの正規化処理を行っても良い。
俯瞰画像移動回転部2402−2は、パターンマッチング部2403−2からパターンマッチングの結果が不一致であるという結果が返った場合、更に俯瞰画像の回転を小さな角度(例えば、1度など)を行う。この結果を戻すループはパターンマッチング結果が一致になるか、360度回転まで続ける。
このようにして1番目の基準俯瞰画像と、2〜n番目の俯瞰画像を全て俯瞰画像重ね合わせ部2404に入力し、マーカー位置で1枚の画像に重ね合わせて、俯瞰合成画像2405として出力する。また、パターンマッチング部2403で得られたカメラ間の相対位置を示す情報は、ワールド座標算出部40に通知されうる。
マーカー192の外周は黒線で縁取りし、その内側に白い帯、さらに内側に黒線で区切った中をマーカー192が回転しても向きが分かるようなパターンにしている。黒枠の内側を白い帯にしたのは上辺と下辺の直線を検出しやすくするためである。マーカー192の色は白黒でなくても構わないが、明るさ成分だけで画像処理を行う方が処理を単純化しやすいのと、照明に色が付いても判別しやすい点で白黒のパターンが扱いやすい。またマーカー192の各辺が直角に交われば長方形でも構わないが、回転処理を行うために正方形が扱いやすい。
なお、画像処理装置2000は、別途ハードウェアを備えずとも、モニタ表示用PC5や物体検知部2のCPUで実現することもできる。
また装置に入力される画像はライブ映像でなくても良く、ハードディスクなどの記録媒体に記憶された画像データや、ネットワークを経由して入力される画像データでも良い。その画像データは画像圧縮処理が施された画像データでもよく、その場合は画像伸張処理を行った後に上記で説明した処理を施せば良い。さらに俯瞰画像の出力先はモニタでなくても良く、ハードディスクなどの記録媒体、ネットワークなどでも良い。
また、複数のカメラで撮影した画像は俯瞰表示だけではなく、カメラで斜め上から見たような鳥瞰表示にしても構わない。真上から見た画像に座標変換する際に使用する傾きの数値を変更するだけで容易に鳥瞰表示にも対応できる。一度全てのカメラ画像を俯瞰表示に変換して1枚の画像に合成した後に、その1枚の俯瞰画像に対して座標変換処理を行い鳥瞰表示に変換しても良い。建物の各フロアを表示する鳥瞰画像を作成する手段として、このマーカーを使っても複数のカメラ画像を合成しても構わない。さらにこのマーカーを使って複数カメラの画像を合成した俯瞰画像や鳥瞰画像に対し、侵入者や侵入物と、その軌跡や顔認証の結果を合成しても構わない。
21:画像入力I/F、22:画像メモリ、23:ワークメモリ、24:CPU、25:画像出力I/F、26:プログラムメモリ、26-1:映像受信部、26-2:アラーム受信部、26-3:マップ表示部、26-4:ブザー制御部、26-5:映像切替部、27:ブザー出力I/F、28:モニタ出力I/F、29:データバス、
31:画像取込部、32:背景作成部、33:差分処理部、34:二値化処理部、35:ラベリング部、36:追跡処理部、37:判定処理部、38:物体種別判定部、39:表示用物体領域抽出部、40:ワールド座標算出部、41:表示用軌跡作成部、42:表示用データ作成部、
51:座標変換部、52:マップ作成部、53:位置判定部、54:物体画像重畳部、55:軌跡重畳部、56:顔認証部、57:顔重畳部、58:CG選択部、
212:ポインティングデバイス、210-1,210-2:モニタ部、211:ブザー、
304:警報確認ボタン、305:ブザー停止ボタン、
401:画像入力I/F、402:画像メモリ、403:ワークメモリ、404:CPU、405:画像出力I/F、408:LAN I/F、
801:地図画像、802:建物フロア図(鳥瞰)、803-1,803-2:物体画像、804-1,804-2:軌跡、1001-1:物体画像(CG)、1101:表示切替ボタン、1201:物体画像(顔)、
2000:画像処理装置、2001-1〜2001-n:カメラ画像、2002-1〜2002-n:マーカー処理部、2003-1〜2003-n:俯瞰座標変換部、2004-1〜2004-n:俯瞰画像作成部、2005:俯瞰画像合成部、2006:モニタ部、2202:直線検出部、2203:マーカー位置検出部、2204:マーカー傾き計算部、2205:カメラパラメータ算出部。
Claims (4)
- 複数のカメラにより撮影された映像から物体を検知する物体検知手段と、映像表示手段と、該映像表示手段に映像を表示する映像表示制御手段を有する監視システムにおいて、
前記映像表示制御手段は、映像受信部とアラーム受信部とマップ表示部とブザー制御部と映像切替部と座標変換部とマップ作成部と位置判定部と物体重畳部と軌跡重畳部の機能を有し、
前記マップ作成部は、平面の地図画像に、前記カメラの配置画像と、建物の所定のフロアの画像とを重畳し、
前記位置判定部は、物体検知手段が物体を検知した場合に、物体検知手段から受信した実際の敷地上の位置および軌跡情報を元に、当該敷地上の位置情報を比較および照合して物体の重複を判断し、
該物体の重複による誤差が所定以内であれば同一物体である侵入者または侵入物と判断し、該同一物体である侵入者または侵入物と判断した画像を対象に、表示する物体画像として解像度の最も高い画像の位置情報を残し、他の画像の位置情報を削除し、
前記物体重畳部は、前記位置判定部からの指示に基づき、前記物体検知手段から受信した物体検知領域画像を、位置情報に対応する前記地図画像に重畳し、
前記軌跡重畳部は、位置判定部からの指示に基づき、前記物体検知手段から受信した当該敷地上の軌跡情報に基づいて軌跡を、前記地図画像に重畳するものであって、
前記アラーム受信部でアラームを受信した場合、前記物体重畳部と前記軌跡重畳部は、前記物体検知手段で抽出した物体検知領域画像と前記地図画像に重畳された軌跡を、前記地図画像の対応する位置にそれぞれ重畳することを特徴とする監視システム。 - 請求項1に記載の監視システムにおいて、前記映像表示制御手段は、
前記複数のカメラの映像から検出された顔について、同一人物に対し同じIDを付与することで同一人物によるアラームを統合する顔認証部と、
前記顔認証部で検出された顔の画像と位置情報を使用して、当該顔の画像を前記地図画像の対応する位置に重畳するともに、前記顔認証部で統合された軌跡情報を使用して軌跡を重畳する顔重畳部と、を更に備えたことを特徴とする監視システム。 - 請求項1に記載の監視システムにおいて、複数のマーカー処理部と俯瞰座標変換部と俯瞰画像作成部と、俯瞰画像合成部を有する画像処理装置を更に設け、
前記カメラは同じマーカーを撮影し、
前記マーカーは前後左右の識別可能な図柄を有し、
前記マーカー処理部はカメラ画像からマーカーを検出し、
前記俯瞰座標変換部は前記マーカーを基準にカメラ画像に所定回転を施し、
カメラ画像から俯瞰画像を作成する俯瞰画像作成部は、前記マーカーの2辺以上の長さや傾きから、カメラの高さやカメラが設置されている地面との角度のカメラパラメータを算出し、算出したカメラパラメータを元に仮想的な俯瞰カメラで見たような真上からの画像に変換し、同じ大きさの物体であれば画面のどこに置いても同じ大きさになるように俯瞰画像を作成、もしくは複数のカメラ画像から斜め上の1点から見たような鳥瞰画像を作成し、
前記俯瞰画像合成部は、複数の俯瞰画像もしくは鳥瞰画像を1つの画像に合成することを特徴とする監視システム。 - 請求項1乃至3のいずれかに記載の監視システムにおいて、前記物体検知手段は、検知した物体の種別を判定して物体種別情報を出力するものであり、
前記物体種別情報に応じた所定のCG画像を選択し、物体検知領域画像の代わりに地図画像に重畳するCG重畳部を、更に備えたことを特徴とする監視システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013254966 | 2013-12-10 | ||
JP2013254966 | 2013-12-10 | ||
PCT/JP2014/081729 WO2015087730A1 (ja) | 2013-12-10 | 2014-12-01 | 監視システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015087730A1 JPWO2015087730A1 (ja) | 2017-03-16 |
JP6403687B2 true JP6403687B2 (ja) | 2018-10-10 |
Family
ID=53371039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015552396A Active JP6403687B2 (ja) | 2013-12-10 | 2014-12-01 | 監視システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6403687B2 (ja) |
WO (1) | WO2015087730A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017054311A (ja) * | 2015-09-09 | 2017-03-16 | 株式会社デンソー | 物体検出装置 |
JP6593922B2 (ja) * | 2015-11-13 | 2019-10-23 | 株式会社日立国際電気 | 画像監視システム |
JP2017134775A (ja) * | 2016-01-29 | 2017-08-03 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6482580B2 (ja) * | 2017-02-10 | 2019-03-13 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6875255B2 (ja) * | 2017-11-09 | 2021-05-19 | 株式会社日立ビルシステム | 映像監視システム及び映像監視装置 |
JP6789421B2 (ja) * | 2018-02-08 | 2020-11-25 | 三菱電機株式会社 | 情報処理装置、追跡方法、及び追跡プログラム |
US11341774B2 (en) * | 2018-03-27 | 2022-05-24 | Nec Corporation | Information processing apparatus, data generation method, and non-transitory computer readable medium storing program |
JP2020017804A (ja) * | 2018-07-23 | 2020-01-30 | 株式会社チャオ | 画像伝送装置、画像伝送方法および画像伝送プログラム |
CN111372036B (zh) * | 2018-12-25 | 2021-05-25 | 中国科学院深圳先进技术研究院 | 一种视频监测方法、系统 |
CN111147811B (zh) * | 2019-11-20 | 2021-04-13 | 重庆特斯联智慧科技股份有限公司 | 一种自动人脸追踪的三维成像系统、成像方法和成像设备 |
JP7178574B2 (ja) * | 2020-03-12 | 2022-11-28 | パナソニックIpマネジメント株式会社 | 監視カメラ管理装置、監視カメラ管理システム、監視カメラ管理方法及びプログラム |
JP7030906B2 (ja) * | 2020-07-17 | 2022-03-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN114237094B (zh) * | 2021-11-23 | 2024-08-20 | 富盛科技股份有限公司 | 智能报警联动监控系统、方法、电子设备和介质 |
JP7174389B1 (ja) | 2022-02-18 | 2022-11-17 | 株式会社ヒューマンサポートテクノロジー | 物体位置推定表示装置、方法及びプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001094968A (ja) * | 1999-09-21 | 2001-04-06 | Toshiba Corp | 映像処理装置 |
JP2003078811A (ja) * | 2001-09-04 | 2003-03-14 | Nippon Hoso Kyokai <Nhk> | マーカ座標対応付け方法とカメラパラメータ取得方法とカメラパラメータ取得システムとキャリブレーションパターン |
JP3820157B2 (ja) * | 2002-01-21 | 2006-09-13 | ペンタックス株式会社 | 写真測量システムと写真測量方法と写真測量プログラムが格納された記録媒体 |
US20060265664A1 (en) * | 2005-05-17 | 2006-11-23 | Hitachi, Ltd. | System, method and computer program product for user interface operations for ad-hoc sensor node tracking |
JP4939968B2 (ja) * | 2007-02-15 | 2012-05-30 | 株式会社日立製作所 | 監視画像処理方法、監視システム及び監視画像処理プログラム |
JP2011077982A (ja) * | 2009-10-01 | 2011-04-14 | Panasonic Corp | 監視カメラシステム |
JP5299231B2 (ja) * | 2009-11-17 | 2013-09-25 | 富士通株式会社 | キャリブレーション装置 |
JP5910447B2 (ja) * | 2012-02-29 | 2016-04-27 | 株式会社Jvcケンウッド | 画像処理装置、画像処理方法及び画像処理プログラム |
-
2014
- 2014-12-01 WO PCT/JP2014/081729 patent/WO2015087730A1/ja active Application Filing
- 2014-12-01 JP JP2015552396A patent/JP6403687B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2015087730A1 (ja) | 2015-06-18 |
JPWO2015087730A1 (ja) | 2017-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6403687B2 (ja) | 監視システム | |
US20210400200A1 (en) | Video surveillance system and video surveillance method | |
US6774905B2 (en) | Image data processing | |
KR101937272B1 (ko) | 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법 | |
KR101634966B1 (ko) | Vr 기반의 객체인식 정보를 이용한 영상 추적시스템, 그리고 영상 추적방법 | |
TWI681305B (zh) | 監控方法以及監控裝置、監控系統 | |
KR101084914B1 (ko) | 차량번호 및 사람 이미지의 인덱싱 관리시스템 | |
KR101780929B1 (ko) | 움직이는 물체를 추적하는 영상감시 시스템 | |
US12148173B2 (en) | Object tracking apparatus, control method, and program | |
JP7314973B2 (ja) | 映像監視装置、映像監視方法及びプログラム | |
KR101985711B1 (ko) | 증강현실 cctv 시스템 및 그 제어방법 | |
EP1266525B1 (en) | Image data processing | |
US11108974B2 (en) | Supplementing video material | |
JP2007036756A (ja) | 視角固定の全周カメラと視点方向を制御可能な狭角カメラをリンクさせた監視カメラシステム | |
KR101937582B1 (ko) | 인도 보안 안전 시스템 | |
KR102152319B1 (ko) | 3d 공간상에서 객체의 위치와 크기를 계산하는 방법 및 이를 이용한 영상관제시스템 | |
WO2021248564A1 (zh) | 一种全景大数据应用监测管控系统 | |
KR101645451B1 (ko) | 스테레오 카메라를 이용한 감지영역 내의 이동객체 감지시스템 | |
KR101674033B1 (ko) | 삼차원 지도 기반 폐쇄회로 텔레비전 영상 매핑 시스템 | |
JP2003232867A (ja) | 物体検出方法及び装置 | |
KR20230101585A (ko) | 화재 및 재난상황 예측 대응 플랫폼 구축을 위한 시스템 및 방법 | |
JP2005140754A (ja) | 人物検知方法、監視システム、およびコンピュータプログラム | |
KR101749679B1 (ko) | 촬영 영상을 이용한 추적대상의 삼차원 형상 생성시스템 및 그 방법 | |
KR101728994B1 (ko) | 증강현실 폐쇄회로 텔레비전 감시 시스템 | |
WO2022022809A1 (en) | Masking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6403687 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |